🎤 爲偶像應援 · Gate送你直達 Token of Love! 🎶
家人們,現在在Gate廣場爲 打 Token of Love CALL,20 張音樂節門票等你來瓜分!🔥
泫雅 / SUECO / DJ KAKA / CLICK#15 —— 你最期待誰?快來一起應援吧!
📌 參與方式(任選,參與越多中獎幾率越高!)
1️⃣ 本帖互動
點讚 & 轉發本帖 + 投票你最愛的藝人
評論區打出 “我在 Gate 廣場爲 Token of Love 打 Call !”
2️⃣ 廣場發帖爲 TA 打 Call
帶上 #歌手名字# + #TokenOfLove#
發帖內容任選:
🎵 最想現場聽到的歌 + 心情宣言
📣 應援口號(例:泫雅女王衝鴨!Gate廣場全員打 Call!)
😎 自制表情包/海報/短視頻(加分項,更容易中獎!)
3️⃣ 推特 / 小紅書發帖打 Call
同樣帶上 #歌手名字# + #TokenOfLove#
內容同上,記得回鏈到表單 👉️ https://www.gate.com/questionnaire/7008
🎟️ 獎勵安排
廣場優質發帖用戶:8張門票
廣場幸運互動用戶:2張門票
Twitter 優質發帖用戶:5張門票
小紅書優質發帖用戶:5張門票
📌 優質帖文將根據文章豐富度、熱度、創意度綜合評分,禁止小號水貼,原創發帖更易獲獎!
🕒 8
MLPerf放榜,中國AI芯片公司再獲世界第一!大模型推理三項冠軍,性能超越H100
隨著ChatGPT等AIGC應用掀起大模型浪潮,算力層作為基礎設施,成為最先受益的產業。
然而,算力需求大、費用昂貴等問題,已成為企業落地大模型的普通痛點,更可能製約AI向前發展:大模型參數日益增長,而算力供給瓶頸迫在眉睫,二者形成巨大矛盾。
如何探索更好的大模型算力方案,是業界共同關注的焦點。
近日,全球權威測評MLPerf 公佈最新推理測評結果,這是MLPerf首度引入GPT大模型推理測試,參與熱度再創紀錄,收到了來自英偉達、英特爾、谷歌、高通等企業提交的13500多項性能結果。
在MLPerf Inference 3.1中,墨芯人工智能(Moffet AI)S30計算卡在大模型GPT-J(60億參數)上,單卡、4卡、8卡的算力均獲得第一。
此前墨芯曾在MLPerf Inference 2.0與2.1上,連續兩屆獲得第一。
墨芯的成績,為大模型算力方案帶來了可行的創新方向。
事實證明:結合AI模型與計算平台的軟硬協同創新,能夠釋放更大的算力潛力。這也再度印證:以稀疏計算為代表的創新技術,將是大模型時代算力發展的關鍵。
墨芯參加的是MLPerf開放分區,據主辦方MLCommons介紹,該分區旨在鼓勵創新。因此參賽者可以通過軟硬協同等方式,探索對算力的提升。
在MLPerf中的GPT-J大模型上,與4nm製程的H100純硬件加速方案相比,12nm製程的墨芯S30計算卡通過「原創的雙稀疏算法+硬件協同」方式,取得了高達1.8倍的優勢。
本次測評的GPT-J模型是生成式AI模型,墨芯S30計算卡在8卡、4卡、單卡模式下,性能分別為170.59,91.57,23.28 (Sample/s),達到英偉達H100性能的1.6倍、1.8倍、1.8倍,展現出墨芯產品在AIGC類任務上的能力。
稀疏計算——大模型「潛力股」獲得市場認可
墨芯接連的優異成績,主要得益於基於稀疏化算法的軟硬協同設計。
在大模型時代,稀疏計算的重要性不言而喻:AI模型大小與其稀疏化潛力成正比。
也就是說,當模型越大,算法上有更大稀疏的可能性,稀疏計算可加速的幅度也越高。對於一般大型語言模型,稀疏計算可帶來數十倍加速。
墨芯獨創的雙稀疏算法,結合軟硬協同設計,使墨芯Antoum®芯片成為全球首款高稀疏倍率AI芯片,支持高達32倍稀疏——這也正是墨芯在本次MLPerf中創新紀錄的關鍵。
模型越大,稀疏計算的優勢越明顯——尤其是在GPT等大模型參數動輒上百億、千億的現狀下,這使得墨芯的護城河更為穩固。
墨芯的產品實力與稀疏計算的大勢所趨,也獲得了業界的認可:墨芯商業化進程接連取得重要突破,助力企業加速AI應用。
就在近日,墨芯正式成為支持Byte MLPerf的供應商之一。
項目地址:
當前,墨芯AI計算平台已能夠支持不同參數級別的大模型,包括BLOOM, OPT, GPT-J,LLaMA,StableDiffusion等。
同時具有高吞吐、低延時、低功耗等特點,緩解算力之困,真正為企業帶來「好用」、「用得起」的大模型算力方案。
帶來根本性的算力變革,稀疏計算助力大模型發展
墨芯的稀疏計算方案不僅能夠緩解當前的算力難題,也為AI的持續發展打開新的空間。
稀疏計算減少了AI模型的計算量,這意味著能讓大模型既在參數量上躍升若干個數量級的同時,又不產生過大的計算量,大模型參數增長與算力瓶頸的矛盾有望從根本上得到解決。
同時,由於計算量的減少,大模型的高算力需求、高功耗、高費用等痛點,也一併得到解決,實現「多贏」效果。
連續三屆MLPerf的優異成績,不僅是對墨芯產品實力的證明,也為業界帶來新啟示:在稀疏計算等技術的助力下,大模型的發展與應用有望迎來更廣闊的施展空間,加速AIGC等應用在各行各業遍地開花。
關於MLPerf
MLPerf由圖靈獎得主大衛•帕特森(David Patterson)聯合谷歌、斯坦福、哈佛大學頂尖學術機構發起成立,是權威性最高、影響力最廣的國際AI性能基準測試,以對迅速增長的AI計算需求與性能進行及時的跟踪測評。