Cerebras Systems發(fā)布全球最大AI芯片WSE

發(fā)布時(shí)間:2025-5-30 15:24    發(fā)布者:eechina
關(guān)鍵詞: Cerebras , AI芯片 , WSE
近日,美國AI芯片初創(chuàng )公司Cerebras Systems正式推出全球尺寸最大的AI芯片——Wafer Scale Engine(WSE),并在A(yíng)I推理性能上實(shí)現歷史性突破。這款邊長(cháng)22厘米、面積達462平方厘米的芯片,集成了40億至4萬(wàn)億個(gè)晶體管(不同代次版本),其推理速度比同等規模的英偉達GPU集群快約2.5倍,重新定義了AI計算的性能邊界。

“晶圓級”架構:?jiǎn)涡酒敲莱売嬎銠C

WSE的核心創(chuàng )新在于其“晶圓級”設計——將整塊300毫米晶圓轉化為單一處理器,而非傳統方式中將晶圓切割為多個(gè)小芯片。這一設計使WSE擁有以下突破性參數:

晶體管數量:最新WSE-3版本集成超4萬(wàn)億個(gè)晶體管,是英偉達H100的52倍;
核心規模:搭載90萬(wàn)個(gè)AI優(yōu)化計算核心(WSE-3),是H100的52倍;
內存帶寬:片上SRAM達44GB,帶寬9PB/s,是H100的10,000倍;
功耗效率:?jiǎn)涡酒?5千瓦,但能效比優(yōu)于英偉達DGX H100集群。

Cerebras首席執行官Andrew Feldman表示:“WSE不是對現有架構的漸進(jìn)改進(jìn),而是芯片技術(shù)的一次范式革命。通過(guò)將計算、內存和通信全部集成在單晶圓上,我們消除了傳統集群中90%的數據傳輸延遲!

推理性能碾壓:每秒生成2500個(gè)Token

在Web Summit 2025大會(huì )上,Cerebras展示了WSE在Meta Llama 4模型上的推理性能:

基準測試:WSE處理速度達每秒2500個(gè)Token,而英偉達集群僅能實(shí)現每秒1000個(gè)Token;
模型支持:可訓練24萬(wàn)億參數的AI模型,是英偉達方案的600倍;
成本優(yōu)勢:訓練700億參數的Llama模型,WSE集群僅需1天,而英偉達集群需30天。

第三方機構Artificial Analysis的測試顯示,WSE在Meta最先進(jìn)模型上的推理性能“超越所有現有方案”,成為唯一能在特定場(chǎng)景下超越英偉達Blackwell架構的解決方案。

技術(shù)突破:稀疏計算與片上內存革命

WSE的性能飛躍源于兩大核心技術(shù):

· 稀疏線(xiàn)性代數核心(SLAC):
針對深度學(xué)習中的稀疏計算(數據中50-98%為零)優(yōu)化,自動(dòng)跳過(guò)零值計算,將硬件利用率提升至GPU的3-4倍;
動(dòng)態(tài)稀疏性支持使推理速度比英偉達GPU快2.5倍。

· 片上超高速內存:
WSE-3集成44GB SRAM,帶寬9PB/s,徹底消除對外部HBM的依賴(lài);
內存與計算核心緊密耦合,使數據訪(fǎng)問(wèn)延遲降低至GPU的1/1000。

Cerebras首席營(yíng)銷(xiāo)官Julie Shin指出:“傳統GPU需通過(guò)PCIe或NVLink連接多塊芯片,而WSE的所有通信均在片內完成,這種‘零延遲’架構是性能飛躍的關(guān)鍵!

產(chǎn)業(yè)沖擊:重新定義AI計算架構

WSE的推出標志著(zhù)AI芯片競爭進(jìn)入“晶圓級”時(shí)代:

算力密度:?jiǎn)涡酒商峁?25 petaFLOPS性能,相當于10個(gè)英偉達DGX H100機架;
能效比:在相同功耗下,WSE的訓練速度是英偉達方案的8倍;
成本優(yōu)勢:Cerebras宣稱(chēng)其解決方案可將AI模型訓練成本降低90%。

目前,WSE已應用于美國能源部、阿斯利康等機構的超級計算機項目中。Feldman透露,下一代WSE-4將采用臺積電3nm工藝,晶體管數量突破10萬(wàn)億,目標直指GPT-6級別模型的實(shí)時(shí)訓練。

未來(lái)展望:AI計算的“光刻機時(shí)刻”

行業(yè)分析師指出,WSE的商業(yè)化落地將加速AI產(chǎn)業(yè)分化:

云服務(wù)商:亞馬遜、微軟等巨頭或采購WSE集群以降低運營(yíng)成本;
初創(chuàng )企業(yè):生物醫藥、自動(dòng)駕駛等領(lǐng)域將涌現更多“單芯片即數據中心”的創(chuàng )新模式;
芯片生態(tài):英偉達、AMD或被迫加速2.5D/3D封裝技術(shù)研發(fā),以應對晶圓級芯片的挑戰。

“這就像從機械硬盤(pán)到SSD的跨越!盋erebras首席硬件架構師Sean Lie表示,“WSE證明了單芯片即可承載超級計算機的算力,而我們的目標是在2030年前將AI推理成本降低至目前的千分之一!


關(guān)于Cerebras Systems
Cerebras成立于2016年,總部位于美國加州,專(zhuān)注于晶圓級AI芯片研發(fā)。其團隊核心成員來(lái)自AMD、Intel、Sun等企業(yè),累計融資超10億美元。2025年,WSE系列芯片已占據全球AI訓練市場(chǎng)15%的份額,成為英偉達最強勁的挑戰者。
本文地址:http://selenalain.com/thread-888159-1-1.html     【打印本頁(yè)】

本站部分文章為轉載或網(wǎng)友發(fā)布,目的在于傳遞和分享信息,并不代表本網(wǎng)贊同其觀(guān)點(diǎn)和對其真實(shí)性負責;文章版權歸原作者及原出處所有,如涉及作品內容、版權和其它問(wèn)題,我們將根據著(zhù)作權人的要求,第一時(shí)間更正或刪除。
您需要登錄后才可以發(fā)表評論 登錄 | 立即注冊

關(guān)于我們  -  服務(wù)條款  -  使用指南  -  站點(diǎn)地圖  -  友情鏈接  -  聯(lián)系我們
電子工程網(wǎng) © 版權所有   京ICP備16069177號 | 京公網(wǎng)安備11010502021702
快速回復 返回頂部 返回列表
午夜高清国产拍精品福利|亚洲色精品88色婷婷七月丁香|91久久精品无码一区|99久久国语露脸精品|动漫卡通亚洲综合专区48页