美光 HBM3E 比競品功耗低 30%,助力數據中心降低運營(yíng)成本 Micron Technology, Inc.(美光科技股份有限公司,納斯達克股票代碼:MU)近日宣布已開(kāi)始量產(chǎn)其 HBM3E 高帶寬內存 解決方案。英偉達 H200 Tensor Core GPU 將采用美光 8 層堆疊的 24GB 容量 HBM3E 內存,并于 2024 年第二季度開(kāi)始出貨。美光通過(guò)這一里程碑式進(jìn)展持續保持行業(yè)領(lǐng)先地位,并且憑借 HBM3E 的超凡性能和能效為人工智能(AI)解決方案賦能。 ![]() HBM3E:推動(dòng)人工智能革命 隨著(zhù)人工智能需求的持續激增,內存解決方案對于滿(mǎn)足工作負載需求的增加至關(guān)重要。美光 HBM3E 解決方案通過(guò)以下優(yōu)勢直面這一挑戰: 卓越的性能:美光 HBM3E 引腳速率超過(guò) 9.2Gb/s,提供超過(guò) 1.2TB/s 的內存帶寬,助力人工智能加速器、超級計算機和數據中心實(shí)現超高速的數據訪(fǎng)問(wèn)。 出色的能效:美光 HBM3E 功耗比競品低約 30%, 處于行業(yè)領(lǐng)先地位。為支持日益增長(cháng)的人工智能需求和用例,HBM3E 以更低功耗提供更大吞吐量,從而改善數據中心的主要運營(yíng)支出指標。 無(wú)縫的可擴展性:美光 HBM3E 目前提供 24 GB 容量,使數據中心能夠無(wú)縫擴展其人工智能應用。無(wú)論是用于訓練海量神經(jīng)網(wǎng)絡(luò )還是加速推理任務(wù),美光的解決方案都提供了必要的內存帶寬。 美光執行副總裁暨首席商務(wù)官 Sumit Sadana 表示:“美光憑借 HBM3E 這一里程碑式產(chǎn)品取得了三大成就:領(lǐng)先業(yè)界的上市時(shí)間、引領(lǐng)行業(yè)的性能和出眾的能效表現。人工智能工作負載在很大程度上依賴(lài)于內存帶寬和容量。美光擁有業(yè)界領(lǐng)先的 HBM3E 和 HBM4 產(chǎn)品路線(xiàn)圖,以及為 AI 應用打造的 DRAM 和 NAND 全套解決方案,為助力人工智能未來(lái)的大幅增長(cháng)做足了準備! 美光利用其 1β(1-beta)技術(shù)、先進(jìn)的硅通孔(TSV)和其他實(shí)現差異化封裝解決方案的創(chuàng )新技術(shù)開(kāi)發(fā)出業(yè)界領(lǐng)先的 HBM3E 設計。美光作為 2.5D/3D 堆疊和先進(jìn)封裝技術(shù)領(lǐng)域長(cháng)久以來(lái)的存儲領(lǐng)導廠(chǎng)商,有幸成為臺積電 3Dfabric 聯(lián)盟的合作伙伴成員,共同構建半導體和系統創(chuàng )新的未來(lái)。 美光將于 2024 年 3 月出樣 12 層堆疊的 36GB 容量 HBM3E,提供超過(guò) 1.2TB/s 的性能和領(lǐng)先于競品的卓越能效,從而進(jìn)一步強化領(lǐng)先地位。美光將贊助 3 月 18 日開(kāi)幕的英偉達 GTC 全球人工智能大會(huì ),屆時(shí)將分享更多前沿 AI 內存產(chǎn)品系列和路線(xiàn)圖。 |