加速AI普及 美光HBM3E記憶體正式量產

分享本文


美光宣布量產8層堆疊 24GB HBM3E,預計於2024年第2季出貨。

美商科技,今宣布其8層堆疊 24GB HBM3E解決方案已正式量產。美光HBM3E解決方案將應用於 輝達 H200 Tensor Core GPU,預計於 2024年第2季出貨。美光強調將挾此產品優勢,取得業業界領先地位。

隨著需求不斷提升,能夠應付與日俱增工作負載的記憶體解決方案變得更加關鍵。美光強調該公司推出的 HBM3E 解決方案具備卓越效能, 每腳位傳輸速率超過 9.2 Gb/s,記憶體頻寬達 1.2 TB/s 以上,為 AI 加速器、超級電腦與資料中心提供如閃電般快速的資料存取速度。

與競爭產品相比,美光強調HBM3E功耗降低了30%,且為了支援日益增長的 AI 需求和應用,HBM3E 能以最低的功耗提供最大的傳輸量,進而改善資料中心重要的營運成本指標。

再者HBM3E具備可擴展性。美光表示,HBM3E目前提供24GB容量,使資料中心可無縫擴展其AI 應用,無論是用於訓練大型神經網路還是加速推理任務,美光解決方案都能為其提供所需的記憶體頻寬。

美光執行副總裁暨事業長 Sumit Sadana 表示:「美光在 HBM3E 此一裏程碑上取得了三連勝:領先的上市時間、業界最佳的效能、傑出的能源效率。AI 工作負載亟需記憶體頻寬與容量,美光 HBM3E 和 HBM4 產品藍圖領先業界,針對 AI 應用提供完整的 DRAM 和 NAND 解決方案,支援未來 AI 顯著的成長。」

透過其 1β 技術、先進直通矽晶穿孔 (TSV) 和其他創新,美光得以發展領先業界的 HBM3E 設計,並實現具差異性的封裝解決方案。作為記憶體領域中 2.5D/3D 堆疊和先進封裝技術的領導者,美光相當自豪成為台積電 3DFabric 聯盟的合作夥伴,共同形塑半導體和系統創新的未來。

美光也規畫將在2024年3月推出12層堆疊 36GB HBM3E 的樣品,相較於競品,效能可達 1.2TB/s 以上並具備優異的能源效率,能進一步延續其業界領導地位。此外,美光也將成為輝達 GTC AI 大會的贊助商,該大會將於 3月18日開始,屆時美光將更詳細地分享其領先業界的 AI 記憶體產品組合與藍圖。


標題:加速AI普及 美光HBM3E記憶體正式量產

鄭重聲明:本文版權歸原作者所有,轉載文章僅爲傳播更多信息之目的,如有侵權行爲,請第一時間聯系我們修改或刪除,多謝。