這一預期高于三星今年1月份預測的HBM芯片銷量。

三星電子公司(Samsung Electronics Co.)今年的高帶寬內存(HBM)芯片產量可能會比去年增加兩倍,因為它的目標是在人工智能(AI)芯片領域處于領先地位。
本周二,在加利福尼亞州圣何塞舉行的全球芯片制造商聚會Memcon 2024上,三星公司執(zhí)行副總裁兼DRAM產品和技術負責人Hwang Sang-joong表示,他預計該公司今年的HBM芯片產量將比去年增加2.9倍。
這一預測高于三星今年早些時候在 CES 2024 上公布的預測,即該芯片制造商可能會在 2024 年生產 2.5 倍的HBM芯片。
“繼已經(jīng)量產的第三代HBM2E和第四代HBM3之后,我們計劃在今年上半年大批量生產12層第五代HBM和32千兆位的128 GB DDR5產品,”Hwang在Memcon 2024上說:“通過這些產品,我們希望在人工智能時代增強我們在高性能、高容量內存領域的影響力。”
在會議上,三星公布了其HBM路線圖,預計 2026 年的 HBM 出貨量是 2023 年的 13.8 倍。該公司表示,到2028年,HBM內存的年產量將進一步上升至2023年的 23.1 倍。
在代號為“Snowbolt”的第六代 HBM 芯片 HBM4 中,三星計劃將緩沖芯片(一種控制設備)應用于堆疊內存的底層以提高效率。
此次會議上,三星向與會者展示了其最新的 HBM3E 12H 芯片——業(yè)界首款 12 堆棧 HBM3E DRAM,標志著 HBM 技術有史以來實現(xiàn)的最高容量突破。
三星目前正在向客戶提供HBM3E 12H芯片的樣品,并計劃在上半年開始量產。
參會嘉賓包括SK海力士、Microsoft、Meta Platforms、英偉達和AMD。
CXL技術
三星還在 Memcon 2024 上公布了其 Compute Express Link (CXL) 內存模塊產品組合的擴展,展示了其在 AI 應用的高性能和高容量解決方案中的技術。
在主題演講中,三星設備解決方案研究美國公司執(zhí)行副總裁崔振赫表示,三星致力于與合作伙伴合作,釋放人工智能時代的全部潛力。
沒有內存技術創(chuàng)新,人工智能創(chuàng)新就無法繼續(xù)。作為內存市場的領導者,三星很自豪能夠繼續(xù)推進創(chuàng)新,從業(yè)界最先進的CMM-B技術到強大的內存解決方案,如HBM3E,用于高性能計算和要求苛刻的AI應用。
為了突出 CXL 生態(tài)系統(tǒng)的增長勢頭,三星推出了 CXL 內存模塊CMM-B,這是一款尖端的 CXL DRAM 內存產品。
該芯片制造商還展示了用于分層內存的 CXL 內存模塊CMM-H和CXL內存模塊DRAM (CMM-D)。
CXL 是下一代接口,可提高高性能服務器系統(tǒng)中與CPU一起使用的加速器、DRAM和其它存儲設備的效率。
作為HBM芯片領域的落后者,三星在HBM上投入了大量資金,以與SK海力士和其它內存廠商競爭。
HBM 已成為AI熱潮的關鍵,因為它提供了比傳統(tǒng)存儲芯片更快的處理速度。
上周,三星半導體業(yè)務負責人Kyung Kye-hyun表示,該公司正在開發(fā)其下一代AI芯片Mach-1,旨在通過該芯片顛覆其競爭對手SK海力士,后者是先進HBM領域的主導者。
該公司表示,它已經(jīng)同意在今年年底前向Naver Corp.供應Mach-1芯片,交易價值高達1萬億韓元(7.52億美元)。
通過這份合同,Naver希望大幅減少其對全球頂級AI芯片設計商英偉達(Nvidia)的AI芯片依賴。
SK海力士:2024年實現(xiàn)兩位數(shù)的AI用DRAM銷售
最近,SK海力士首席執(zhí)行官Kwak Noh-Jung表示,預計到2024年,面向AI芯片組的HBM芯片將占其DRAM芯片銷售額的兩位數(shù)百分比。
今年3月,英偉達的供應商開始將下一代先進的HBM芯片商業(yè)化。
據(jù)報道,英偉達可能是SK海力士首批出貨的受益者。
HBM 芯片迎合了英偉達和其它在生成式 AI 中處理大量數(shù)據(jù)的GPU。
SK海力士是英偉達目前使用的HBM3版本的唯一供應商,占據(jù)了AI芯片市場的80%,從而引領了HBM芯片市場。
分析師預計,到 2024 年,HBM 芯片將占全行業(yè) DRAM 銷售額的 15%,高于 2023 年的 8%。
最近的報道顯示,SK海力士計劃投入40億美元在印第安納州西拉斐特建立一個先進的芯片封裝工廠,并得到美國芯片法案的支持,可能會增加800~1000個工作崗位。