英偉達“溢價”購買存儲芯片,HBM成為“燎原”AI服務器產業鏈的星星之火
韓國存儲芯片巨頭們正在打一場翻身仗。
盡管從最新財報來看,存儲芯片復蘇未見好轉,供應過剩導致營業利潤大幅下降,但這些存儲芯片巨頭們的股價均在上周上漲。力挽狂瀾的核心功臣,便是逐漸成為數據中心AI訓練必備組件的AI相關內存芯片——高帶寬內存(HBM)。
因生成式AI開發和商業化競爭加劇,第二季度對AI相關內存的需求大幅增加。HBM的受關注程度,在上周SK海力士和三星發布最新財報后舉行的電話會議期間可見一斑,分析師們就HBM相關進展和后續規劃密集發問。
自去年英偉達發布世界首款采用HBM3的GPU H100以來,HBM3及更先進HBM芯片的熱度一直居高不下。據英國《金融時報》援引兩位接近SK海力士的消息人士報道,英偉達和AMD要求SK海力士提供尚未量產的下一代HBM3E芯片的樣品。英偉達已要求SK海力士盡快供應HBM3E,并愿意支付“溢價”。
雖說今年縮減開支是重頭戲,但存儲芯片巨頭們在HBM方向的投資仍相當舍得——合計掌控著全球90%HBM芯片市場的兩家韓國大廠SK海力士和三星均表態,計劃明年將HBM芯片產量提高一倍,并為了更好應對HBM不斷增長的需求,而減少其他類別存儲芯片的投資。
HBM3與HBM3e將成為明年市場主流
根據TrendForce集邦咨詢調查顯示,2023年HBM(High Bandwidth Memory)市場主流為HBM2e,包含NVIDIA A100/A800、AMD MI200以及多數CSPs自研加速芯片皆以此規格設計。同時,為順應AI加速器芯片需求演進,各原廠計劃于2024年推出新產品HBM3e,預期HBM3與HBM3e將成為明年市場主流。
HBM各世代差異,主要以速度做細分。除了市場已知的HBM2e外,在進入HBM3世代時,產業出現較為混亂的名稱。TrendForce集邦咨詢特別表示,目前市場所稱的HBM3實際需細分為兩種速度討論,其一,5.6~6.4Gbps的HBM3;其二,8Gbps的HBM3e,別名HBM3P、HBM3A、HBM3+、HBM3 Gen2皆屬此類。
目前三大原廠HBM發展進度如下,兩大韓廠SK海力士(SK hynix)、三星(Samsung)先從HBM3開發,代表產品為NVIDIA H100/H800以及AMD的MI300系列,兩大韓廠預計于2024年第一季送樣HBM3e;美系原廠美光(Micron)則選擇跳過HBM3,直接開發HBM3e。
HBM3e將由24Gb mono die堆棧,在8層(8Hi)的基礎下,單顆HBM3e容量將一口氣提升至24GB,此將導入在2025年NVIDIA推出的GB100上,故三大原廠預計要在2024年第一季推出HBM3e樣品,以期在明年下半年進入量產。
今明HBM需求預計陡峭增漲,兩家大廠披露HBM最新路線圖
業內專家表示,由于調整產能需要時間,未來兩年HBM供應預計仍將緊張,而快速增加HBM產量也很困難,因為它需要專門的生產線。
SK海力士和三星給出了相近的產業趨勢解讀:內存需求一直在從去年創紀錄的低增長水平中復蘇,當前復蘇尚不足以使全行業庫存水平恢復正常,上半年庫存水平仍較高,但庫存已經見頂,并預測隨著減產效果進一步顯現,下半年存儲芯片需求將較上半年有所改善。
為了進一步加速庫存正常化,兩家存儲芯片大廠都在選擇性地對DRAM和NAND的某些產品進行額外的生產調整,下半年重點抓盈利能力,專注于高附加值和高密度產品來優化其產品組合,特別是加強銷售組合中HBM、DDR5等高價值前沿產品的份額的增長,減少庫存水平較高、盈利能力不及DRAM的NAND的產量。
SK海力士相信第三季度AI服務器需求將持續增漲,特別是高密度DDR模塊和HBM,這兩款產品的收入有望在下半年比上半年增速更高,HBM的需求將在明年保持相當健康的增長。
近期,特別是隨著超大規模企業對生成式AI服務的競爭加劇,三星收到了來自此類客戶的大量需求,預計今年和明年HBM的需求可能會出現相當陡峭的增長。
目前SK海力士的首要任務是投資增加HBM的大規模生產。該公司剛剛對今年年初制定的有關技術產能組合的規劃進行了調整,以應對對高密度DDR5和HBM不斷增長的需求。
對于HBM路線圖來說,重要的是與GPU的發布或領先加速器市場的公司的時間表保持一致。SK海力士預計將在2026年某個時候轉向HBM Gen 4,并正為此做準備。
根據其路線圖,明年下半年將是HBM3E量產期,也是HBM3E的供應擴大期。今年SK海力士的重點是增加HBM量產所需的1Z納米的比例,還準備增加1B納米產能和TSV產能,為明年上半年開始供貨的HBM3E做準備。
為了與市場增長預期保持一致,三星一直在擴展其HBM業務,產品方面擁有向主要客戶獨家供應HBM2的記錄,后續還就HBM2E開展業務,計劃2023年下半年開始大規模生產HBM3。三星HBM3正在接受具有行業頂級性能和密度或容量的客戶資格認證,已開始向主要的AI SoC公司和云計算公司發貨8層16GB和12層24GB產品。具有更高性能和容量的三星下一代HBM3P芯片計劃于今年晚些時候發布。
三星還一直投資HBM生產能力,基于此已經預訂了大約10億或十億中值Gb級的客戶需求,大約是去年的兩倍,并正在通過提高生產力來進一步提高供應能力,到2024年計劃將HBM產能增加至少是2023年水平的兩倍。另據此前報道,三星擬投資1萬億韓元擴產HBM。
對于三星來說,它雖然在HBM競爭的反應比SK海力士慢半拍,但考慮到通常AI芯片與HBM存儲器一起集成到單個封裝中,三星擁有一個其他芯片企業所不具備的優勢——兼具先進GAA工藝技術、HBM技術和先進封裝技術。
如果未來三星能夠推出最大化發揮這三類關鍵技術協同效應的解決方案,這有望成為未來三星在AI算力市場競爭中的關鍵壁壘。
AI服務器產業鏈燎原星星之火
近期,各大媒體紛紛報道關于與英偉達相關的AI服務器漲價的消息。曾經僅售8萬元的AI服務器如今已經猛漲至160萬元,漲幅高達20倍。這一現象不僅與市場行情緊密相關,更是AI大模型需求迅猛增長的結果。AI服務器作為通用算力芯片的重要承載者,英偉達高端GPU供不應求,推動了整個AI服務器行業的漲價潮。然而,AI服務器的漲價并非只有GPU一枝獨秀,還牽涉到存儲芯片等多種核心器件,形成了多層次的市場需求。
AI服務器由傳統服務器演變而來,它是高性能計算機的代表,承載著網絡上80%的數據和信息。普通服務器和AI服務器最大的區別在于后者采用了組合拳的形式,常見的是CPU+GPU、CPU+TPU等搭配。CPU退居幕后,GPU等AI芯片在其中充當主角做大量運算,這使得AI服務器具備了強大的算力,滿足了AI對密集型計算的需求。
AI服務器價格的瘋漲與AI市場需求的激增密切相關。AI大模型的訓練和推理需求都迅猛增長,訓練模型要求高算力,推理相對較低但無止境,加之GPU等芯片在其中充當主角,這導致AI服務器成本高昂。英偉達的A100等高端GPU因為性能優秀,成為決定性因素,一臺普通服務器連換不到AI服務器里的8個A100。因此,AI服務器價格瘋漲,也反映了GPU等核心器件的價值占比較高。
AI服務器需求的飆升不僅僅局限于GPU,還帶動了存儲芯片等器件的價值倍增。AI模型訓練算力需求每年增長高達10倍,存儲量大幅提升。數據中心成為存儲增長的重要引擎。同時,板內互聯接口芯片、電源管理、散熱、PCB、網卡等器件的價值量都有提升。存儲芯片的價值占比接近30%,成為AI服務器核心組件中價值增長最為明顯的一環。
AI服務器的漲價現象背后是AI市場需求的迅猛增長所致,英偉達高端GPU作為決定性因素,成為AI服務器價格攀升的關鍵。同時,存儲芯片等核心器件的需求也飆升,整個AI服務器市場的需求層次逐漸豐富。AI服務器行業的蓬勃發展,為AI技術的不斷進步提供了強有力的支撐。然而,AI服務器漲價的問題也需要引起行業重視,尋求更多技術創新和產業協同,確保AI技術的穩健發展。
