機構:預計2023年對HBM需求量將增加60%,達到2.9億GB
2023-06-28
來源:集微網
1090
TrendForce集邦咨詢6月28日發表研報,稱目前高端AI服務器GPU搭載HBM芯片已成主流,預計2023年全球HBM需求量將年增近六成,達到2.9億GB,2024年將再增長30%。
機構預計到2025年,全球如果等同于ChatGPT的超大型AIGC有5款,類似Midjourney的中型產品有25款,以及80款小型產品,在這個條件下,上述所需的運算資源至少包含145600~233700顆英偉達A100 GPU;再加上超級計算機、8K影音串流、AR/VR等應用,也將進一步提高云端運算系統的負載。
由于HBM內存芯片擁有比DDR SDRAM更高的帶寬、相對較低的能耗,因此近年來發布的旗艦HPC處理器、運算加速GPU均在采用HBM內存。預計未來,HBM可以取代一部分GDDR SDRAM顯存以及DDR SDRAM普通內存。
集邦咨詢預計,目前英偉達A100、H100、AMD MI300,以及大型云服務提供商谷歌、AWS等自主研發的ASIC AI服務器增長需求較為強勁,預計2023年AI服務器出貨量(含GPU、FPGA、ASIC等)預估在120萬臺,年增長率近38%。AI芯片出貨量同步看漲,預計今年將增長50%。
