亚洲国产综合精品一区,综合伊人久久在,久久高清内射无套,天堂√在线中文官网在线,亚洲—本道中文字幕东京热,亚洲高清专区日韩精品,超碰免费公开,国内免费久久久久久久久
歡迎訪問深圳市中小企業(yè)公共服務平臺電子信息窗口

權威機構預測:AI服務器需求仍舊很大,產業(yè)鏈繼續(xù)受益

2024-02-28 來源:賢集網
4191

關鍵詞: 人工智能 AMD HBM

根據TrendForce集邦咨詢最新預估,以2024年全球主要云端服務業(yè)者(CSP)對高端AI 服務器(包含搭載NVIDIA、AMD或其他高端ASIC芯片等)需求量觀察,預估美系四大CSP業(yè)者包括Microsoft、Google、AWS、Meta各家占全球需求比重分別達20.2%、16.6%、16%及10.8%,合計將超過6成,居于全球領先位置。其中,又以搭載NVIDIA GPU的AI 服務器機種占大宗。


受國際形勢變化影響,NVIDIA后續(xù)發(fā)展仍有挑戰(zhàn)

NVIDIA近期整體營收來源以數據中心業(yè)務為關鍵,主因其GPU服務器占整體AI市場比重高達6——7成,只是后續(xù)仍須留意三大狀況,可能使NVIDIA發(fā)展受限。其一,受國際形勢變化影響,中國將更致力于AI芯片自主化。而NVIDIA推出的H20等中國特規(guī)方案,性價比可能不及既有的H100或H800等,中國客戶采用度可能較先前保守,進一步影響NVIDIA市占率。



其二,在具規(guī)模及成本考量下,美系大型CSP業(yè)者除Google、AWS外,Microsoft、Meta等亦有逐年擴大采自研ASIC趨勢。其三,來自AMD的同業(yè)競爭,AMD采高性價比策略,對標NVIDIA同級品,AMD提供僅60——70%價格,甚至代表性或具規(guī)模客戶能以更低價策略方式搶進市場,預期2024年尤以Microsoft為最積極采納AMD高端GPU MI300方案業(yè)者。


云端需求爆發(fā)

AI云端算力占主要需求,未來邊緣側AI算力需求也有望高增長。云端是指利用數據中心的強大算力,對海量數據進行大模型訓練和推理;邊緣側是在終端設備上利用訓練好的模型進行推理,進而開發(fā)豐富多樣的應用類型。GPT-4多模態(tài)大模型在各種專業(yè)和學術基準上已具備與人類水平相當表,未來有望賦能垂直應用,包括但不限于自然語言生成、圖像生成、視頻生成、音樂生成、藝術創(chuàng)作等領域。Stability AI CEO表示,隨著GPU和算力的提升,其開發(fā)的Stable Disffusion多模態(tài)大模型可能一年之內就能在智能手機上運行,未來新技術也將在更多低價的設備上進行訓練,AI推動的創(chuàng)意快速涌現。

互聯(lián)網云廠商是目前AI云端算力的主要需求方。OpenAI使用多個云計算提供商的服務來支持GPT的訓練和推理,包括亞馬遜AWS、谷歌云、微軟Azure和IBM云(根據ChatGPT回答)。Trendforce預估2022年搭載GPGPU的AI 服務器年出貨量約13萬臺,占整體服務器采購量的1%。其中,互聯(lián)網大廠是核心采購來源方。

我們認為未來AI算力領域未來呈現三點發(fā)展趨勢:(1)需求端:從GPT-4僅5個月內就實現對GPT-3.5的迭代并推廣上市來看,我們認為圖片和視頻類AIGC應用的成熟節(jié)奏在加快,將推動算力加速升級。(2)供給端:算力升級背后是更高的硬件資本支出,未來HBM/存算一體等新技術有望降低算力成本,伴隨而來的是新市場的高速增長,例如美光預計全球HBM市場有望從2021年10億美元提升至2025年70億美元;(3)除云端算力外,我們認為AI將帶來消費類硬件終端的投資機會,建議重點關注算力芯片、射頻通信芯片、攝像頭等功能芯片,以及PCB、電子元器件和功能件等。


最終贏家還得是HBM

AI服務器通常采用異構形式,依據所搭載的芯片類型,可以分為CPU+GPU、CPU+FPGA、CPU+ASIC等多種組合。

目前,GPU仍然是數據中心加速的首選方案,但其他非GPU芯片的應用也在逐漸增多。

據IDC預測,到2025年,其他非GPU芯片的占比將超過20%,顯示出多樣化的芯片應用趨勢。

在性能上,ASIC(專用集成電路)通常表現出色,但其可編程性和靈活性相對較弱。因此,在訓練或通用場景下,GPU往往成為更合適的選擇。



ASIC與FPGA相比,在量產后成本較低且性能優(yōu)異,但缺乏FPGA的可編程特性,這意味著其靈活調整的空間較小。同時,ASIC的一次性開發(fā)成本也相對較高。隨著人工智能產業(yè)生態(tài)的逐步完善,作為全定制化芯片的ASIC有望迎來更廣闊的發(fā)展空間。

FPGA具備快速、低功耗、靈活和高效的優(yōu)點。硬件可編程的特性使得FPGA在AI訓練中既能提供充足的算力,又具有靈活性,可以重新編程以適應不同任務的需要。

傳統(tǒng)的GPU(圖形處理器)最初的設計目的是進行圖形渲染計算,隨著人工智能計算需求的不斷增長,GPGPU(通用計算GPU)應運而生。GPGPU通過移除GPU的圖形顯示部分,將其余的計算資源全部用于通用計算,從而在AI、數據分析以及高性能計算(HPC)等領域得到了廣泛應用。

通用GPU在硬件加速能力方面具有顯著優(yōu)勢,尤其在深度學習訓練方面表現出色,因此成為了目前主流的AI硬件產品。

在市場上,英偉達的A100和H100、AMD的MI250、寒武紀的思元系列以及華為的昇騰系列等產品占據了較大的市場份額。

從AI服務器的產業(yè)鏈角度來看,AI服務器的核心組件包括GPU、DRAM(動態(tài)隨機存取存儲器)、SSD(固態(tài)硬盤)和RAID卡、CPU(中央處理器)、網卡、PCB(印刷電路板)、高速互聯(lián)芯片(板內)以及散熱模組等。

隨著GPU算力需求的不斷提升,對硬件的傳輸速率也提出了更為嚴苛的要求。從PCB(印刷電路板)的角度來看,這一趨勢將顯著推動高頻高速板、HDI(高密度互連)以及ABF載板的需求增長。同時,為了滿足更高的傳輸效率,還需要配套損耗更低的CCL(覆銅板),這無疑對PCB及其上游材料供應端產生了顯著的促進作用。

此外,AI服務器出貨量的持續(xù)增長也催生了HBM(高帶寬內存)需求的爆發(fā)。

HBM憑借其高帶寬、低功耗以及小體積等獨特優(yōu)勢,在AI服務器場景中得到了廣泛應用。

HBM主要應用于高性能服務器領域,其最早落地于2016年的NVP100 GPU(采用HBM2技術)。隨后,在2017年的V100、2020年的A100以及2022年的H100中,HBM2和更先進的HBM2e/HBM3技術得到了應用。而最新一代的HBM3e技術則搭載于英偉達2023年發(fā)布的H200中,為服務器提供了更快的數據處理速度和更高的內存容量。



主站蜘蛛池模板: 日本少妇被黑人猛cao| 亚洲色偷偷色噜噜狠狠99网| 天天影视网天天综合色| 亚洲熟妇久久国内精品| 亚洲成av人影院| 国产精品久久久久久亚洲影视| 亚洲精品美女久久久久久久| 天天天天躁天天爱天天碰2018| 国产精品自在拍一区二区不卡| 久久久一本精品久久精品六六| 一本久道中文无码字幕av| 亚洲国产熟妇在线视频| 少妇被粗大的猛进69视频| yyyy11111少妇无码影院| 欧美69久成人做爰视频| 国产无套一区二区三区浪潮| 成人片国产精品亚洲| 国产区图片区小说区亚洲区| 无码gogo大胆啪啪艺术| 精品亚洲成a人在线看片| 在线看免费无码av天堂| 亚洲色偷偷偷综合网| 黄页网站18以下勿看| 国产农村黄aaaaa特黄av毛片| 青草影院内射中出高潮| 中文字幕日韩精品一区二区三区| 熟女人妻高清一区二区三区| 国产精品久久久久久亚洲影视 | 欧美人与动欧交视频| 神马影院午夜dy888| 精品国产一区二区av麻豆不卡| 大狠狠大臿蕉香蕉大视频| 亚洲美免无码中文字幕在线 | 国产精品免费看久久久无码| 女人被做到高潮免费视频| 四库影院永久国产精品| 国产乱子伦精品无码码专区| 在教室伦流澡到高潮hnp视频| 精品一区二区三区波多野结衣| 好吊妞视频这里有精品 | 精品少妇ay一区二区三区|