AI將成為改變世界經濟的“支點”,中國本土創新能否破解國際AI封鎖
美國開放人工智能研究中心(OpenAI)首席執行官山姆·奧特曼等人認為,人工智能(AI)將從根本上改變世界經濟,擁有強大的計算芯片供應能力至關重要。芯片是推動AI行業發展的重要因素,其性能和運算能力直接影響著AI技術的進步和應用前景。
英國《自然》雜志網站在近日的報道中指出,工程師正競相開發包括圖形處理單元(GPU)等在內的尖端芯片,以滿足未來AI的計算需求。
GPU加快機器學習運算速度
GPU是英偉達公司標志性的計算機芯片。傳統中央處理單元(CPU)按順序處理指令,而GPU可并行處理更多指令,因此可分布式訓練程序,從而大大加快機器學習的運算速度。
2022年,英偉達公司Hopper超級芯片在MLPerf上擊敗了包括圖像分類和語音識別在內所有類別的競爭對手。MLPerf是國際上最權威、最有影響力的AI基準測試之一,被譽為“AI界奧運會”。
今年3月,英偉達正式展示了性能更優異的新一代AI芯片Blackwell。它擁有2080億個晶體管,是英偉達首個采用多芯片封裝設計的GPU。隨著技術發展,GPU變得越來越大,如果不能更大,就把更多GPU組合在一起,變成更大的虛擬GPU。Blackwell就是在同一個芯片上集成了兩個GPU,新架構將通過芯片與芯片間的連接技術,一步步構建出更大型AI超算集群。
如果要訓練一個擁有1.8萬億個參數的GPT模型,需要8000塊Hopper芯片,耗能15兆瓦,歷時3個月。如果使用Blackwell芯片,只需2000塊,耗能4兆瓦,就能在同樣的時間內完成任務。
AI芯片市場持續增長,英偉達目前供應了其中80%以上的產品。2023年,該公司售出55萬塊Hopper芯片。近日,該公司市值首次突破3萬億美元,超越蘋果,僅次于微軟,成為全球市值第二高的公司。
多種芯片競相涌現
盡管GPU一直是AI革命的核心,但它們并非是唯一“主角”。隨著AI應用的激增,AI芯片的種類也在激增,現場可編程門陣列(FPGA)可謂“一枝獨秀”。
FPGA是一種在計算和數字電路領域廣泛應用的硬件設備。它以獨特的可編程性和靈活性,成為嵌入式系統、高性能計算處理等多種應用的理想選擇。
這就像搭建樂高積木,工程師可將FPGA電路一個接一個地構建到他們能想象的任何設計中,無論是洗衣機傳感器還是用于引導自動駕駛汽車的AI。不過,與擁有不可調節電路的AI芯片(如GPU)相比,FPGA運行速度相對更慢、效率更低。但FPGA對處理某些任務(如粒子對撞機產生的數據)很有用。英偉達加速計算集團產品營銷總監戴維·薩爾瓦托指出,FPGA的易編程性也對原型設計很有幫助。
張量處理單元(TPU)則是谷歌公司專為神經網絡機器學習而定制的芯片,旨在執行矩陣計算和張量操作。TPU作為谷歌深度學習框架TensorFlow的加速器于2016年首次推出,其設計目標是提供低功耗、高效能的矩陣運算,以滿足大規模機器學習和神經網絡訓練的需求。TPU在性能與能效之間取得了良好平衡。它們的功耗相對較低,這對于大規模數據中心和在移動設備上的應用至關重要。
此外,元宇宙平臺也在獨立開發自己的芯片。谷歌、英特爾和高通成立了UXL基金會,用以開發一套支持多種AI加速器芯片的軟件和工具,以此對抗英偉達的GPU。
當然,GPU等AI芯片的興起并不意味著傳統CPU的終結,兩者互相取長補短已成大勢所趨。
科技巨頭們加速自研AI芯片
為了搶占AI發展先機,降低對英偉達芯片的依賴,科技巨頭們如Meta、谷歌、微軟、亞馬遜、OpenAI等都在自主研發定制AI芯片。他們希望通過自研芯片提高性能、降低成本、減少不必要功能,從而在AI競爭中占據優勢。
以Meta為例,該公司最新推出的MTIA芯片系列專為社交軟件的排名和推薦系統而設計,性能較上一代有顯著提升。谷歌也在研發基于ARM架構的Axion芯片,用于數據中心的數據處理和AI運算。微軟和亞馬遜的自研芯片計劃也在緊鑼密鼓推進中。
對于這些科技巨頭而言,自研AI芯片不僅是為了降低采購成本,更重要的是可以根據自身需求定制個性化硬件,通過減少不必要功能實現降本增效。與通用型硬件相比,專用AI芯片在特定場景下能夠發揮更大的優勢。
中國如何突破AI芯片封鎖
Gartner研究副總裁盛陵海日前在一場分享會上直言,在美國幾度加碼限制之后,中國獲得先進AI芯片和技術的難度大增。不過,在吸取了過去的經驗教訓后,中國已經提前做了一些準備,不至于出現手足無措的情況。
“我們現在已經走到了自主研發的階段,展望未來5到10年,我們有機會可以通過積極新的路徑實現‘禁運’封鎖的整體突破。”盛陵海樂觀道。“在當下非常火熱的大模型方面,中國與國際企業的差距并沒有多大。這足以證明我們可以實現自主研發,這也是我堅信我們能夠搞好自己的AI芯片的原因。”盛陵海接著說。
在具體講如何突破AI芯片之前,盛陵海首先強調,國內AI企業必須要放棄幻想。因為美國對我們的封鎖大概率會一直存在。為此,只有轉向本土供應鏈,只有堅持使用國產芯片,才是最終的解決方案。雖然轉向國產,必然會碰到不少問題和局限性。但在海外對我們持久限制的既定前提下,繼續使用海外芯片廠商的“降規格”版本產品是權宜之計,我們必須做好打游擊戰的準備。
“唯有轉向國產芯片,把碰到的問題一一破解,把國內的整個AI芯片乃至整個生態培養起來才是長久之道。”盛陵海表示。當然,可以明見的是,在這種發展方式下,中美AI芯片行業會割裂成兩個生態,這從全球化的角度來看當然是不太有利。
“但也正是在這種競爭態勢之下,讓飽受英偉達重壓的國產AI芯片找到可乘之機”。盛陵海告訴半導體行業觀察。他進一步指出,對于國內的AI芯片企業來說,去訓練市場跟英偉達等現有對手掰手腕,也是勝算不大的,事實證明也是如此。但企業們可以在廣大的AI推理芯片市場找到突破點,這實際上也是一個龐大的市場。
Gartner預測,到2025年,云端的“推理”需求會超過“訓練”。這一方面是因為過去幾年廠商在訓練方面投入了巨額的資源,這種投資力度不可能一直持續下去;另一方面,諸如OpenAI應用端被擠爆,無法登錄的現狀頻發,證明我們在推理上面的投入還是不夠多。
基于這兩點現狀,大家自然就會往推理側投資更多芯片,這也是Gartner做出2025年會出現交叉點,之后推理需求量會比訓練增加更快預測的原因。當然,這個成立的前提是會有越來越多的人使用AI應用。
Gartner同時還預測,到2026年之后,更多基于GenAI的要求應答將在端側而非云端處理。在云端投入持續高漲,Gartner認為這是一條必經之路。
“設備端可以支持十億到一百億規模的模型,邊緣端則能支持一百億到一千億的這個規模的大模型,這意味著它們都可以實際支持一定的企業或者個人的應用。換而言之,這個從技術上其實也是可行的。”盛陵海說。他進一步指出,邊緣側和端側的生成式人工智能應用會從智能手機、電腦,不斷地擴散、到消費物聯網、智能家居和汽車。
對于國產AI芯片企業而言,在這股大浪潮下,針對推理方面,也可以從各個環節入手,尋找機會。不過,正如大家所見,現在市場上的很多解決方案都是各自為政,這樣帶來的重復造輪子和生態不兼容的副作用影響深遠。
