嵌入式存儲器如何協同SoC 助力AI Mobile高效運轉
今年以來,以人工智能為核心的AI Mobile,正開始成為手機行業的“主角”。越來越多的手機廠商正在研發或已推出各種AI
Mobile,甚至部分研究機構認為,AI Mobile或將成為手機市場的新增長點,并掀起新一輪換機潮。
AI
Mobile,簡單來說,是支持AI功能的新一代智能手機。和常規手機相比,AI Mobile的SoC是關鍵。
異構集成
SoC是關鍵
當下主流的AI Mobile
SoC突出特性采用CPU、GPU及NPU異構集成的架構形態,具備更強的算力,能夠處理AI相關計算和推理任務。
CPU和GPU屬于通用處理器,擁有很強的兼容性和靈活性。一方面能夠高效處理手機常規任務,保證手機基礎功能的流暢運轉,例如操作系統、游戲、拍照、娛樂等;另一方面還能和NPU相串聯,針對AI相關的應用和場景,提供更佳的AI體驗。
NPU,全稱Neural
network Processing
Unit,即神經網絡處理單元,其突出特性是在電路層模擬人類神經元和突觸,用深度學習指令集直接處理大規模的神經元和突觸,一條指令完成一組神經元的處理。
相較于CPU和GPU的馮諾依曼結構,NPU通過突觸權重實現存儲和計算一體化,進行神經網絡計算的效率也遠超GPU。目前,NPU已被大規模應用于包括AI
Mobile、AI
PC在內眾多人工智能、機器學習等領域。
業界通過異構集成技術,將CPU、GPU及NPU等不同用途芯片融合在一顆SoC上,最終促成AI
Mobile的誕生。
當然除了SoC,在AI
Mobile中數據存儲也是執行AI計算和推理任務,實現AI功能,協同SoC打造AI體驗的關鍵一環。
高性能特性
協同SoC加速AI功能實現
從底層設計上看,AI
Mobile因不斷豐富和完善的AI功能,會涉及更多復雜且高頻的計算、推理和生成等任務指令,需要嵌入式存儲器提供更高性能、更大帶寬,高效迅速的將SoC發出的相關數據和指令傳輸到其他系統硬件,進而推進AI功能的實現,為前端的用戶提供響應更及時的AI體驗;
從具體應用上看,AI
Mobile重要功能設計便是云側和端側的混合大模型,云側大模型需要實時不間斷地和AI
Mobile進行數據的同步,指令的對接,科學合理的進行算力的調配,算法的更新,這都對嵌入式存儲器執行SoC相關指令的響應速度,傳輸效率提出更高挑戰;至于端側大模型,在模型訓練的各個階段,包括數據的收集、篩選、分析和歸一等步驟中,無一離得開高性能嵌入式存儲器提供的高帶寬、高讀寫速度。
低功耗設計
提升整體續航 助力AI Mobile性能不打折
隨著AI功能的加入,需要處理的指令和傳輸的數據都在呈指數級增長。同時,鑒于AI
Mobile和云端模型保持數據的實時傳輸,會更加頻繁的調動嵌入式存儲器進行數據的讀取和寫入。由此,包括SoC在內的各種硬件,其功耗也會肉眼可見的升高。
嵌入式存儲器,作為AI
Mobile的重要組成,更低功耗的設計,在處理同等負載的任務時,能夠節省功耗,從存儲端提升AI
Mobile的整體續航。
同時,更低功耗設計,也將減少存儲器工作時的發熱量,最大程度的拖延甚至避免存儲溫度墻的出現,始終維持更高的性能表現,助力AI
Mobile性能不打折。
更大容量為AI Mobile功能實現和拓展保駕護航
AI
Mobile同樣需要嵌入式存儲器提供更大容量。
一方面,AI
Mobile內置端側大模型,需要海量空間,存儲用于訓練大模型的各種“養料”,包括語音、文字、視頻等各種數據;同時,隨著端側大模型的不斷豐富和迭代,需要存儲的參數和數據量也會不斷激增,對存儲器提出了更高容量需求。
另一方面,在應用端,AI
Mobile端側和云側大模型的完善,將刺激和生成許多帶有AI功能的且豐富多彩的應用,例如私人助理功能,生成式AI助手可根據用戶喜好,定制推送新聞、視頻、音樂等內容;智能翻譯功能,借助AI算法,在用戶進行語音通話的同時,實時進行語音的翻譯,以及語音轉文字的記錄等功能。而這些功能的實現,不僅需要SoC的算法支撐,同時還需要大容量嵌入式存儲器,存儲和承載這些應用本體及生成的各種緩存文件。
面對著AI手機的浪潮,長江存儲推出一系列嵌入式存儲器,不斷滿足AI手機的存儲需求。
長江存儲UC033是基于晶棧?Xtacking? 3.0技術的TLC三維閃存芯片打造的UFS3.1嵌入式存儲產品,擁有高性能、大容量、低延遲等特性,最大順序讀取速度達2100MB/s,產品設計128GB, 256GB,512GB三個容量,能夠滿足AI時代,手機等智能終端對嵌入式存儲器全面的產品需求。
注:部分技術解釋源于網絡
