亚洲国产综合精品一区,综合伊人久久在,久久高清内射无套,天堂√在线中文官网在线,亚洲—本道中文字幕东京热,亚洲高清专区日韩精品,超碰免费公开,国内免费久久久久久久久
歡迎訪問深圳市中小企業公共服務平臺電子信息窗口

從AIGC商業化看AI產業布局和半導體機會

2023-03-30 來源:芯八哥
1499

關鍵詞: AIGC 商業化 AI產業布局

ChatGPT橫空出世,GPT4更“聰明”


2022年11月30日,美國人工智能研究公司OpenAI發布人工智能聊天機器人ChatGPT,推出不久便在全球范圍內爆火。短短5天,ChatGPT的注冊用戶數就超過100萬,2023年1月末月活用戶突破1億,成為史上增長最快的消費者應用。從用戶體驗來看, ChatGPT不僅能實現流暢的文字聊天,還可以勝任翻譯、作詩、寫新聞、做報表、編代碼等相對復雜的語言工作。


然而,技術進步是不會停止的。


僅僅過了三個多月,2023年3月15日,OpenAI發布了ChatGPT的最新“升級版本”—— GPT4模型,再次引爆社交媒體。比起ChatGPT,GPT-4擁有更強大的識圖能力,文字輸入的上限提升到了2.5萬字,它能更加流暢準確地回答用戶的問題,能寫歌詞,寫創意文本,且風格多變。實驗表明,GPT-4在部分專業測試和學術基準上,表現出了與人類相當的水平。


圖片來源網絡


是的,它變的更加“聰明”了。


不同于以往高高在上的實驗室研究成果,這次AI變革的成果正在迅速落地并走向商業化。據路透社報道,OpenAI在2022年的收入預計只有約8000萬美元。不過OpenAI表示,到2024年,OpenAI的收入有望提高到10億美元。紅杉資本預測:ChatGPT這類生成式AI工具,讓機器開始大規模涉足知識類和創造性工作,未來預計能夠產生數萬億美元的經濟價值。


在3月21日晚的GTC開發者大會上,NVIDIA創始人兼首席執行官黃仁勛表示,“我們正處于AI的iPhone時刻,”



AIGC商業化撬動萬億AI市場


AIGC(AI Generated Content)即人工智能自動生成內容,可以在創意、表現力、迭代、傳播、個性化等方面,充分發揮技術優勢,打造新的數字內容生成與交互形態。GPT系列是AIGC的一種商業化方向。


AIGC也被認為是繼UGC、PGC/UGC之后的新型內容生產方式。UGC是用戶生成內容,起源于Web2.0時代,例如博客、視頻分享、Youtube等應用方案;PGC/UGC分別指專業生產內容與職業生成內容,例如視頻創收平臺優酷、土豆平臺節目《暴走漫畫》、《萬萬沒想到》、或是抖音、快手等用戶生產內容。AIGC在創作成本上具有顛覆性,而且具備降本增效的多重優勢,并且有望解決目前PGC/UGC創作質量參差不齊或是降低其有害性內容傳播等問題,同時創意激發,提升內容多樣性。此外,價格上OpenAI最貴的AIGC語言模型達芬奇為每0.02美元750個單詞,AIGC圖型模型價格僅為0.020美元一張。


AIGC 應用場景

資料來源: 中國信息通信研究院, 京東探索研究院


下一代互聯網業態對內容產出效率、內容消費的蓬勃需求,將驅動 AIGC 快速發展。結合Gartner 及 Acumen Research and Consulting 預測, 2025 年 AIGC 滲透率將達 10%,至2030 年 AIGC 市場規模達 1108 億美元 ,對應 2021-2030 年 CAGR 達 34%。其中,對話式AI 預計 2030 年市場規模達 34 億美元,而2021 年僅為 5.2 億美元。當前 AIGC 企業變現模式主要為:訂閱付費(每月訂閱)、按量收費(數據請求量、計算量、圖片張數、模型訓練次數等),未來 MaaS(模型即服務)有望復制 SaaS 企服路線迎來需求爆發奇點 。


數據來源:Acumen Research and Consulting



群雄逐鹿,中美AI模型軍備競賽正在升級


AIGC的發展離不開AI 模型。AI 模型最初是針對特定應用場景需求進行訓練(即小模型)。小模型的通用性差,換到另一個應用場景中可能并不適用,需要重新訓練,這牽涉到很多調參、調優的工作及成本。同時,由于模型訓練需要大規模的標注數據,在某些應用場景的數據量少,訓練出來的模型精度不理想的情況,這使得 AI 研發成本高,效率低的情況。


直到2017 年,由Google Brain 團隊推出深度學習模型Transformer,采用自注意力機制, 對輸入數據的每一部分的重要性進行差異加權,主要用于自然語言處理(NLP) 和計算機視覺(CV)領域。目前,基于Transformer的預訓練語言模型已成為NLP領域的主流。ChatGPT是一個出色的NLP新模型。


Transformer的Encoder-Decoder示意圖

資料來源:《Attention is All You Need》(Google)


眾所周知,GPT-4是一個多模態大模型,那到底什么是多模態呢?


模態是一種社會性、文化性的資源,是物質媒體經過時間塑造而形成的意義潛勢。從社會符號學的角度上對模態的認知可以是聲音、文字和圖像等。人類通過眼睛、耳朵、觸覺等各種感覺器官接觸世界,每種信息的來源或形式都可以稱之為模態。同時,模態也可以是與人類通過自身的感覺器官從外部得到的信息,比如說嗅覺、視覺、聽覺等。隨著人工智能領域機器學習、深度學習的不斷發展,研究內容的不斷增加和更新,逐漸也賦予了模態新的定義,即機器對包含數據表征模式、數據收集模式、數據特征主體這3個外部信息的感知模式或信息信道。


多模態機器學習(MultiModal Machine Learning, MMML)研究包含不同模態數據的機器學習問題,一般的模態有視覺、文字和聲音。它們通常來自不同的傳感器,數據的形成方式和內部結構有很大的不同。例如,圖像是存在于自然界中的連續空間,文本是依賴于人類知識、語法規則而組織起來的離散空間。多模態機器學習是指通過機器學習的方法實現處理、理解及融合多源模態信息的能力。目前比較熱門的研究方向是文本-圖像的模型及應用。


隨著ChatGPT的爆火以及多模態大模型GPT-4的推出,中美AI模型軍備競賽正在升級。


美國憑借在模型迭代和算力上的先發優勢,聚焦大模型 API 的基礎設施層開發,帶動信息產業和科學行業發展,并加速商業化。中國公司在 AI 數據及大模型參數量層面與美國差距較小,但模型迭代和訓練仍有較大提升空間,大部分平臺更加聚焦 AIGC 內容和應用端。


美國主要大模型包括 OpenAI 的 GPT-3、 Anthropic 的 Claude、英偉達與微軟的 Megatron Turing-NLG 以及 Meta 的 OPT 等。其中,OpenAI 已經上線了 GPT-4,據傳參數量將達到萬億級。Google 把 GPT 系列模型作為紅線,并全力投入 LLM(大語言模型)模型的構建。


中國大模型主要包括百度文心、華為盤古、阿里通義、騰訊混云以及商湯的視覺模型等。百度推出文心大模型,基本實現跨模態和多下游多領域的應用,目前已上線文心一言。華為通過模型泛化,解決傳統AI 作坊式開放模式下不能解決的 AI 規模化和產業化難題。


資料來源:各公司官網,芯八哥整理


整體來看,美國在模型上仍具有先發優勢,源于長時間的技術迭代和數據累積。從 2018 年發布 GPT 1.0,到 2021 年發布 GPT-3.5 和 Instruct GPT, OpenAI 已形成了一系列海量數據積累和訓練模型,2023年3月發布的GPT-4 版本(據傳萬億級參數量)。雖然當前部分中國大模型參數量能達到千億級乃至萬億級,但數據質量及訓練模型尚需時間精進。



半導體產業機會:GPU主導千億AI芯片市場


OpenAI預計人工智能科學研究要想取得突破,所需要消耗的計算資源每3~4個月就要翻一倍,資金也需要通過指數級增長獲得匹配。在算力方面,GPT-3.5在微軟Azure AI超算基礎設施(由V100GPU組成的高帶寬集群)上進行訓練,總算力消耗約 3640PF-days(即每秒一千萬億次計算,運行3640天)。在大數據方面,GPT-2用于訓練的數據取自于Reddit上高贊的文章,數據集共有約800萬篇文章,累計體積約40G;GPT-3模型的神經網絡是在超過45TB的文本上進行訓練的,數據相當于整個維基百科英文版的160倍。按照量子位給出的數據,將一個大型語言模型(LLM)訓練到GPT-3級的成本高達460萬美元。


最新的GPT3.5在訓練中使用了微軟專門建設的AI計算系統,由1萬個英偉達V100 GPU組成的高性能網絡集群,總算力消耗約3640PFdays(PD) , 即假如每秒計算一千萬億(1020) 次,需要計算3640天。采購一片英偉達頂級GPU成本為8萬元,GPU服務器成本通常超過40萬元。對于ChatGPT而言,支撐其算力基礎設施至少需要上萬顆英偉達GPU A100,一次模型訓練成本超過1200萬美元。


數據來源:根據公開資料,芯八哥整理


伴隨著人工智能應用場景的多元化,新算法、新模型不斷涌現,模型中的參數數量呈指數級增長,對算力的需求越來越大。AI芯片是AI算力的“心臟”。根據WSTS數據,2020年全球人工智能芯片市場規模約為175億美元。隨著人工智能技術日趨成熟,數字化基礎設施不斷完善,人工智能商業化應用將加落地,推動AI芯片市場高速增長,預計2025年全球人工智能芯片市場規模將達到726億美元。


數據來源:WSTS


AI 芯片主要分為三種,分別是 GPU, FPGA 與 ASIC 芯片。不同種類別的 AI 計算芯片有各自突出的優勢和適用的領域,貫穿 AI 訓練與推理階段。目前 CPU 在人工智能領域中的應用有限,主要受限于 CPU 在 AI 訓練方面的計算能力不足。


資料來源:各公司官網,芯八哥整理


目前來看,GPU 仍然是 AI 應用的主導芯片,主要因為它具有強大的計算能力和高通用適用性,廣泛應用于各種圖形處理、數值模擬及人工智能算法領域。較低的開發成本也時期能夠快速在各個垂直下游領域被廣泛應用,加速優化拓展。


在獨立 GPU 領域,英偉達占據主導地位,份額高達88% 。英偉達 GPU 因其高性能和對 CUDA 的支持而廣泛應用于 AI和機器學習領域。因此, OpenAI 主要使用英偉達GPU來訓練和運行其 AI 模型,如 GPT-3 和 ChatGPT。據公開數據顯示, ChatGPT 已導入至少 1 萬個英偉達高端 GPU。


數據來源:JPR


國內 GPU 主要上市公司中,景嘉微通過自主研發 GPU 并規模化商用,是國內顯示控制市場龍頭企業。此外,海光信息、寒武紀等公司均有布局 GPU 產品。受美國對中國 GPU 芯片出口管制影響,預計國產 GPU 芯片替代將快速推進。


在加速計算GPU領域,國內壁仞科技發布的BR100產品,在FP32單精度計算性能實現超越NVIDIA A100芯片,但是不支持FP64雙精度計算;天數智芯推出的天垓100的FP32單精度計算性能實現超越A100芯片,但是在INT8整數計算性能方面卻低于A100;海光推出的DCU Z100實現了FP64雙精度浮點計算,但是其性能為A100的60%左右。因此,從高精度浮點計算能力來看,國內GPU產品與國外產品的計算性能仍或有一代以上差距。


但是,GPU的表現不僅體現在硬件上,軟件層面對于生態的布局尤其重要,目前國內企業多采用OpenCL進行自主生態建設,但這是需要大量的時間進行。對比AMD從2013年開始建設GPU生態近10年時間后才推出用于通用計算的ROCm開放式軟件平臺,國內廠商在軟件和生態層面與英偉達CUDA生態的差距相較于硬件更為明顯。


數據來源:各公司官網


全球AI計算平臺巨頭的產品布局


英偉達目前是全球 AI 計算平臺龍頭,產品矩陣包含硬件、系統軟件、平臺軟件和應用四層。硬件方面,最底層基于 CPU、 GPU、 DPU 三類芯片,形成三大算力支柱;系統層面,從云端到邊緣部署廣泛的多種系統,如 RTX(云端游戲服務器)、DGX(一站式 AI 解決方案)、HGX(AI 超級計算平臺)、EGX(邊緣AI 計算平臺)、OVX(數字孿生模擬)等,為開發者提供硬件基礎設施。平臺軟件層面,英偉達為開發者提供 150 個加速庫服務,涉及機器學習、神經網絡、計算機視覺、 基因檢測等細分技術領域。應用方面,英偉達打造了一系列針對特定領域的 AI 應用框架,如MODULUS(物理機器學習框架)、RIVA (語音 AI 應用)、 Isaac(機器人平臺)等,這些框架都基于 NVIDIA HPC、 NVIDIA AI 和 NVIDIA Omniverse 平臺構建。每一層級都對計算機制造商、服務提供商和開發者開放,軟硬一體的解決方案適用于廣泛下游領域。


英偉達基于 GPU、 DPU 和 CPU 構建加速計算平臺生態,造就核心技術壁壘。


英偉達產品規劃圖

資料來源:英偉達官網


GPU方面,主要產品 Tesla GPU 系列迭代速度快,從 2008 年至 2022 年,先后推出 8 種 GPU 架構,平均兩年多推出新架構,半年推出新產品。超快的迭代速度使英偉達的 GPU 性能走在 AI 芯片行業前沿,引領人工智能計算領域發生變革。


DPU 方面,英偉達于2019年戰略性收購以色列超算以太網公司 Mellanox,利用其InfiniBand(無限帶寬)技術設計出 Bluefield 系列 DPU 芯片,彌補其生態在數據交互方面的不足。InfiniBand 與以太網相同,是一種計算機網絡通信標準,但它具有極高的吞吐量和極低的延遲,通常用于超級計算機的互聯。英偉達的 Bluefield DPU 芯片可用于分擔 CPU 的網絡連接算力需求,從而提高云數據中心的效率,降低運營成本。


CPU 方面,自主設計 Grace CPU 并推出 Grace Hopper 超級芯片,解決內存帶寬瓶頸問題。采用 x86 CPU 的傳統數據中心會受到 PCIe 總線規格的限制,CPU 到 GPU 的帶寬較小,計算效率受到影響;而 Grace Hopper 超級芯片提供自研 Grace CPU+GPU 相結合的一致內存模型,從而可以使用英偉達 NVLink-C2C 技術快速傳輸,其帶寬是第 5 代 PCIe 帶寬的 7 倍,極大提高了數據中心的運行性能。


資料來源:英偉達官網


英偉達 GPU 因其高性能和對 CUDA 支持而廣泛應用于 AI 和機器學習領域。OpenAI 主要使用英偉達 GPU 來訓練和運行 AI 模型,如 GPT-3 和 ChatGPT。據公開數據顯示, ChatGPT 已導入至少1萬個英偉達NVIDIA A100。作為Ampere架構首發的NVIDIA A100,相較Tesla V100 可提高2.5 倍HPC 運算量,單片A100單價約為8萬元人民幣。


H100 所結合的技術創新,可加速大型語言模型速度,比A100快30 倍,提供領先業界的對話式人工智能加速(類似ChatGPT)。H100于2022年3月22日推出, 配備了 80 GB 顯存,搭載 NVIDIA Hopper HPC GPU,采用臺積電4nm制程,單價超過20萬元。H100 配備第四代Tensor核心和具有FP8精確度的Transformer Engine,能夠依據動態管理與選擇FP8與FP16,并自處理模型每一層FP8與FP16的自動轉換,相對現行的A100架構,能使AI訓練提升9倍、并使推理能提升30倍,同時不影響精確性。


目前華碩、源訊、戴爾、INGRASYS、技嘉、聯想與美超微( Supermicro)等NVIDIA的眾多合作伙伴推出搭載A100/H100產品,已在AWS、Google Cloud、Microsoft Azure 及 Oracle Cloud Infrastructure等各大云端平臺上使用。



主站蜘蛛池模板: 精精国产xxxx视频在线| 好吊妞视频这里有精品| 午夜福利yw在线观看2020| 国产欠欠欠18一区二区| 国产农村黄aaaaa特黄av毛片| 人人妻人人澡人人爽超污| 国产乱子伦一区二区三区=| 日韩新无码精品毛片| 日日噜噜夜夜狠狠视频无码日韩| 国产美女精品视频线免费播放| 欧美精品日韩精品一卡| 五月天国产成人av免费观看| 国产a∨天天免费观看美女| 人人爽人人爽人人片a∨| 国产精品久久久久久亚洲影视 | 男女做爰猛烈啪啪吃奶动| 成年无码动漫av片在线观看羞羞| 国产欧美va欧美va香蕉在线| 久久久久77777人人人人人 | 亚洲精品国产一区黑色丝袜| 人妻无码系列一区二区三区| 亚洲色大成网站www永久男同| 狠狠色噜噜狠狠狠狠777米奇| 国内精品自产拍在线观看| 强开小婷嫩苞又嫩又紧视频韩国| 午夜福利院电影| 亚洲国产熟妇在线视频| 大狠狠大臿蕉香蕉大视频| 亚洲欧美闷骚少妇影院| 亚洲国产成人无码影片在线播放 | 欧美又大粗又爽又黄大片视频| 国产精品免费看久久久无码| 欧美品无码一区二区三区在线蜜桃| 一区二区三区高清av专区| 中文字幕无码肉感爆乳在线| 日本熟妇厨房bbw| 国产精品宾馆在线精品酒店| 中文文字幕文字幕亚洲色| 国产精品一区二区含羞草| 国产成人小视频| 久久久久久久无码高潮|