光子芯片獲得新突破,光模塊市場加碼,光芯片國產替代在即
美國研究人員利用相變材料(PCM)開發了具有快速原型設計和重新編程功能的光子集成電路(PIC)。
西雅圖華盛頓大學開發的直寫和可重寫光子芯片技術采用低損耗相變材料(PCM)薄膜,可以一步直接激光寫入完整的端到端PIC無需額外的制造工藝,電路的任何部分都可以擦除和重寫,從而實現快速設計修改。
該團隊已將該技術用于可重構網絡的光學互連結構、用于光學計算的光子交叉陣列以及用于光學信號處理的可調諧光學濾波器。
將直接激光寫入技術的可編程性與 PCM 相結合,為可編程光子網絡、計算和信號處理帶來了機遇。它還以方便且經濟高效的方式提供快速原型設計和測試,并且無需納米制造設施。
光子芯片是通過使用 PCM 兩種非易失性相(非晶態和晶態)之間顯著的折射率對比來創建的,這兩種非易失性相可以使用來自商用海德堡 DWL 66+ 激光寫入系統(工作頻率為405nm和27.5mW)的光脈沖進行可逆切換。
光子電路寫在標準氧化硅基板上,該基板上涂有 200 nm 厚的 SiO2 層,覆蓋 330 nm Si3N4 薄膜上的 30 nm Sb2Se3 層。SiO2 覆蓋層可保護并防止 Sb2Se3 層氧化。
通過使用結晶相 (cSb2Se3) 作為高折射率芯和非晶相 (aSb2Se3) 作為包層,在Sb2Se3薄膜中創建波導。這種二元相配置能夠在Si3N4底層的輔助下將基本橫向電 (TE0) 光學模式限制在 cSb2Se3 波導內。
由激光創建的一系列矩形aSb2Se3結構的寬度范圍從1μm到200nm,可實現的最小特征尺寸為300 nm,明顯小于其他系統。
該團隊使用該技術構建波導、光柵、環形諧振器、耦合器、交叉點和干涉儀來構建光子芯片。
什么是光子芯片?
光子芯片或光子集成電路(Photonic Integrated Circuit, PIC),是一種特殊的芯片。
不同于傳統的以電子為主導的芯片,光子芯片是利用光子(光的粒子)進行信息處理和傳輸的設備。在此類設備中,數據被編碼到光子上,然后通過光纖傳輸,從而實現了超高速度的數據傳輸。
光子芯片有許多顯著優點。首先,由于光速快且光的頻率遠高于電子,因此光子芯片的數據傳輸速度和處理能力遠超過電子芯片。
其次,光子芯片的信號傳輸損失小,因此可以實現遠距離、高容量的數據傳輸。再者,光子芯片的能耗低,因為光信號的傳輸并不會產生熱量。
最后,光子芯片抗電磁干擾性能好,對環境適應性強。
光子芯片的實現并非遙不可及。實際上,現在已經有許多科研機構和公司在研發這種新型芯片,有些產品已經用于光纖通信、生物醫療、環境監測等領域。
但光子芯片也面臨一些技術挑戰,比如制造精度、光與電的轉換效率、光信號的調制和檢測等。這些問題需要科研人員進一步攻克,但總體來看,光子芯片的前景是樂觀的。
除了光子芯片,科研人員還在探索許多其他新型芯片,如量子芯片、納米芯片、生物芯片等。
光模塊核心部件
光模塊廠商里,全球有一半在我國,不過光模塊的核心是光芯片,占光模塊大部分的成本,國內光芯片企業主要集中于2.5G系列產品的生產和制造,10G和25G中高速率光芯片逐漸實現量產,而50G及以上高端光芯片生產仍主要集中在美日企業里,國內高端光芯片需求極度依賴進口。像中國做光模塊的,但大多數高端光芯片依靠進口,只是在部分光模塊產品和應用領域采用了自研的硅光芯片。
光模塊產業鏈也很長,涵蓋芯片(電/光)、器件(無源/有源)、模塊成品,其中芯片技術壁壘高,能夠占到大部分比重,而且,高端產品由國外壟斷,比如根據ICC的數據,2021年2.5G及以下速率光芯片國產化率超過90%;10G光芯片國產化率約60%,部分性能要求較高、難度較大10G光芯片仍需進口;2021年25G光芯片國產化率約20%,但25G以上光芯片的國產化率僅5%,多是海外光芯片廠商為主。
光模塊兩大增長因素
從資本市場的角度看,近幾年光模塊行業有兩個高潮:
第一個是,國內 5G 網絡的建設高峰。
約在 2019-2020 年,隨著國內 5G 牌照發放,三大運營商大力籌建 5G 網絡。由于其開支主要聚焦于無線網和承載網,所以對前傳、中回傳光模塊的需求量非常高。由于當時對 5G 網絡大范圍渲染,資本市場也很看好 5G 發展,刺激一波年度級別的光模塊概念行情。
但在 2020 年下半年開始,5G 網絡建設減速、商業推廣受阻等綜合影響,光模塊概念也隨之下行,出現近 2 年半的低迷。不過,光模塊在電信通信的應用只占一部分,更大的應用是在數據通訊領域。
第二個是,ChatGPT 引爆的 AI 新時代。
去年底,OpenAI 公布了一個全新對話式 AI 模型 ChatGPT。由于其很高的創造性,很快就出圈,并且愈演愈烈。
年初時,各種消息逐漸傳入國內。特別在微軟推出新版 Bing 搜索引擎、百度宣布將推出“文心一言”等消息后,相關話題在各大流量平臺爆發。
全球的大廠都正在進行 AI 大模型的“軍備競賽”。但大模型競賽背后,其實就是算力的比拼。
以 OpenAI 團隊舉例,他們訓練 GPT3 模型用了一萬張英偉達 A100 顯卡。訓練 GPT4 乃至更高級的模型則需要更多算力,據說 OpenAI 已經配備了 3 萬張以上的 A100 顯卡。業內認為,一萬張顯卡幾乎就是一個大模型的門檻,國內大廠幾乎都部署了兩三萬張顯卡。
比如,一個 SuperPOD 架構(英偉達AI基礎架構解決方案)需要 140 臺 AI 服務器;1120 張 A100GPU;186 臺交換機與 5760-8000 個光模塊。
所以,一句話總結,算力需求正在指數級爆發,給光模塊帶來龐大的新增量。
