什麼是 LPU晶片?美股光通訊有哪些LPU概念股?
隨著生成式 AI(Generative AI)的爆發,全球科技巨頭陷入了算力軍備競賽。在這個賽道中,Nvidia 的 GPU 雖然是目前的王者,但一種名為 LPU(Language Processing Unit,語言處理單元) 的全新架構正異軍突起,試圖在「AI 推論」領域彎道超車。
與此同時,當這類超級晶片組成龐大叢集時,它們之間的資料傳輸需求呈現指數級增長,這使得「光通訊」技術成為 AI 基礎設施中不可或缺的基石。
什麼是 LPU?
LPU(Language Processing Unit) 是由美國 AI 晶片新創公司 Groq 所提出並研發的一種全新處理器架構。顧名思義,它是專門為處理「大型語言模型(LLM)」而生的晶片。
要理解 LPU 的革命性,我們必須先了解它與傳統 GPU 的差異:
專注「推論」而非「訓練」: GPU 擅長平行運算,是「訓練」AI 模型的最佳選擇。但當模型訓練完成,進入實際應用階段(例如 ChatGPT 回答你的問題),這個過程稱為「推論(Inference)」。LPU 捨棄了訓練所需的多餘邏輯單元,將所有資源極致化地投入到推論任務中。
打破「記憶體牆(Memory Wall)」: 傳統 GPU 依賴外部的 HBM(高頻寬記憶體)。在生成文字時,晶片需要不斷與外部記憶體來回存取資料,造成嚴重的延遲(這就是為什麼 ChatGPT 常常是一個字一個字慢慢吐出來)。LPU 採用了激進的設計:它沒有外部記憶體,而是將大量的 SRAM(靜態隨機存取記憶體)直接內建在晶片上。
天下武功,唯快不破: 因為資料不需要在晶片內外來回奔波,LPU 的運算速度達到了物理極限。Groq 的 LPU 每秒可以生成高達數百至上千個 Token,速度是頂級 GPU 的數倍以上,能實現真正意義上的「即時 AI 對話」。
歷史性的轉折:Nvidia 砸 200 億美元「類收購」Groq
LPU 展現出的驚人潛力不僅震撼了市場,更直接引起了 AI 晶片霸主 Nvidia 的高度警覺。在 2025 年 12 月底,市場迎來了震撼彈:Nvidia 宣布斥資高達 200 億美元現金,與 Groq 達成一項極為罕見的「非獨家技術授權」與人才併購協議。
為了規避各國嚴格的反壟斷審查,Nvidia 採取了聰明的「人才收購(Acqui-hire)」策略。他們並未直接買下 Groq 整家實體公司(Groq 仍作為獨立的雲端服務實體存續),而是買走了 Groq 賴以生存的核心資產:包含 LPU 晶片架構的終身技術授權,並將包含創辦人 Jonathan Ross(也是前 Google TPU 核心開發團隊成員)在內的頂尖工程團隊全數挖角至 Nvidia。
Nvidia 執行長黃仁勳對此明確表示,這筆 Nvidia 史上最大規模的交易,目的是為了將 Groq 的低延遲 LPU 處理器整合進 Nvidia 的 AI 工廠(AI Factory)架構中。這場世紀交易不僅證明了 LPU 架構的巨大價值,更向全世界釋放了一個明確的訊號:AI 算力的主戰場,已經正式從「模型訓練」轉向追求極致速度與成本效益的「即時推論」時代。
為什麼 LPU 的崛起,會帶動「光通訊」產業?
LPU 單顆晶片雖然極快,但它的內建 SRAM 容量相對較小(約 230MB)。然而,現今的大型語言模型(如 Llama 3)動輒數十 GB 甚至數百 GB。
為了解決這個問題,Groq 的做法是「大力出奇蹟」:將數百、數千顆 LPU 串聯起來,組成龐大的算力叢集(Cluster)。
當一個 AI 模型被拆分到幾百顆晶片上同時運行時,晶片與晶片之間、機櫃與機櫃之間需要每秒交換海量的數據。傳統的銅線傳輸在速度和距離上已經達到了物理瓶頸,且功耗極高。這時,光通訊(Optical Communication)與矽光子(Silicon Photonics)技術就成了唯一的解決方案。利用「光」來傳輸資料,不僅頻寬更大、速度更快,且能耗更低。
可以說,沒有頂尖的光通訊技術,LPU 或任何先進的 AI 叢集就無法發揮出它們應有的實力。
美股光通訊領域的「LPU / AI 算力網路」概念股
嚴格來說,光通訊廠商並非「只」供應給 LPU,它們是整個 AI 算力網路(無論是 GPU、TPU 或 LPU)的「賣鏟人」。當 LPU 這類需要極高頻寬互連的架構擴張時,以下美股光通訊巨頭將直接受惠:
1. Broadcom (博通,代號:AVGO)
產業地位: 全球網通晶片與矽光子霸主。
AI 關聯: 雖然博通以晶片聞名,但它的 Tomahawk 和 Jericho 交換器晶片是構建 AI 資料中心網路的核心。此外,博通在「共同封裝光學元件(CPO)」與矽光子技術上領先全球,能將光通訊模組與運算晶片高度整合,是高速 AI 叢集不可或缺的推手。
2. Marvell (邁威爾,代號:MRVL)
產業地位: 數據基礎設施與光通訊 DSP(數位訊號處理器)龍頭。
AI 關聯: 在光纖傳輸中,需要 DSP 晶片來處理和清理高速訊號。Marvell 的 PAM4 DSP 晶片在 800G 甚至 1.6T 的光收發模組中佔據統治地位。隨著 LPU/GPU 叢集對資料傳輸速率的要求越來越高,Marvell 的業績直接與 AI 網路的擴張掛鉤。
3. Coherent (高意,代號:COHR)
產業地位: 全球領先的雷射與光學材料、光收發模組製造商。
AI 關聯: Coherent 提供了資料中心所需的 800G 高速光收發模組。他們掌握了從基礎光學材料、雷射元件到最終模組的垂直整合能力。AI 資料中心內部機房的互連,極度依賴這類高速光纖模組。
4. Lumentum (魯門特姆,代號:LITE)
產業地位: 頂尖的光通訊元件與雷射器供應商。
AI 關聯: Lumentum 專精於製造光模組內部的核心發光元件(如 EML 雷射器、VCSEL)。隨著 AI 運算需求推動網路向 800G 和 1.6T 升級,對高性能、高穩定性雷射晶片的需求暴增,Lumentum 正是這類關鍵零組件的軍火商。
5. Fabrinet (法布里內特,代號:FN)
產業地位: 高階光學與精密電子代工之王。
AI 關聯: 光學模組的組裝非常精密,難度遠高於一般電子產品。Fabrinet 是 Cisco、Nvidia、Arista 等大廠背後的光學代工廠。Nvidia AI 系統中用到的高階光收發模組,絕大多數都是由 Fabrinet 負責組裝製造。
結語
LPU 的出現,證明了 AI 硬體發展正在從「通用型」走向「專用型」。而無論前端的運算大腦是 LPU 還是 GPU,它們都面臨著同一個物理限制:資料傳輸的瓶頸。
光通訊與矽光子技術,就像是為這些超級大腦鋪設的「光速神經網路」。對於投資人而言,關注這些隱身在算力晶片背後、默默提供高速傳輸基礎設施的光通訊大廠,將是把握 AI 長期紅利的另一個關鍵視角。