Site logo

微軟“Maia 200”強化ASIC崛起敘事 高速銅纜、DCI與光互連站上自研AI芯片風口

時間2026-01-28 14:59:11

微軟

邁威爾科技

下載霸財智贏APP,買賣點即市預警,炒家心水交流 >>

智通財經APP獲悉,歐洲金融巨頭法國巴黎銀行(BNP Paribas)週二發佈研報稱,隨着微軟(MSFT.US)升級換代後的第二代自研人工智能芯片(AI芯片)“Maia 200”橫空出世,且這款自研AI芯片引爆新一輪AI算力產業鏈投資狂潮,聚焦於大型AI數據中心定製化AI芯片(即 AI ASIC芯片)的ASIC領軍者們——例如美國芯片設計巨頭邁威爾(MRVL.US)及其最大競爭對手博通公司(AVGO.US)有望最大程度受益這股投資狂潮的算力領軍者。

法巴銀行的分析師們在研報中強調微軟引領的雲計算巨頭們自研AI芯片趨勢可謂大勢所驅,未來ASIC與英偉達AI GPU算力集羣之間的AI算力基礎設施市場份額有可能從當前的1:9/2:8大幅擡升至接近對等。

資深分析師卡爾·阿克曼(Karl Ackerman)領導的法巴銀行分析師團隊表示,在自研AI芯片趨勢觸發的新一輪A算力投資狂潮中,除了上述兩大AI ASIC領軍者們,其次則是數據中心高速互連(DCI)、高速銅纜以及數據中心光互連領軍者們也有望大幅受益於新一輪AI算力投資狂潮。

從更深層次的角度洞察整個AI算力產業鏈體系,不難發現AI ASIC、DCI、高速銅纜以及數據中心光互連,可謂同時受益於微軟、谷歌以及亞馬遜雲計算巨頭們主導的AI ASIC超級大勢以及英偉達/AMD主導的AI GPU算力基礎設施體系。無論是谷歌無比龐大的TPU AI算力集羣(TPU也走的是AI ASIC技術路線),抑或是谷歌、OpenAI、微軟等AI巨頭們仍然在大舉購置的海量英偉達AI GPU算力集羣,均離不開數據中心高速互連(DCI)、高速銅纜以及數據中心光互連領軍者們。

此外,拋開GPU與ASIC這兩大路線,無論是英偉達主導的“InfiniBand + Spectrum-X/以太網”高性能網絡基礎架構,還是谷歌主導的“OCS(即Optical Circuit Switching,光路交換)”高性能網絡基礎架構背後都離不開高速銅纜、數據中心高速互連(DCI)與光互連設備供應商們。也就是說,無論是“谷歌主導的AI ASIC算力鏈”(TPU/OCS)還是“OpenAI 算力鏈”(英偉達 IB/以太網),最終都會在同一組“硬約束”上會師——數據中心高速互連(DCI)、數據中心光互連、高速銅纜以及數據存儲底座(企業級存儲/容量介質/內存測試)。

谷歌在11月下旬重磅推出Gemini3 AI應用生態之後,這一最前沿AI應用軟件隨即風靡全球,推動谷歌AI算力需求瞬間激增。Gemini3 系列產品一經發布即帶來無比龐大的AI token處理量,迫使谷歌大幅調低Gemini 3 Pro與Nano Banana Pro的免費訪問量,對Pro訂閱用戶也實施暫時限制,疊加韓國近期貿易出口數據顯示SK海力士與三星電子HBM存儲系統以及企業級SSD需求持續強勁,進一步驗證了華爾街所高呼的“AI熱潮仍然處於算力基礎設施供不應求的早期建設階段”。

在華爾街巨頭摩根士丹利、花旗、Loop Capital以及Wedbush看來,以AI算力硬件爲核心的全球人工智能基礎設施投資浪潮遠遠未完結,現在僅僅處於開端,在前所未有的“AI推理端算力需求風暴”推動之下,持續至2030年的這一輪全球整體AI基礎設施投資浪潮規模有望高達3萬億至4萬億美元。

隨着AI推理狂潮席捲全球,屬於AI ASIC的黃金時代到來

類似“星際之門”的超大規模AI數據中心建設成本高昂,因此科技巨頭們愈發要求AI算力系統趨於經濟性,以及電力約束之下,科技巨頭力爭把“單位Token成本、單位瓦特產出”做到極致,屬於AI ASIC技術路線的繁榮盛世可謂已經到來。

毫無疑問的是,經濟性與電力層面的重大約束,迫使微軟、亞馬遜、谷歌以及Facebook母公司Meta都在推AI ASIC技術路線的雲計算內部系統自研AI芯片,核心目的都是爲了AI算力集羣更具性價比與能效比。

微軟把 Maia 200的定位直接寫成“顯著改善AI token generation的經濟性”,並多次強調performance per dollar;AWS 也把 Trainium3 的目標寫成“best token economics”,並用能效/性價比作爲賣點;谷歌雲計算平臺則將Ironwood定義爲“人工智能推理時代”的專用 TPU(TPU也屬於AI ASIC技術路線),強調能效與大規模推理服務。

隨着DeepSeek徹底掀起AI訓練與推理層面的“效率革命”,推動未來AI大模型開發向“低成本”與“高性能”兩大核心聚焦,相比於英偉達AI GPU路線更具性價比優勢的AI ASIC在雲端AI推理算力需求猛增的背景之下,邁入比2023-2025年期間AI熱潮時期更加強勁的需求擴張軌跡,未來谷歌、OpenAI以及Meta等大客戶有望持續斥巨資攜手博通開發AI ASIC芯片。

法巴銀行分析師團隊表示,雖然邁威爾以及博通不太可能成爲微軟自研Maia 200 AI芯片的芯片設計合作伙伴——法國巴黎銀行認爲與微軟共同Maia 200 的獨家技術供應商可能是來自中國臺灣的Global Unichip,類似於博通和谷歌共同開發TPU AI算力集羣的合作伙伴關係。但是法巴銀行認爲,隨着微軟點燃新一輪AI算力投資熱潮,邁威爾與博通仍可能通過“ASIC絕對領軍者”身份標籤而前面受益於自研AI風潮引領的投資主題。

摩根士丹利近日發佈的一份研報顯示,谷歌TPU AI芯片的實際產量在2027年和2028年將分別達到500萬和700萬塊,較該金融巨頭此前給出的預期可謂分別大舉上修67%、120%。而這一產量激增預期可能預示着谷歌將開啓TPU AI芯片的直接對外銷售。更具基本面衝擊力的是,大摩的這份研究報告測算每50萬片TPU外銷,便有望爲谷歌帶來130億美元的額外營收以及高達0.40美元的每股收益。

市場研究機構Counterpoint Research在最新研報中預測,非AI GPU系列服務器的核心AI芯片——即AI ASIC陣營,在近期將經歷高速增長曲線,預計到2027年出貨數量將達到2024年的三倍,2028年則有望以1500餘萬顆的規模反超GPU。報告顯示,這一爆炸性增長的背後,是對谷歌TPU基礎設施的強勁需求、AWS Trainium集羣的持續擴展,以及Meta (MTIA) 和微軟 (Maia) 隨着其雲計算系統內部自研AI芯片產品組合的擴展而帶來的產能提升。

高速銅纜、數據中心高速互連(DCI)與光互連

法巴銀行在研報中列出的其他潛在受益者包括數據中心高速銅纜(DAC/AEC)領軍者安費諾(Amphenol,APH);Lumentum等數據中心光互連參與者們;Arista Networks(ANET.US)這一數據中心高速互連(DCI)領軍者們;以及如果使用有源高速銅纜(active electrical cables,即AEC),則可能還包括Credo Technologies(CRDO.US)和Astera Labs(ALAB.US)。

無論是英偉達主導的 InfiniBand / Spectrum-X 以太網高性能網絡,還是Alphabet旗下谷歌(Google) 在 Jupiter 架構中引入的 OCS(光路交換),最終都要落到“物理互連棧”——服務器/加速卡集羣之間互連到交換機之間的高速銅互連(短距)、機架/機房/樓宇尺度的光互連(中長距),以及在跨樓/跨園區/跨站點時由DCI 光傳輸/互聯把網絡與存儲域拉通。NVIDIA 自己對其以太網平臺的定義就把交換機、網卡/SmartNIC、DPU 與線纜/收發器(LinkX)作爲端到端組成部分,並明確列出從DAC 銅纜到AOC/多模/單模光的覆蓋範圍。

從“星際之門”等全球AI數據中心超級工程層面角度來看,更加精確的表述是:銅纜與光互聯各司其職。在超大規模 AI 集羣裏,“機架內/鄰近機架”的短距高速互連(例如交換機到服務器網卡)通常優先用 DAC/AEC(銅纜)來壓低延遲、功耗與成本;而當帶寬上到 400/800G 且距離拉長(跨機架/跨行/跨機房)時,鏈路預算和功耗會把方案推向 AOC/可插拔高速光模塊級別光互連設備,甚至更激進的硅光/CPO路線。

另一方面,Google 主導的OCS是在數據中心網絡架構層面把光路交換引入 Jupiter,以解決規模與演進中的佈線/容量問題——它本質上更“偏光”,但同樣離不開端口側的光電接口與高速佈線體系。

Lumentum 之所以是谷歌AI大爆發的最大贏家之一,主要是因爲它正好做的是與谷歌TPU AI算力集羣深度捆綁的“高性能網絡底座系統”中的不可或缺光互連——即OCS(光路交換機)+ 高速光器件,TPU數量每多一層量級,它的出貨就跟着往上乘。在OpenAI鏈這一側,英偉達所主導的“InfiniBand 與以太網”深度捆綁ANET/CSCO/HPE公司的這類交換機與數據中心網絡系統,但並不是“排斥光互聯”,相反,英偉達“IB+以太網”成功把“銅的確定性 + 光的長距離/高帶寬密度”打包成標準化互連體系。

分析師阿克曼等人在致客戶們的研究報告中寫道:“我們認爲,Maia 200機架級別AI算力基礎設施系統將包含12個大型計算型trays、4臺Tier-1以太網scale-up交換機、6個CPU頭節點(CPU head nodes)、2臺用於前端網絡的機架頂部(ToR)以太網交換機,以及1臺帶外管理交換機(out-of-band management switch)。”

阿克曼等分析師補充道:“對我們來說最有意思的是,Maia 200可能不會使用後端(backend)的scale-out網絡架構。”他還表示:“Maia 200將以6,144顆ASIC爲單位,部署在小型scale-up集羣中,這些集羣將通過CPU頭節點和前端以太網交換機連接到‘外部世界’。鑑於Maia 200堪稱是爲推理(inferencing)工作負載量身定製的,我們認爲這種拓撲結構是合理的,因爲海量的AI推理工作負載可能不需要由數十萬顆ASIC組成且需要同步協作的超級集羣(superclusters)。”

阿克曼領導的分析師團隊補充稱,微軟自研的Maia 200 AI算力基礎設施大規模部署預計將在2026年下半年開始加速放量,並將在明年進一步推進進一步滲透至微軟各大數據中心。

免責聲明:本資訊不構成建議或操作邀約,市場有風險,投資需謹慎!