亞馬遜(AMZN.US)發起AI成本革命! 自研AI ASIC直撲大模型訓練 英偉達算力壟斷迎來最強挑戰
时间:2026-02-27 21:51:14
亚马逊
谷歌A
智通財經APP獲悉,美國電商與雲計算領軍者亞馬遜(AMZN.US)將大規模嘗試使用其自研AI芯片即——即名爲Trainium和Inferentia的AI ASIC算力集羣基礎設施來開發並更新迭代其自有人工智能大模型,以此來大幅降低成本。對英偉達和 AMD主導的AI GPU算力體系擴張前景而言,亞馬遜此舉可能帶來“中長期邊際壓制 + 壟斷溢價被削弱”,在AI推理大浪潮之下,性價比更高的AI ASIC技術路線或將對於英偉達近乎90%市場份額的AI芯片壟斷地位發起迄今爲止最強有力衝擊。
從AI算力產業鏈與芯片工程角度看,亞馬遜旗下的雲計算平臺AWS使用自研AI芯片訓練AI大模型,而不是像此前那樣集中於AI推理算力主力,堪稱是亞馬遜自研AI ASIC算力路線的重要里程碑,但不是AI ASIC起點式里程碑——這一里程碑谷歌TPU(隸屬於AI ASIC技術路線)早已證明。現在開始亞馬遜AWS把“自研AI ASIC算力集羣基礎設施參與AI”全面升級爲“自研AI ASIC直接承接自家前沿AI大模型的最核心算力系統”,這對亞馬遜、谷歌以及微軟這類超大規模雲計算巨頭(hyperscaler) 自研AI芯片路線產業鏈具備重大意義。
市場對於英偉達前景的擔憂是正確的
亞馬遜新任的人工智能基礎設施負責人Peter DeSantis在週五早間接受媒體採訪時表示:“如果我們能夠在自己的自研AI芯片上構建模型,我們就能以純AI大模型提供商成本的僅僅一小部分來構建這些模型。”
DeSantia還補充表示:“構建超大規模的AI數據中心確實存在一定程度上的成本問題。如果我們最終希望AI改變一切,成本就必須有所不同。”
市場普遍認爲,“AI芯片超級霸主”英偉達(NVDA.US)當前仍然掌握了AI算力基礎設施最核心領域——人工智能芯片市場的絕大部分市場份額。這家由黃仁勳領導的芯片巨頭剛剛公佈了大幅超出預期的2026財年第四季度業績和下一財季業績指引,但其股價週四卻大幅下跌了5%,主要因市場愈發擔憂來自hyperscalers近期密集宣佈將推出基於自研模式的性價比更高AI ASIC芯片的動向,愈發顯現出對英偉達在全球AI基建最核心領域——AI芯片領域長期絕對主導地位構成風險的跡象。
毋庸置疑的是,隨着亞馬遜宣佈將嘗試使用Trainium和Inferentia開發AI大模型,市場擔憂是正確的。
本月稍早,亞馬遜管理層表示,2026年的資本支出將達到大約2000億美元,遠高於華爾街預期。亞馬遜首席執行官安迪·賈西(Andy Jassy)稱,這筆支出中的一部分將用於開發與升級迭代自研AIK芯片。
賈西表示:“鑑於我們現有業務的電商服務、傳統雲計算服務以及AI算力需求十分強勁,以及人工智能大模型、人形機器人以及低地球軌道衛星等具有開創性的龐大增長機遇,我們預計亞馬遜將在2026年投入約2000億美元資本支出,並預計將帶來強勁的長期投資資本回報。”
AI推理大浪潮來襲,英偉達未必還是那個“AI最大贏家”
亞馬遜最新計劃的真正新意不在於“自研AI ASIC能不能訓練大模型”,而是準備把自研AI芯片從雲端可選AI算力,進一步推到自家基礎模型開發的核心路徑上。
英偉達AI GPU幾乎壟斷的AI訓練側需要更加強大的AI算力集羣通用性以及整個算力體系的快速迭代能力,而AI推理側則在前沿AI技術規模化落地後更看重單位token成本、延遲與能效。比如谷歌明確把Ironwood定位爲“爲AI推理時代而生”的TPU代際,並強調性能/能效/算力集羣性價比與可擴展性。不過亞馬遜最新的行動證明了AI ASIC可能具備訓練大模型的強大潛力。
AI ASIC算力體系無疑會在中長期持續削弱英偉達的壟斷溢價與部分市場份額,而不是線性取代GPU體系,根本的底層原因在於,推理時代的核心競爭不再只是“峯值算力”,而是每token成本、功耗、內存帶寬利用率、互連效率,以及軟硬件協同後的總擁有成本。在這類指標上,面向特定工作負載定製的數據流、編譯器和互連的ASIC,天然比通用GPU更容易做到高性價比。
但是,對英偉達和AMD而言,這很大程度上意味着邊際壓制是真實存在的,但更可能表現爲議價權下滑、份額被分食、估值溢價被壓縮,而非絕對需求塌陷。AI ASIC在AI推理超級浪潮下無疑將持續衝擊英偉達主導的GPU壟斷格局,但衝擊更像是重塑產業利潤池與客戶採購結構,而不是讓GPU擴張邏輯失效。
AWS官方就明確把 Trainium/Inferentia 定位爲面向生成式AI訓練與推理的專用加速器,其中Trainium2相比其AI GPU雲實例給出約30%–40%更優價格性能;而谷歌此前不久也已公開表示,Gemini 2.0 的訓練和推理100%運行在TPU上。這說明“超大雲計算廠商用自研ASIC承接核心模型訓練/推理”已不再是概念驗證,而是在進入可複製的產業化階段。
但如果把它進一步推演成“GPU體系會被迅速沖垮”,則顯得過頭了。英偉達真正的護城河不只在芯片本身,更在CUDA、開發工具鏈、模型適配廣度和生態慣性;彭博分析師們在去年就指出,全球已有超過400萬開發者依賴CUDA,這意味着大量前沿訓練、複雜混合工作負載、以及需要快速迭代的新模型,短期內仍更適合跑在GPU上。甚至AWS一邊推進自研AI芯片,一邊仍在未來芯片中引入GPU體系,並繼續提供基於英偉達的算力AI基礎設施;這恰恰說明 hyperscaler的真實策略不是“去GPU化”,而是在高端訓練層保留GPU,在大規模推理和自家模型棧中提高ASIC佔比。所以,從工程現實看,未來更像是“GPU + ASIC 並存分層”,而不是單一路線勝出。
免责声明:本资讯不构成建议或操作邀约,市场有风险,投资需谨慎!


