Site logo

“不作惡”淪為過去式?谷歌(GOOGL.US)拒絕步Anthropic後塵 簽下美國防部機密AI合作協議

时间2026-04-28 17:15:23

谷歌-A

下载霸财智赢APP,买卖点即市预警,炒家心水交流 >>

智通財經APP獲悉,據媒體援引知情人士消息報道,谷歌(GOOGL.US)已加入越來越多科技公司的行列,與美國國防部簽署協議,允許其人工智能(AI)模型用於機密工作。報道稱,該協議允許美國國防部將谷歌的AI模型用於“任何合法的政府用途”。這使谷歌與OpenAI以及馬斯克旗下xAI一樣,後者也已簽署協議,為機密用途提供AI模型。

機密網絡用於處理廣泛的高敏感性工作,包括任務規劃和武器瞄準。據報道,谷歌與美國國防部的協議要求該公司根據政府的要求,協助調整其AI的安全設置和過濾器。該合同包含的條款表述為:“雙方同意,在沒有適當人類監督和控制的情況下,AI系統不得用於國內大規模監控或自主武器(包括目標選擇)。”然而,報道補充稱,該協議也規定,谷歌無權控制或否決合法的政府行動決策。

谷歌表示,其支持政府機構開展機密及非機密項目。一位發言人表示,谷歌仍堅持行業共識,即AI不應被用於國內大規模監控,也不應用於缺乏適當人工監督的自主武器。谷歌發言人表示:“我們認為,以行業標準做法和條款提供對商業模型的API訪問權限(包括在谷歌基礎設施上運行),是一種負責任地支持國家安全的方式。”

美國國防部表示,其無意利用AI對美國民眾實施大規模監控,也無意開發無需人類參與即可運行的武器,但希望允許AI的“任何合法用途”。

美國防部力推“全合法用途”標準 Anthropic拒絕妥協被拉入“黑名單”

美國國防部在2025年與包括Anthropic、OpenAI和谷歌在內的多家主要AI實驗室簽署了最高價值各2億美元的協議。此前報道稱,美國國防部一直在推動包括OpenAI和Anthropic在內的頂級AI公司,使其工具能夠在機密網絡上運行,並取消這些公司通常對用户施加的標準限制。

美國國防部在其“全合法用途”(All Lawful Use)採購標準上的立場正變得日益強硬。該標準要求軍事機構有權在現有美國法律和軍事政策允許的任何範圍內使用供應商的AI能力,而無需受制於科技公司附加的倫理限制條款。

在這一標準的執行過程中,谷歌的主要競爭對手Anthropic遭遇了美國政府嚴厲的打壓。Anthropic拒絕妥協,堅持在其合同中保留禁止將Claude模型用於國內大規模監控和無人類監督的完全自主武器的限制。

Anthropic則因此被美國政府列為“供應鏈風險”,並被給予6個月的過渡期從美國政府網絡中全面清退。美國總統特朗普更是直接下令所有聯邦機構立即停止使用Claude,指責其為試圖強迫軍隊接受其價值觀的“激進左翼”公司。

3月9日,Anthropic就特朗普政府將其列為“供應鏈風險”的決定對美國防部及其他聯邦機構提起訴訟。3月26日,美國加州北區聯邦地區法院法官Rita F. Lin批准了Anthropic的臨時禁令申請,阻止美國聯邦政府禁用Anthropic人工智能技術的命令生效。

值得一提的是,Anthropic與美國政府之間的緊張關係似乎正在緩和。特朗普上週二在接受採訪時表示,有望達成一項協議,允許Anthropic的AI模型在美國國防部內部使用。本月早些時候,Anthropic發佈了Mythos模型。鑑於其先進的網絡安全能力,該模型僅向部分精選企業推出。Anthropic表示,正就該模型與美國政府官員進行“持續討論”。儘管該模型是在Anthropic與國防部爭端最激烈的時候推出的,但其發佈為該公司重新贏得政府好感打開了大門。

“不作惡”淪為過去式?

若上述報道中的協議屬實,將標誌着谷歌在面對國家安全與倫理準則的長期博弈後,其企業戰略發生了根本性轉向。在面對微軟(MSFT.US)Azure和亞馬遜(AMZN.US)AWS在政府機密雲市場的長期主導地位時,谷歌亟需通過此類國防級AI整合項目來實現業務的戰略突圍。

谷歌與美國國防部達成的機密AI協議實際上是其內部AI倫理準則經過數年深刻修正後的必然結果。2018年,在員工的強烈抗議下,谷歌退出了利用AI分析無人機視頻的“Maven項目”(Project Maven),並在此後確立了明確的AI原則,承諾不開發用於武器或極易造成傷害的監控技術。

然而,隨着全球AI軍備競賽的加劇,谷歌這一立場發生了根本性改變。2025年2月,谷歌悄然修改了其內部的AI原則,直接刪除了題為“我們不會追求的應用”的部分,即取消了不將AI用於武器和監控的承諾。

在2026年3月的內部全體會議上,谷歌全球事務副總裁Tom Lue向對國防合同感到擔憂的員工傳遞了明確的信號,表示公司正在“更多地傾向於”國家安全工作,並認為這些合同與更新後的AI準則相符。

儘管如此,內部的異議並未平息。超過100名谷歌AI員工近期向首席科學家Jeff Dean聯名致信,要求公司禁止軍方將Gemini用於國內監控或自主武器,凸顯了企業商業目標與員工倫理堅守之間的巨大張力。

Anthropic的退出為谷歌和OpenAI創造了巨大的戰略真空。面對美國軍方的強硬立場,谷歌選擇接受“全合法用途”這一總體框架,轉而通過在具體合同文本中“提議”加入防止大規模監控和自主武器無監督濫用的條款來進行斡旋。分析人士指出,這種策略既滿足了五角大樓對於技術自主控制的底線要求,又試圖在表面上維護科技公司的倫理形象,反映了地緣政治競爭壓力下企業邊界的退讓。

谷歌與美國國防部達成的協議表明,這家科技巨頭正尋求鞏固其作為下一代“國防-AI-工業複合體”核心供應商的地位。在這一進程中,傳統的企業倫理邊界不可避免地向國家地緣戰略的絕對需求做出了妥協。

免责声明:本资讯不构成建议或操作邀约,市场有风险,投资需谨慎!