Anthropic 宣布計畫在未來幾年內,投入高達 2000 億美元用於購買 Google Cloud 的雲端晶片。這項決策已遠遠超越了傳統的運算能力租賃合約,更標誌著該公司在模型擴展戰略上的重大轉型。
這並非單純採購 GPU,而是為了獲得 Google TPU(張量處理單元)這類專用處理器的長期使用權。這些晶片針對大型語言模型的訓練任務進行了優化,相較於 Nvidia 的通用型方案,能有效降低能源消耗。
對於 Anthropic 而言,此舉意味著能加快 Claude 系列模型的迭代速度,且無需過度依賴單一供應商。同時,由於 Google Cloud 也提供其他製造商的 GPU,該公司仍能保有一定的技術彈性。
若與主要依賴 Microsoft Azure 基礎設施的 OpenAI 相比,兩者的發展哲學顯然不同。Anthropic 押注於與晶片製造商進行垂直整合,這可能讓其在預算相近的情況下,獲得更高的模型訓練效率。
目前評估此類合作夥伴關係的標準尚不透明。在公開聲明中,缺乏關於 TPU 與 GPU 運算負載比例的詳細數據,也未說明這將如何影響模型的最終表現指標。
在產業格局中,此協議鞏固了 Google 作為前沿模型基礎設施關鍵供應商的地位。雖然 Amazon 和 Microsoft 先前已簽署過類似的大型交易,但 Anthropic 的承諾規模即使在這些巨頭面前也顯得格外突出。
對於研究人員與工程師來說,這將加速那些需要同時調動數萬顆晶片進行的模型實驗。這有助於縮短開發週期,並能更快地測試全新的架構構想。
然而,如此龐大算力的實際供應能力仍是一個懸而未決的問題。先進晶片的產能有限, Google 能否履行承諾將取決於資料中心擴建的速度以及供應鏈的穩定性。
獨立觀察家指出,這類多年期合約雖能降低 Anthropic 的經營風險,但同時也增加了其面對 Google 政策變動或技術重點轉移時的脆弱性。
歸根結底,這份合約證明了在當前的競爭環境下,獲取專用晶片的能力已與演算法和數據本身同樣重要。




