廣告

分析|TPU衝擊輝達霸主地位!10年磨一劍 谷歌做對了什麼?

出版時間:2025/11/29 16:55
財經 科技新知
CC 文章
Google的TPU晶片。法新社 zoomin
Google的TPU晶片。法新社
分享 分享 連結 訂閱 APP

【財經中心╱台北報導】隨著Gemini 3的橫空出世,Google的TPU從幕後走到台前,讓輝達GPU的霸主地位似乎有被撼動的跡象,也成為牽動本周科技股表現的焦點。

根據谷歌雲端內部主管透露,擴大TPU的市場採用率,可望幫助公司搶佔輝達年營收比重的10%。緊接著,市場就傳出「Google加緊向客戶推銷TPU」、「Meta擬斥資數十億美元購買TPU」等消息,大摩分析師更大膽預測,2027年Google的TPU外銷量將達到100萬顆。

另一方面,投資人紛紛用腳投票,表達對輝達GPU市場可能流失的擔憂,輝達官方則緊急發布聲明強調,自家產品比ASIC擁有更高的性能、更強的通用性以及更好的替代性。

安卓用戶每天消耗算力相當可觀

Google的TPU為何能從閉關修練的隱世高手,如今可能對輝達AI晶片霸主地位帶來威脅,根據科創板日報報導,Google的TPU起源還要從12年前的那場「算力焦慮」說起。

科創板日報報導,2013年,深度學習在Google內部的應用不斷擴散,後台模型的複雜度和算力消耗規模呈指數級成長,谷歌科學家Jeff Dean透過計算發現,若1億安卓用戶每天使用3分鐘語音轉文字服務,消耗的算力竟超過谷歌所有資料中心總算力的2倍。

堆砌GPU以獲得算力固然是符合直覺的選項,但由於「馮諾依曼瓶頸」(CPU的處理速度遠快於記憶體讀寫速度,導致CPU在等待記憶體傳輸資料時經常處於閒置狀態,限制電腦整體執行效率)的存在,導致CPU和GPU等計算單元在處理深度學習中大規模矩陣乘法等特定任務時效率低下。相較之下,自研ASIC加速器可為機器學習任務客製架構,能將深度神經網路推理的整體能源效率降至原來的1/10,長期來看成本更可觀。

谷歌之前發現,安卓用戶每天使用語音轉文字消耗的算力超過谷歌所有資料中心總算力2倍。台灣大提供 zoomin
谷歌之前發現,安卓用戶每天使用語音轉文字消耗的算力超過谷歌所有資料中心總算力2倍。台灣大提供

谷歌2013年啟動第一代TPU計畫

於是2013年底,Google啟動第一代TPU計畫,據報導,當時Google內部有3個團隊投身於ASIC研發,包括Google Brain、DeepMind及專注資料中心客製化硬體開發的部門。後者的TPU最終獲選,其關鍵成員具備多年的晶片架構設計經驗。如Jonathan Ross曾參與AMD的Zen架構設計,後來創立AI晶片設計公司Groq。

谷歌團隊進展迅速,僅15個月就完成初代TPU設計、驗證、製造,甚至在資料中心的部署,專案領導者Norm Jouppi描述當時情景,「我們的晶片設計速度非常快,在沒有修正錯誤或更改光罩便開始出貨晶片。」

2016年,TPU迎來第一個突破,AI圍棋程式AlphaGo擊敗全球圍棋冠軍李世乭,引發人們對AI的廣泛關注。當時AlphaGo背後正是初代TPU在提供算力支持。

TPU目標成推理時代最省錢商業引擎

研發重大轉折則發生在2017年。這1年,Google團隊在《Attention Is All You Need》中介紹Transformer,—種基於注意力機制的全新深度學習架構,其運算特性與TPU設計高度適配,最終推動TPU的戰略地位從單一AI加速晶片升級為Google的AI基礎設施底座,值此背景下,TPU v2應運而生。

同樣在這1年,Google宣布免費開放1000 台Cloud TPU 供開發者和研究人員使用,進一步鞏固TPU 作為AI 基礎設施底座的地位。往後的日子裡,Google引進大規模液冷技術,將4096顆晶片組成超節點,並利用自研的環形拓撲網路實現近乎無損的跨晶片通訊。在各路「外掛」的加持下,TPU朝著更強的表現一路狂飆。

在科技之外,Google也將TPU引進廣告系統、搜尋核心排序等賺錢產品線。在2024年的應用開發與基礎設施高峰會上,Google公開表示,TPU v6及後續版本的目標是成為「推理時代最省錢的商業引擎」。

Google上周發表最新版AI模型Gemini 3,也讓其TPU成為外界關注焦點。法新社 zoomin
Google上周發表最新版AI模型Gemini 3,也讓其TPU成為外界關注焦點。法新社

谷歌打造AI晶片以成本為考量指標

往後的故事逐漸為人所知,隨著TPU v7被投入AI訓練,在最強多模態模型Gemini 3橫空出世,谷歌也搖身一變,從算力晶片領域的追隨者一躍成為AI有利競爭者,外界不免好奇,10多年來Google究竟做對了什麼?

回顧Google打造AI晶片故事,沒有通往通用人工智慧AGI的宏大願景,也沒有遵循Scaling Law(擴展定律)的絕對指引,而是始終緊扣一項更符合商業邏輯,也更顯務實的指標—成本。

科創板日報指出,如果深究,TPU的歷史可以追溯到2006年,那時Google便開始考慮為神經網路建構ASIC的可能性,只不過當時網路正處於爆發前夜,Google資料中心的GPU算力仍有大量冗餘,相關需求並不迫切,因此並未透支額外成本來實際推進這項計畫。

谷歌TPU對輝達的AI晶片霸主地位帶來威脅。翻攝輝達官網 zoomin
谷歌TPU對輝達的AI晶片霸主地位帶來威脅。翻攝輝達官網

谷歌垂直整合形成難以複製的生態護城河

這種「量體裁衣」的概念甚至展現在TPU的設計架構本身。與GPU不同,TPU採用極簡的「脈動陣列」架構,雖然付出放棄硬體通用性的代價,卻也意味著能夠剝離一切無關硬體,進而保證在最小單位追求深度學習的最大效率。

如今,這種設計架構顯然為Google帶來遠超過「節省成本」的回報,即與其他頂尖AI廠商一拚的實力。

更重要的意義在於,與其他廠商嚴重依賴外部算力和雲端設施不同,Google以TPU為底座的垂直整合路線,建構「晶片-雲-模型-應用」的全端AI能力鏈,形成難以複製的生態護城河,也贏得定義未來AI基礎設施的入場券。

下載知新聞APP

⭐️ 即刻下載《知新聞》App!免費!

# 谷歌 # TPU # 輝達 # GPU # Gemini 3 # AI晶片