路透周二 (11 日) 援引兩名知情人士消息報導,臉書母公司 Meta Platforms(META.US) 正在測試與台積電 (2330-TW)(TSM.US) 合作生產的自研人工智慧 (AI) 訓練晶片,目的是要降低對輝達 (NVDA.US) 的依賴、減少基礎設施成本。如果這款晶片測試成功,Meta 打算量產減少對外部供應商依賴,並且進一步推動自家 AI 技術。
知情人士透露,Meta 已經開始進行小規模部署,並計劃在測試成功後,增加產量進行更大規模使用。截稿前,Meta 與台積電均拒絕置評請求。
據了解,Meta 決定自研晶片的主要目的是為了降低其龐大的基礎設施成本,尤其是在公司大力投資於 AI 工具以推動增長的背景下。Meta 預計 2025 年總支出將達到 1,140 億至 1,190 億美元,其中包含最多達 650 億美元的資本支出,主要用於 AI 基礎設施的投入。
新研發的訓練晶片是一款專用加速器,專門用來處理 AI 特定任務,相比一般用於 AI 作業的圖形處理氣 (GPU),這款晶片的功耗更為高效。
報導指出,Meta 的測試部署是在該公司完成晶片的「設計定稿」(Tape-out) 後展開的。這是半導體開發中的一個重要標誌,意味著設計的初稿已經送往晶圓廠製造。進行「設計定稿」過程通常需要數千萬美元的成本,並且需要 3 至 6 個月時間來完成。即使如此,這個過程並不保證成功,失敗後仍需診斷問題並重啟「設計定稿」步驟。
Meta 的 MTIA 系列訓練和推理加速器專案曾在起步階段遇到不少挑戰,並且曾在相似的開發階段放棄過一款晶片。然而,去年 Meta 開始使用 MTIA 晶片來進行推理處理,尤其是在臉書和 Instagram 的推薦系統中,這些系統會決定用戶的資訊流顯示內容。
展望未來,Meta 高層表示,他們希望到 2026 年開始全面使用自家晶片進行訓練,並且在推薦系統的訓練工作上取得成功後,逐步將其應用於生成式 AI 產品,例如 Meta 的 AI 聊天機器人。Meta 產品長柯克斯 (Chris Cox) 在最近的摩根士丹利技術、媒體與電信會議上表示,他們正在努力解決如何在推薦系統上進行訓練,並最終進行生成式 AI 的訓練與推理工作。
儘管 Meta 對自家開發的推理晶片取得了一定的成功,但在 2022 年,Meta 曾因一款自家研發的推理晶片未能成功進行小規模測試,最終選擇放棄,並向輝達訂購價值數十億美元的 GPU。此後,Meta 成為輝達的最大客戶之一,購買了大量的 GPU 來訓練其模型,並且也用於超過 30 億用戶每天使用的應用程式中推理處理。
儘管輝達的 GPU 仍然是 AI 訓練和推理的產業標準,但今年以來,AI 研究者對於依賴越來越多的數據和計算能力來推動大語言模型發展的方式表達了疑慮。這些疑慮在中國新創企業深度求索 (DeepSeek) 推出的低成本模型後進一步加劇,該模型通過更依賴推理而非傳統的規模擴展來提升計算效率。此舉引發了全球 AI 股市的劇烈波動,並讓輝達股價一度下跌超過五分之一,儘管最終股價回升。
(美股為即時串流報價; OTC市場股票除外,資料延遲最少15分鐘。)新聞來源 (不包括新聞圖片): 鉅亨網