推理AI模型熱潮或將降溫? 分析指一年內恐面臨發展瓶頸
【編譯黃惠瑜/綜合外電】近期各大人工智慧(AI)公司推出的推理模型,包括Google的Gemini 2.0 Flash Thinking、OpenAI的o1和o3-mini、IBM的Granite 3.2,以及中國大陸新創公司「深度求索」(DeepSeek)的R1模型,都使AI推理成為當前AI領域的熱門話題與重要發展方向。不過,根據最新調查結果,推理AI模型的進展最快可能在一年內就會減緩下來。

科技新聞網站TechCrunch周一(5/12)報導,非營利AI研究機構Epoch AI的分析顯示,AI產業可能無法在推理AI持續取得巨大的性能提升。該分析報告指出,預計在接下來的一年內,推理模型的進展速度可能會減緩,原因包括運算資源的限制、高額的研究管理費用以及推理AI自身的嚴重缺陷等。
最近幾個月,諸如OpenAI的o3等推理模型都在AI基準測試中取得顯著進展,尤其是衡量數學和程式設計技能的基準測試。這些推理模型可以在處理任務時投入更多運算資源,因此可以提高效能。但是,缺點是它們完成任務所需花費的時間比傳統的AI模型更長。
應用強化學習
開發推理模型首先需要針對大量的資料進行傳統模型的訓練,然後再傳統模型上應用一種稱為強化學習(reinforcement learning)的技術。
強化學習是一種機器學習的方法,模仿人類透過不斷嘗試錯誤來達成目標的學習過程。例如,人類學習騎腳踏車時, 可能會多次摔倒(有如得到懲罰),但最終找到平衡的方法(有如得到獎勵回饋)。這種機器學習技術可以有效的為AI模型提供解決相關問題的「回饋」。
OpenAI表示,在訓練o3模型上投入了比上一代o1模型多出10倍的運算資源。Epoch推測,這其中大部分的額外運算資源都是用於強化學習階段。
OpenAI研究員羅伯茨(Dan Roberts)最近透露,公司未來將更重視強化學習,計畫投入比初始模型訓練還要多的運算能力。
發展推理AI面臨的挑戰
然而,Epoch表示,應用於強化學習的運算資源仍有上限。
Epoch的分析師兼該報告作者尤什(Josh You)解釋,標準AI模型訓練帶來的性能提升目前每年成長4倍,但強化學習帶來的性能提升為每3至5個月成長10倍。他表示,預計到2026年左右,目前透過強化學習來提升的推理AI性能成長速度,將會和整個AI領域最先進技術的平均發展速度趨於相近。
Epoch的分析是基於多項假設,並且部分參考了AI公司高層的公開評論。Epoch也指出,除了運算資源的限制外,擴展推理AI模型可能還會面臨其他挑戰,包括高額的研究管理成本。
此外,有相關研究指出,推理模型的運作成本非常高,而且存在嚴重的缺陷,例如會比某些傳統模型更容易產生幻覺。
相關新聞:
黃仁勳駁DeepSeek低成本 揭R1模型為何需要「100倍以上運算能力」