廣告

推理AI模型熱潮或將降溫? 分析指一年內恐面臨發展瓶頸

國際 寰宇要聞
2025/05/13 15:19
黃惠瑜 文章
分享 分享 連結 APP

【編譯黃惠瑜/綜合外電】近期各大人工智慧(AI)公司推出的推理模型,包括Google的Gemini 2.0 Flash Thinking、OpenAI的o1和o3-mini、IBM的Granite 3.2,以及中國大陸新創公司「深度求索」(DeepSeek)的R1模型,都使AI推理成為當前AI領域的熱門話題與重要發展方向。不過,根據最新調查結果,推理AI模型的進展最快可能在一年內就會減緩下來。

OpenAI近期推出的新款AI模型o3和o4-mini,能模仿人類的推理過程,處理複雜的數學和程式設計等任務。翻攝OpenAI官網 zoomin
OpenAI近期推出的新款AI模型o3和o4-mini,能模仿人類的推理過程,處理複雜的數學和程式設計等任務。翻攝OpenAI官網

科技新聞網站TechCrunch周一(5/12)報導,非營利AI研究機構Epoch AI的分析顯示,AI產業可能無法在推理AI持續取得巨大的性能提升。該分析報告指出,預計在接下來的一年內,推理模型的進展速度可能會減緩,原因包括運算資源的限制、高額的研究管理費用以及推理AI自身的嚴重缺陷等。

最近幾個月,諸如OpenAI的o3等推理模型都在AI基準測試中取得顯著進展,尤其是衡量數學和程式設計技能的基準測試。這些推理模型可以在處理任務時投入更多運算資源,因此可以提高效能。但是,缺點是它們完成任務所需花費的時間比傳統的AI模型更長。

應用強化學習

開發推理模型首先需要針對大量的資料進行傳統模型的訓練,然後再傳統模型上應用一種稱為強化學習(reinforcement learning)的技術。

強化學習是一種機器學習的方法,模仿人類透過不斷嘗試錯誤來達成目標的學習過程。例如,人類學習騎腳踏車時, 可能會多次摔倒(有如得到懲罰),但最終找到平衡的方法(有如得到獎勵回饋)。這種機器學習技術可以有效的為AI模型提供解決相關問題的「回饋」。

OpenAI表示,在訓練o3模型上投入了比上一代o1模型多出10倍的運算資源。Epoch推測,這其中大部分的額外運算資源都是用於強化學習階段。

OpenAI研究員羅伯茨(Dan Roberts)最近透露,公司未來將更重視強化學習,計畫投入比初始模型訓練還要多的運算能力。

發展推理AI面臨的挑戰

然而,Epoch表示,應用於強化學習的運算資源仍有上限。

Epoch的分析師兼該報告作者尤什(Josh You)解釋,標準AI模型訓練帶來的性能提升目前每年成長4倍,但強化學習帶來的性能提升為每3至5個月成長10倍。他表示,預計到2026年左右,目前透過強化學習來提升的推理AI性能成長速度,將會和整個AI領域最先進技術的平均發展速度趨於相近。

Epoch的分析是基於多項假設,並且部分參考了AI公司高層的公開評論。Epoch也指出,除了運算資源的限制外,擴展推理AI模型可能還會面臨其他挑戰,包括高額的研究管理成本。

此外,有相關研究指出,推理模型的運作成本非常高,而且存在嚴重的缺陷,例如會比某些傳統模型更容易產生幻覺。

相關新聞:

黃仁勳駁DeepSeek低成本 揭R1模型為何需要「100倍以上運算能力」

小辭典|AI世代必看 速讀10大關鍵字掌握未來

大小AI背後的語言模型 一文看懂LLM與SLM差異

下載知新聞APP

⭐️ 即刻下載《知新聞》App!免費!

# AI # 人工智慧 # 推理AI # 強化學習