原標題:Anthropic聯創:Scaling Law沒崩,但推理成天價!有了TTT,25年AI更加速
文章來源:新智元
內容字數:5825字
AI發展并未停滯:規模法則(Scaling Law)的未來與挑戰
近日,Anthropic聯合創始人Jack Clark在《Import AI》新聞通訊中駁斥了AI發展已觸及瓶頸的觀點,并預測2025年AI進展將進一步加速。他認為,當前的AI發展遠未達到極限,規模法則并未失效。
規模法則的延續:超越單純的模型擴大
Clark以OpenAI的o系列模型為例,特別是o3模型,證明了AI的巨大發展空間。o3并非簡單地擴大模型規模,而是通過“測試時計算”(test-time compute),即在推理時進行強化學習和額外計算,從而實現顯著性能提升。這種“邊思考邊執行”的能力為規模法則開辟了新的可能性。Clark預計,2025年科技公司將結合傳統的大模型擴展方法和測試時計算等新方法,進一步加速AI進展。
o3模型的驚艷表現與高昂成本
o3在多個基準測試中取得了突破性進展,例如在科學理解基準GPQA上達到88%,在ARC-AGI上超越人類工作者,在FrontierMath上達到25%的成績,以及在Codeforces上排名第175。這些成就證明了測試時計算的有效性。然而,o3的成功也伴隨著高昂的成本:其高強度推理版本的每個任務成本高達20美元,這主要源于其實時創建新程序解決問題的機制,需要處理大量的token。
成本預測的挑戰與Anthropic的下一步
Clark指出,基于推理擴展范式的模型使得成本預測變得更加困難,因為資源需求會根據具體任務而變化。 雖然o3展現了強大的性能,但其高昂的運行成本也引發了人們對未來AI發展成本的擔憂。目前,Anthropic尚未發布與OpenAI o系列或Google Gemini Flash Thinking競爭的推理模型,其Opus 3.5模型的發布也存在不確定性,這反映了開發先進LLM的復雜性和挑戰。
開發先進LLM的復雜性
Anthropic CEO Dario Amodei解釋了開發先進LLM的復雜性,包括漫長的訓練過程、大量的計算資源需求、復雜的微調過程以及嚴格的安全測試等。他認為,開發先進LLM更像是一門藝術,而非單純的科學,每個新版本模型的性能和特性都可能出現不可預測的變化。即使Opus 3.5最終發布,其高昂的運行成本是否合理仍需進一步考量。
總而言之,Clark的觀點認為AI發展遠未觸及瓶頸,規模法則仍在發揮作用,但新的方法,如測試時計算,將成為未來AI發展的關鍵。然而,高昂的計算成本將成為未來AI發展的主要挑戰,需要進一步的研究和創新來解決。
聯系作者
文章來源:新智元
作者微信:
作者簡介:智能+中國主平臺,致力于推動中國從互聯網+邁向智能+新紀元。重點關注人工智能、機器人等前沿領域發展,關注人機融合、人工智能和機器人對人類社會與文明進化的影響,領航中國新智能時代。