OpenAI推出GPT-4.5:最強(qiáng)知識(shí)型模型,“AI味”、幻覺(jué)大幅減少
原標(biāo)題:OpenAI推出GPT-4.5:最強(qiáng)知識(shí)型模型,“AI味”、幻覺(jué)大幅減少
文章來(lái)源:人工智能學(xué)家
內(nèi)容字?jǐn)?shù):10912字
OpenAI發(fā)布GPT-4.5:知識(shí)儲(chǔ)備更豐富,對(duì)話更自然
本文總結(jié)了騰訊科技2月28日?qǐng)?bào)道的OpenAI發(fā)布GPT-4.5的消息,該模型被譽(yù)為“迄今為止知識(shí)儲(chǔ)備最豐富”的AI系統(tǒng)。
GPT-4.5的發(fā)布與特性
OpenAI正式發(fā)布了其最新旗艦語(yǔ)言模型GPT-4.5,并率先面向Pro用戶(hù)和開(kāi)發(fā)者開(kāi)放研究預(yù)覽。該模型并非前沿架構(gòu)版本,但在知識(shí)儲(chǔ)備方面有所突破。GPT-4.5可以訪問(wèn)最新信息,支持搜索、文件和圖像上傳,并能通過(guò)畫(huà)布進(jìn)行寫(xiě)作和代碼編輯。目前不支持ChatGPT中的多模態(tài)功能,如語(yǔ)音模式、視頻和屏幕共享。它已在Chat Completions API、Assistants API和Batch API中向所有付費(fèi)用戶(hù)層級(jí)的開(kāi)發(fā)者預(yù)覽,并支持函數(shù)調(diào)用、結(jié)構(gòu)化輸出、流式傳輸和系統(tǒng)消息等關(guān)鍵功能,還通過(guò)圖像輸入支持視覺(jué)能力。
GPT-4.5的性能提升
GPT-4.5在預(yù)訓(xùn)練和后期訓(xùn)練方面取得重大突破,通過(guò)擴(kuò)大無(wú)監(jiān)督學(xué)習(xí)的規(guī)模,提高了識(shí)別模式、建立聯(lián)系以及生成創(chuàng)造性見(jiàn)解的能力,且無(wú)需直接推理。早期測(cè)試顯示,用戶(hù)與GPT-4.5互動(dòng)時(shí)感覺(jué)更加自然,其更廣泛的知識(shí)庫(kù)、對(duì)用戶(hù)意圖的改進(jìn)理解以及更高的“情商”(EQ)使其在提高寫(xiě)作、編程和解決實(shí)際問(wèn)題等任務(wù)中表現(xiàn)出色。同時(shí),OpenAI預(yù)期GPT-4.5的虛構(gòu)信息將更少,甚至略低于其o1模型。在SimpleQA(簡(jiǎn)單問(wèn)答)測(cè)試中,GPT-4.5在準(zhǔn)確性和虛構(gòu)信息率方面均表現(xiàn)優(yōu)異。
GPT-4.5與其他模型的對(duì)比
與OpenAI的o1和o3-mini等推理模型相比,GPT-4.5更側(cè)重于無(wú)監(jiān)督學(xué)習(xí),這使其在知識(shí)廣度和對(duì)話自然度方面更勝一籌。OpenAI認(rèn)為,推理能力將是未來(lái)模型的核心能力,而預(yù)訓(xùn)練和推理這兩種擴(kuò)展方法將相互補(bǔ)充。GPT-4.5的回答更像是一個(gè)正常人,減少了以往AI模型的“AI味”。
GPT-4.5的安全性
模型能力的提升也帶來(lái)了安全性的提高。GPT-4.5采用了新的監(jiān)督訓(xùn)練技術(shù),結(jié)合了傳統(tǒng)的監(jiān)督微調(diào)(SFT)和人類(lèi)反饋強(qiáng)化學(xué)習(xí)(RLHF)方法,并進(jìn)行了嚴(yán)格的安全測(cè)試。
未來(lái)規(guī)劃
OpenAI計(jì)劃在5月底前推出GPT-5,該模型將整合OpenAI眾多技術(shù),包括o3推理模型,目標(biāo)是打造一個(gè)更強(qiáng)大的模型,最終被視為通用人工智能(AGI)。
總而言之,GPT-4.5在知識(shí)儲(chǔ)備、對(duì)話自然度和安全性方面都有顯著提升,標(biāo)志著大型語(yǔ)言模型發(fā)展的重要一步。其更注重?zé)o監(jiān)督學(xué)習(xí)的策略,也為未來(lái)AI模型的發(fā)展方向提供了新的思路。
聯(lián)系作者
文章來(lái)源:人工智能學(xué)家
作者微信:
作者簡(jiǎn)介:致力成為權(quán)威的人工智能科技媒體和前沿科技研究機(jī)構(gòu)