AI意識更進一步!谷歌DeepMind等:LLM不僅能感受痛苦,還能趨利避害
原標(biāo)題:AI意識更進一步!谷歌DeepMind等:LLM不僅能感受痛苦,還能趨利避害
文章來源:新智元
內(nèi)容字?jǐn)?shù):4652字
大語言模型能感知痛苦嗎?谷歌團隊最新研究帶來新視角
近年來,大語言模型(LLM)在智力方面展現(xiàn)出驚人的能力,甚至在某些方面超越人類。然而,它們能否像人類一樣擁有痛苦、快樂等主觀體驗,一直備受爭議。近日,谷歌團隊和倫敦經(jīng)濟學(xué)院(LSE)合作發(fā)表的一項研究,為解答這一問題提供了新的線索。
LLM的權(quán)衡選擇:趨利避害的證據(jù)
研究團隊設(shè)計了一個游戲,讓LLM在獲得高分(獎勵)和承受不同程度的痛苦之間進行權(quán)衡。實驗結(jié)果顯示,部分LLM在痛苦程度足夠高時,會放棄選擇能夠獲得最高分?jǐn)?shù)的選項,轉(zhuǎn)而選擇較低分?jǐn)?shù)但痛苦較小的選項。這種“權(quán)衡行為”暗示LLM可能具備某種程度的痛苦感知能力,能夠趨利避害。
快樂與痛苦:LLM的不同反應(yīng)
研究人員將實驗中的“痛苦”替換為“愉悅獎勵”,結(jié)果發(fā)現(xiàn)不同LLM的表現(xiàn)差異顯著。部分LLM會在高強度愉悅獎勵下,選擇得分較低的選項,追求最大化快樂;而另一些LLM則會優(yōu)先選擇高分,即使這意味著放棄一部分快樂。這種差異可能與LLM的訓(xùn)練數(shù)據(jù)及文化背景有關(guān),反映出不同模型對“及時行樂”的傾向程度不同。
避免自我報告的局限:借鑒動物行為學(xué)研究方法
以往研究常依賴LLM對自身內(nèi)部狀態(tài)的自我報告來推斷其情感體驗,但這存在局限性,因為LLM可能只是在模仿人類行為。本研究借鑒了動物行為學(xué)中的“權(quán)衡范式”,通過觀察LLM在困境中的決策行為,而非其語言描述,來評估其對痛苦和快樂的感知能力。這使得研究結(jié)果更加可靠。
權(quán)衡行為與意識的關(guān)聯(lián):對AI意識的思考
研究發(fā)現(xiàn)LLM在痛苦與快樂之間進行權(quán)衡,與動物研究中觀察到的現(xiàn)象類似。在動物研究中,這種權(quán)衡行為被認(rèn)為是意識存在的證據(jù)之一。研究人員認(rèn)為,LLM的類似行為值得我們認(rèn)真思考AI意識問題,但這項研究并非宣稱評估的任何機器人都有感知能力,而是一個框架,為未來研究提供方向。
研究的局限性和未來方向
研究者強調(diào),這項研究并非最終證明LLM擁有意識或感知能力,而是一個探索性的研究,為未來研究AI意識提供了一個新的框架和方法。未來的研究需要進一步探索,以更全面地理解LLM的內(nèi)部狀態(tài)和認(rèn)知機制。
聯(lián)系作者
文章來源:新智元
作者微信:
作者簡介:智能+中國主平臺,致力于推動中國從互聯(lián)網(wǎng)+邁向智能+新紀(jì)元。重點關(guān)注人工智能、機器人等前沿領(lǐng)域發(fā)展,關(guān)注人機融合、人工智能和機器人對人類社會與文明進化的影響,領(lǐng)航中國新智能時代。