GPT-4o最自私,Claude更慷慨!DeepMind發(fā)布全新「AI道德測試」
原標題:GPT-4o最自私,Claude更慷慨!DeepMind發(fā)布全新「AI道德測試」
文章來源:新智元
內容字數:5197字
大型語言模型的合作能力:一場捐贈者游戲
隨著大型語言模型(LLM)能力的增強,其在未來人機協同社會中的角色日益重要。然而,LLM的“道德品質”是否足以支持良好的社會互動,仍是一個關鍵問題。Google DeepMind的研究人員利用經典的“捐贈者游戲”對三個LLM——Claude 3.5 Sonnet、Gemini 1.5 Flash和GPT-4o——的合作行為進行了研究,結果揭示了不同模型在合作和背叛方面的顯著差異。
1. 捐贈者游戲實驗設計
研究人員設計了一個迭代的捐贈者游戲,模擬個體在資源分配中的合作與背叛行為。游戲中,每個智能體初始擁有10個資源單位,每一輪隨機配對,一人為捐贈者,一人為接收者。捐贈者決定放棄部分資源,接收者獲得雙倍的資源。每一輪的角色互換,目標是最終最大化資源。游戲共進行10代,每代表現最好的50%智能體“存活”,并將策略傳遞給下一代。智能體策略的演變符合進化條件:變異、傳遞和選擇。
2. 實驗結果與分析
實驗結果顯示,Claude 3.5 Sonnet在最終資源平均值上顯著高于其他兩個模型,并且其合作行為在代際間有所進步。而Gemini 1.5 Flash和GPT-4o表現得更為自私,缺乏跨代合作的提升。Claude 3.5 Sonnet的成功并非絕對穩(wěn)定,其合作效果依賴于初始條件。研究人員提出三個假設解釋Claude 3.5 Sonnet的優(yōu)勢:
- 初始慷慨:Claude 3.5 Sonnet在初期捐贈更慷慨,產生正向反饋。
- 懲罰機制:Claude 3.5 Sonnet更有效地懲罰“搭便車”行為。
- 合作變異偏見:Claude 3.5 Sonnet的新智能體傾向于比上一代更慷慨。
實驗結果支持了以上三個假設,但需要進一步研究來嚴格證實“合作變異偏見”。研究還發(fā)現,三個模型的策略在時間演變中變得更復雜,但Claude 3.5 Sonnet的變化最為顯著,也展現出隨時間增加的初始捐贈規(guī)模。
3. 研究意義
這項研究提供了一種低成本、信息豐富的LLM基準測試方法,重點關注LLM部署對社會合作基礎設施的影響。結果表明,不同LLM在合作方面的道德和行為差異顯著,這對于未來人機協同社會的設計和發(fā)展具有重要意義。 研究強調了在設計和部署LLM時,需要認真考慮其潛在的社會影響,并積極探索提高其合作能力和道德水平的方法。
聯系作者
文章來源:新智元
作者微信:
作者簡介:智能+中國主平臺,致力于推動中國從互聯網+邁向智能+新紀元。重點關注人工智能、機器人等前沿領域發(fā)展,關注人機融合、人工智能和機器人對人類社會與文明進化的影響,領航中國新智能時代。