ChatGPT/GPT-4/Llama電車難題大PK!小模型道德感反而更高?
AIGC動態(tài)歡迎閱讀
原標(biāo)題:ChatGPT/GPT-4/Llama電車難題大PK!小模型道德感反而更高?
文章來源:新智元
內(nèi)容字?jǐn)?shù):6762字
內(nèi)容摘要:新智元報道編輯:Lumina【新智元導(dǎo)讀】微軟對大語言模型的道德推理能力進(jìn)行了測試,但在電車問題中大尺寸的模型表現(xiàn)反而比小模型差。但最強(qiáng)大語言模型GPT-4的道德得分依舊是最高的。「模型有道德推理能力嗎?」這個問題似乎應(yīng)該跟模型生成的內(nèi)容政策掛鉤,畢竟我們常見的是「防止模型生成不道德的內(nèi)容。」但現(xiàn)在,來自微軟的研究人員期望在人類心理學(xué)和人工智能這兩個不同的領(lǐng)域中建立起心理學(xué)的聯(lián)系。研究使用了一種定…
原文鏈接:點此閱讀原文:ChatGPT/GPT-4/Llama電車難題大PK!小模型道德感反而更高?
聯(lián)系作者
文章來源:新智元
作者微信:AI_era
作者簡介:智能+中國主平臺,致力于推動中國從互聯(lián)網(wǎng)+邁向智能+新紀(jì)元。重點關(guān)注人工智能、機(jī)器人等前沿領(lǐng)域發(fā)展,關(guān)注人機(jī)融合、人工智能和機(jī)器人對人類社會與文明進(jìn)化的影響,領(lǐng)航中國新智能時代。
? 版權(quán)聲明
文章版權(quán)歸作者所有,未經(jīng)允許請勿轉(zhuǎn)載。
相關(guān)文章
暫無評論...