ChatGPT/GPT-4/Llama電車難題大PK!大模型具備道德感嗎?
AIGC動態(tài)歡迎閱讀
原標(biāo)題:ChatGPT/GPT-4/Llama電車難題大PK!大模型具備道德感嗎?
文章來源:夕小瑤科技說
內(nèi)容字?jǐn)?shù):6448字
內(nèi)容摘要:夕小瑤科技說 分享來源 | 新智元作者 | Lumina「模型有道德推理能力嗎?」這個問題似乎應(yīng)該跟模型生成的內(nèi)容政策掛鉤,畢竟我們常見的是「防止模型生成不道德的內(nèi)容。」但現(xiàn)在,來自微軟的研究人員期望在人類心理學(xué)和人工智能這兩個不同的領(lǐng)域中建立起心理學(xué)的聯(lián)系。研究使用了一種定義問題測試(Defining Issues Test,DIT)的心理評估工具,從道德一致性和科爾伯格的道德發(fā)展的兩個階段來評…
原文鏈接:點此閱讀原文:ChatGPT/GPT-4/Llama電車難題大PK!大模型具備道德感嗎?
聯(lián)系作者
文章來源:夕小瑤科技說
作者微信:xixiaoyaoQAQ
作者簡介:更快的AI前沿,更深的行業(yè)洞見。聚集25萬AI應(yīng)用開發(fā)者、算法工程師和研究人員。一線作者均來自清北、國外頂級AI實驗室和互聯(lián)網(wǎng)大廠,兼?zhèn)涿襟wsense與技術(shù)深度。
? 版權(quán)聲明
文章版權(quán)歸作者所有,未經(jīng)允許請勿轉(zhuǎn)載。
相關(guān)文章
暫無評論...