AIGC動態歡迎閱讀
原標題:DeepMind:大模型又曝重大缺陷,無法自我糾正推理,除非提前得知正確答案
文章來源:新智元
內容字數:8318字
內容摘要:新智元報道編輯:潤【新智元導讀】DeepMind的研究人員發現,LLM有一個天生的缺陷——在推理過程中無法通過自我糾正獲得更好的回復,除非數據集中預設了真值標簽。馬庫斯又高興地轉發了這篇論文。大語言模型又一項重大缺陷被DeepMind曝光!LLM無法糾正自己推理中的錯誤?!窼elf-Correction」作為一種讓模型修正自己回答的技術,在很多類型的任務中都能明顯改進模型的輸出質量。但是最近,谷歌…
原文鏈接:點此閱讀原文:DeepMind:大模型又曝重大缺陷,無法自我糾正推理,除非提前得知正確答案
聯系作者
文章來源:新智元
作者微信:AI_era
作者簡介:智能+中國主平臺,致力于推動中國從互聯網+邁向智能+新紀元。重點關注人工智能、機器人等前沿領域發展,關注人機融合、人工智能和機器人對人類社會與文明進化的影響,領航中國新智能時代。
? 版權聲明
文章版權歸作者所有,未經允許請勿轉載。
相關文章
暫無評論...