AIGC動態歡迎閱讀
原標題:LLM會寫代碼≠推理+規劃!AAAI主席揭秘:代碼數據質量太高|LeCun力贊
關鍵字:代碼,模型,質量,能力,自然語言
文章來源:新智元
內容字數:9496字
內容摘要:
新智元報道編輯:LRS
【新智元導讀】亞利桑那州立大學教授揭秘代碼生成質量高的原因:語言模型是一個近似檢索器,GitHub代碼質量高,而文本數據中價值觀沖突太多,僅此而已!自從ChatGPT發布后,各種基于大模型的產品也快速融入了普通人的生活中,但即便非AI從業者在使用過幾次后也可以發現,大模型經常會胡編亂造,生成錯誤的事實。
不過對于程序員來說,把GPT-4等大模型當作「代碼輔助生成工具」來用的效果明顯要比「事實檢索工具」要好用很多,因為代碼生成往往會涉及到復雜的邏輯分析等,所以也有人將這種推理(廣義規劃)能力歸因于大型語言模型(LLM)的涌現。
學術界也一直在就「LLM能否推理」這個問題爭論不休。最近,計算機科學家、亞利桑那州立大學教授Subbarao Kambhampati(Rao)以「LLM真的能推理和規劃嗎?」(Can LLMs Really Reason & Plan?)為題,全面總結了語言模型在推理和規劃方面的研究成果,其中也談到了LLM的代碼生成與推理能力的關聯。視頻鏈接:https://www.youtube.com/watch?v=uTXXYi75QCU
PPT鏈
原文鏈接:LLM會寫代碼≠推理+規劃!AAAI主席揭秘:代碼數據質量太高|LeCun力贊
聯系作者
文章來源:新智元
作者微信:AI_era
作者簡介:智能+中國主平臺,致力于推動中國從互聯網+邁向智能+新紀元。重點關注人工智能、機器人等前沿領域發展,關注人機融合、人工智能和機器人對人類社會與文明進化的影響,領航中國新智能時代。
? 版權聲明
文章版權歸作者所有,未經允許請勿轉載。
相關文章
暫無評論...