Nature:AI讓抄襲問題更加復雜,科學家該如何應對?
AIGC動態(tài)歡迎閱讀
原標題:Nature:AI讓抄襲問題更加復雜,科學家該如何應對?
關鍵字:政策,人工智能,工具,報告,文本
文章來源:新智元
內容字數:0字
內容摘要:
新智元報道編輯:庸庸 喬楊
【新智元導讀】生成式人工智能在寫作中的性應用讓抄襲變得難以界定,引發(fā)了學術圈的一場大討論。從哈佛大學校長因抄襲指控在1月份辭職,到2月份曝光的同行評審報告中存在抄襲,今年學術界因抄襲而動蕩不安。
但在學術寫作中,一個更大的問題迫在眉睫——
生成式人工智能工具的迅速普及引發(fā)了關于何種行為構成抄襲,以及對AI工具什么程度的使用應該被允許的問題。
版權和剽竊問題顧問Jonathan Bailey認為,「人工智能的使用范圍很廣,從完全由人類撰寫到完全由人工智能撰寫,這中間存在著一個巨大的混亂地帶」。
ChatGPT等生成式人工智能工具基于被稱為大語言模型 (LLM) 的方法,可以節(jié)省時間、提高清晰度并減少語言障礙。
現在,許多研究人員認為,在某些情況下可以允許這些工具的使用,并且應當充分披露其使用情況。
但是,這些工具使本來就充滿爭議的關于不當使用他人作品的界定變得更加復雜。
LLM通過消化大量以前發(fā)表的文章來生成文本。因此,使用這些工具可能會類似于「剽竊」。
例如,研究人員將機器寫的東西冒充為自己的作品,或者機器生成的文本與其他人的作品非常接近,卻沒有注
原文鏈接:Nature:AI讓抄襲問題更加復雜,科學家該如何應對?
聯(lián)系作者
文章來源:新智元
作者微信:
作者簡介:
? 版權聲明
文章版權歸作者所有,未經允許請勿轉載。
相關文章
暫無評論...