Nature:AI讓抄襲問題更加復雜,科學家該如何應(yīng)對?
AIGC動態(tài)歡迎閱讀
原標題:Nature:AI讓抄襲問題更加復雜,科學家該如何應(yīng)對?
關(guān)鍵字:政策,人工智能,工具,報告,文本
文章來源:新智元
內(nèi)容字數(shù):0字
內(nèi)容摘要:
新智元報道編輯:庸庸 喬楊
【新智元導讀】生成式人工智能在寫作中的性應(yīng)用讓抄襲變得難以界定,引發(fā)了學術(shù)圈的一場大討論。從哈佛大學校長因抄襲指控在1月份辭職,到2月份曝光的同行評審報告中存在抄襲,今年學術(shù)界因抄襲而動蕩不安。
但在學術(shù)寫作中,一個更大的問題迫在眉睫——
生成式人工智能工具的迅速普及引發(fā)了關(guān)于何種行為構(gòu)成抄襲,以及對AI工具什么程度的使用應(yīng)該被允許的問題。
版權(quán)和剽竊問題顧問Jonathan Bailey認為,「人工智能的使用范圍很廣,從完全由人類撰寫到完全由人工智能撰寫,這中間存在著一個巨大的混亂地帶」。
ChatGPT等生成式人工智能工具基于被稱為大語言模型 (LLM) 的方法,可以節(jié)省時間、提高清晰度并減少語言障礙。
現(xiàn)在,許多研究人員認為,在某些情況下可以允許這些工具的使用,并且應(yīng)當充分披露其使用情況。
但是,這些工具使本來就充滿爭議的關(guān)于不當使用他人作品的界定變得更加復雜。
LLM通過消化大量以前發(fā)表的文章來生成文本。因此,使用這些工具可能會類似于「剽竊」。
例如,研究人員將機器寫的東西冒充為自己的作品,或者機器生成的文本與其他人的作品非常接近,卻沒有注
原文鏈接:Nature:AI讓抄襲問題更加復雜,科學家該如何應(yīng)對?
聯(lián)系作者
文章來源:新智元
作者微信:
作者簡介:
? 版權(quán)聲明
文章版權(quán)歸作者所有,未經(jīng)允許請勿轉(zhuǎn)載。
相關(guān)文章
暫無評論...