原標題:會用AI才能多文,LLM助力科研效率提升!新研究登Nature子刊
文章來源:新智元
內容字數:4034字
大模型在學術研究中的應用:一項基于醫學研究者的調查
Nature子刊近日發表的一項研究,對226名醫學相關研究者(來自59個國家,65個專業)進行了調查,以評估全球研究人員對大模型的認知水平及使用情況。該研究揭示了大模型在學術寫作中的應用現狀、挑戰以及未來發展趨勢。
1. 大模型的認知和使用現狀
調查顯示,87.6%的受訪者此前知道大模型,其中33.3%和30.8%的受訪者分別對大模型有“一定程度”和“較深程度”的了解。了解大模型的受訪者發表的論文數量顯著多于不了解的受訪者,這與之前的研究結果一致,表明大模型的熟悉程度和使用與學術產出率正相關。
然而,盡管大多數受訪者了解大模型,但實際使用率卻相對較低。只有18.7%的受訪者之前使用過大模型,主要用于糾正語法和格式錯誤(64.9%)、寫作(45.9%)和修訂編輯(45.9%)。高達81.3%的受訪者表示從未在研究項目或論文中使用過大模型,這與其他一些研究結果存在差異,可能與研究人員隱瞞AI工具使用情況有關。
2. 大模型對學術研究各階段的影響預期
受訪者普遍認為大模型將對學術研究的各個階段產生影響,尤其是在語法錯誤和格式校正(66.3%)、修訂和編輯(57.2%)以及寫作(57.2%)方面。但方(74.3%)、期刊選擇(73.3%)和研究觀點(71.1%)等方面則被認為影響較小,這反映了人們對AI在批判性思維、研究設計和期刊選擇方面的擔憂。
大多數受訪者(50.8%)認為大模型將對學術界帶來積極影響,但也有相當一部分人(32.6%)表示不確定。雖然大多數受訪者(58.1%)認為期刊應允許在出版中使用AI工具,但絕大多數(78.3%)也認為應制定相應的規定,例如修改期刊政策、增加檢測大模型使用的工具。
3. 大模型應用的挑戰和擔憂
調查也揭示了受訪者在使用大模型時遇到的挑戰和擔憂。14%的受訪者表示對大模型存在不確定感或缺乏經驗,8%的受訪者則表達了道德方面的擔憂,例如潛在的歧視、隱私泄露和剽竊問題。擁有10年以上研究經驗的參與者對AI工具的態度相對積極,更支持在監管條件下使用。
4. 研究結論與展望
這項研究表明,大模型在學術研究中的應用仍處于早期階段,其應用范圍將逐漸擴展到更具批判性和創造性的研究階段。雖然大模型可以幫助研究人員節省時間,但同時也需要考慮用于檢查LLM文本真實性的額外時間成本。未來,需要制定相應的規范和倫理準則,以確保AI工具在科研中的有序和負責任的使用。
聯系作者
文章來源:新智元
作者微信:
作者簡介:智能+中國主平臺,致力于推動中國從互聯網+邁向智能+新紀元。重點關注人工智能、機器人等前沿領域發展,關注人機融合、人工智能和機器人對人類社會與文明進化的影響,領航中國新智能時代。