BrainGPT:超越神經科學家的GPT
AIGC動態(tài)歡迎閱讀
原標題:BrainGPT:超越神經科學家的GPT
關鍵字:神經,模型,科學,研究者,人類
文章來源:大數(shù)據(jù)文摘
內容字數(shù):12311字
內容摘要:
大數(shù)據(jù)文摘授權轉載自追問nextquestion
面對科研工作中海量的科學文獻,科研人員常常感到不勝其擾。一方面,隨著文獻數(shù)量的指數(shù)級增長,人們難免會擔心是否有顛覆性的發(fā)現(xiàn)未能引起足夠的注意;另一方面,處理和整合這樣大體量的發(fā)現(xiàn)已經超出了人類的能力范圍。積累和整合知識,這一對科研工作者至關重要的能力,似乎只能通過數(shù)十年的經驗積累才能達到。隨著大語言模型(LLM)的流行,它是否能為我們找到打破這一困境的新路徑?
人工智能與人類科學家之間的“互幫互助”其實早有淵源,在蛋白質折疊、藥物研發(fā)和材料科學等領域,早就將機器學習算法用于研究中,這些研究背后的邏輯便是運用人工智能強大的計算與挖掘信息的能力來開發(fā)新的結構。那為何不將這種數(shù)據(jù)驅動的模式與規(guī)律學習能力用于建立針對科研文獻的通用網絡呢?
近日,在arxiv公開的一項工作便考慮了這種可能,通過在科研文獻的通用文本數(shù)據(jù)集上訓練LLM,讓它們能夠預測實驗結果,測試了人類與LLM完成這一任務的能力對比、并最終建立了一個專門助力神經科學科研的BrainGPT。?Luo, Xiaoliang, et al. “Large language models
原文鏈接:BrainGPT:超越神經科學家的GPT
聯(lián)系作者
文章來源:大數(shù)據(jù)文摘
作者微信:BigDataDigest
作者簡介:普及數(shù)據(jù)思維,傳播數(shù)據(jù)文化
? 版權聲明
文章版權歸作者所有,未經允許請勿轉載。
相關文章
暫無評論...