萬字長文,騰訊、清華等多位生物大模型作者專訪,暢談AI生物學(xué),解析大型細(xì)胞模型技術(shù)
AIGC動(dòng)態(tài)歡迎閱讀
原標(biāo)題:萬字長文,騰訊、清華等多位生物大模型作者專訪,暢談AI生物學(xué),解析大型細(xì)胞模型技術(shù)
關(guān)鍵字:模型,數(shù)據(jù),基因,細(xì)胞,單細(xì)胞
文章來源:人工智能學(xué)家
內(nèi)容字?jǐn)?shù):0字
內(nèi)容摘要:
來源:ScienceAI
編輯:KX
大型語言模型(LLM)在自然語言處理和理解領(lǐng)域已取得重大突破。
在生物學(xué)領(lǐng)域,一些采用類似 LLM 結(jié)構(gòu)的大型細(xì)胞模型(Large Cellular Model,LCM)被開發(fā)用于單細(xì)胞轉(zhuǎn)錄組學(xué),比如:scBERT、Geneformer、scGPT、scFoundation 和 GeneCompass。
這些模型展示了 LCM 在各種生物任務(wù)中的應(yīng)用潛力,并說明了 LCM 徹底改變未來生物學(xué)研究的可能性。
大型細(xì)胞模型的示意圖。
近日,《Quantitative Biology》期刊采訪了一些最具影響力的 LCM 背后的有影響力的作者。例如:騰訊 AI Lab 楊帆和姚建華(scBERT)、加州大學(xué) Christina V. Theodoris(Geneformer)、多倫多大學(xué)王波(scGPT)、清華大學(xué)張學(xué)工(scFoundation)以及中國科學(xué)院李鑫和楊戈(GeneCompass)。
該評論文章詳細(xì)介紹了這些模型背后的總體框架和核心人工智能概念,并前瞻性地討論了這些模型如何與生物學(xué)知識(shí)有效結(jié)合。還討論了 LCM 研究和開發(fā)過程中面臨的關(guān)鍵挑
原文鏈接:萬字長文,騰訊、清華等多位生物大模型作者專訪,暢談AI生物學(xué),解析大型細(xì)胞模型技術(shù)
聯(lián)系作者
文章來源:人工智能學(xué)家
作者微信:
作者簡介: