AIGC動態歡迎閱讀
原標題:多功能RNA分析,百度團隊基于Transformer的RNA語言模型登Nature子刊
關鍵字:序列,模型,任務,類型,下游
文章來源:機器之心
內容字數:5260字
內容摘要:
將 ScienceAI設為星標
第一時間掌握
新鮮的 AI for Science 資訊編輯 | 蘿卜芯
預訓練語言模型在分析核苷酸序列方面顯示出了良好的前景,但使用單個預訓練權重集在不同任務中表現出色的多功能模型仍然存在挑戰。
百度大數據實驗室(Big Data Lab,BDL)和上海交通大學團隊開發了 RNAErnie,一種基于 Transformer 架構,以 RNA 為中心的預訓練模型。
研究人員用七個數據集和五個任務評估了模型,證明了 RNAErnie 在監督和無監督學習方面的優越性。
RNAErnie 超越了基線,分類準確率提高了 1.8%,交互預測準確率提高了 2.2%,結構預測 F1 得分提高了 3.3%,展現了它的穩健性和適應性。
該研究以「Multi-purpose RNA language modelling with motif-aware pretraining and type-guided fine-tuning」為題,于 2024 年 5 月 13 日發布在《Nature Machine Intelligence》。
RNA 在分子生物學的中心法則中扮演
原文鏈接:多功能RNA分析,百度團隊基于Transformer的RNA語言模型登Nature子刊
聯系作者
文章來源:機器之心
作者微信:almosthuman2014
作者簡介:專業的人工智能媒體和產業服務平臺
? 版權聲明
文章版權歸作者所有,未經允許請勿轉載。
相關文章
暫無評論...