AIGC動態歡迎閱讀
原標題:2.5天完成1年的MD計算?DeepMind團隊基于歐幾里得Transformer的新計算方法
關鍵字:模型,卷積,尺度,架構,原子
文章來源:人工智能學家
內容字數:0字
內容摘要:
將 ScienceAI設為星標
第一時間掌握
新鮮的 AI for Science 資訊編輯 | 蘿卜皮
近年來,基于從頭算參考計算的機器學習力場 (MLFF) 的開發取得了巨大進展。雖然實現了較低的測試誤差,但由于擔心在較長的模擬時間范圍內會出現不穩定性,MLFF 在分子動力學 (MD) 模擬中的可靠性正面臨越來越多的審查。
研究表明,對累積不準確性的穩健性與 MLFF 中使用等變表示之間存在潛在聯系,但與這些表示相關的計算成本可能會在實踐中限制這種優勢。
為了解決這個問題,Google DeepMind、柏林工業大學(TU Berlin)的研究人員提出了一種名為 SO3krates 的 transformer 架構,它將稀疏等變表示(歐幾里得變量)與分離不變和等變信息的自注意力機制相結合,從而無需昂貴的張量積。
SO3krates 實現了精確度、穩定性和速度的獨特組合,能夠對長時間和系統尺度上的物質量子特性進行深入分析。
該研究以「A Euclidean transformer for fast and stable machine learned force fields」為題,
原文鏈接:2.5天完成1年的MD計算?DeepMind團隊基于歐幾里得Transformer的新計算方法
聯系作者
文章來源:人工智能學家
作者微信:
作者簡介:
? 版權聲明
文章版權歸作者所有,未經允許請勿轉載。
相關文章
暫無評論...