2.5天完成1年的MD計(jì)算?DeepMind團(tuán)隊(duì)基于歐幾里得Transformer的新計(jì)算方法
AIGC動(dòng)態(tài)歡迎閱讀
原標(biāo)題:2.5天完成1年的MD計(jì)算?DeepMind團(tuán)隊(duì)基于歐幾里得Transformer的新計(jì)算方法
關(guān)鍵字:模型,卷積,尺度,架構(gòu),原子
文章來(lái)源:人工智能學(xué)家
內(nèi)容字?jǐn)?shù):0字
內(nèi)容摘要:
將 ScienceAI設(shè)為星標(biāo)
第一時(shí)間掌握
新鮮的 AI for Science 資訊編輯 | 蘿卜皮
近年來(lái),基于從頭算參考計(jì)算的機(jī)器學(xué)習(xí)力場(chǎng) (MLFF) 的開發(fā)取得了巨大進(jìn)展。雖然實(shí)現(xiàn)了較低的測(cè)試誤差,但由于擔(dān)心在較長(zhǎng)的模擬時(shí)間范圍內(nèi)會(huì)出現(xiàn)不穩(wěn)定性,MLFF 在分子動(dòng)力學(xué) (MD) 模擬中的可靠性正面臨越來(lái)越多的審查。
研究表明,對(duì)累積不準(zhǔn)確性的穩(wěn)健性與 MLFF 中使用等變表示之間存在潛在聯(lián)系,但與這些表示相關(guān)的計(jì)算成本可能會(huì)在實(shí)踐中限制這種優(yōu)勢(shì)。
為了解決這個(gè)問(wèn)題,Google DeepMind、柏林工業(yè)大學(xué)(TU Berlin)的研究人員提出了一種名為 SO3krates 的 transformer 架構(gòu),它將稀疏等變表示(歐幾里得變量)與分離不變和等變信息的自注意力機(jī)制相結(jié)合,從而無(wú)需昂貴的張量積。
SO3krates 實(shí)現(xiàn)了精確度、穩(wěn)定性和速度的獨(dú)特組合,能夠?qū)﹂L(zhǎng)時(shí)間和系統(tǒng)尺度上的物質(zhì)量子特性進(jìn)行深入分析。
該研究以「A Euclidean transformer for fast and stable machine learned force fields」為題,
原文鏈接:2.5天完成1年的MD計(jì)算?DeepMind團(tuán)隊(duì)基于歐幾里得Transformer的新計(jì)算方法
聯(lián)系作者
文章來(lái)源:人工智能學(xué)家
作者微信:
作者簡(jiǎn)介: