收集30GB、近20萬對訓練樣本,復旦大學團隊發布UniFMIR:用AI突破顯微成像極限
AIGC動態歡迎閱讀
原標題:收集30GB、近20萬對訓練樣本,復旦大學團隊發布UniFMIR:用AI突破顯微成像極限
關鍵字:圖像,數據,各向同性,模型,任務
文章來源:HyperAI超神經
內容字數:9176字
內容摘要:
作者:梅菜
編輯:李寶珠,三羊
復旦大學計算機科學技術學院研究團隊,提出了跨任務、多維度圖像增強基礎 AI 模型 UniFMIR,實現了對現有熒光顯微成像極限的突破,并為熒光顯微鏡圖像增強提供了一個通用的解決方案。熒光顯微鏡是生命科學領域不可或缺的重要研究工具,其原理是以紫外線為光源, 照射被檢物體使之發出熒光, 然后在顯微鏡下觀察物體的形狀及其所在位置,可用于研究細胞內物質的吸收、運輸,化學物質的分布及定位等。
然而,激發光下的高強度曝露會通過光化學過程直接或間接對細胞造成影響。在長時間活細胞實驗中,最好能以最小的光曝露進行熒光觀察。但同時,較低的曝光會導致熒光信號較弱,降低圖像信噪比 (SNR),讓定量圖像分析難度增加。
因此,基于熒光顯微鏡的圖像恢復 (FMIR) 在生命科學領域受到了廣泛關注,它旨在從低信噪比的圖像中獲得高信噪比的圖像,有助于揭示重要的納米級成像信息。
目前,受益于人工智能技術的快速發展,許多基于深度學習的 FMIR 突破了熒光顯微鏡的物理極限,取得了重大進展,但主流模型仍存在泛化能力差、數據依賴性強等挑戰。
對此,來自復旦大學計算機科學技術學院的研究團隊在 N
原文鏈接:收集30GB、近20萬對訓練樣本,復旦大學團隊發布UniFMIR:用AI突破顯微成像極限
聯系作者
文章來源:HyperAI超神經
作者微信:HyperAI
作者簡介:解構技術先進性與普適性,解讀更前沿的 AIForScience 案例
? 版權聲明
文章版權歸作者所有,未經允許請勿轉載。
相關文章
暫無評論...