AIGC動態歡迎閱讀
原標題:吳恩達團隊新作:多模態多樣本上下文學習,無需微調快速適應新任務
關鍵字:上下文,示例,模型,性能,數據
文章來源:機器之心
內容字數:0字
內容摘要:
AIxiv專欄是機器之心發布學術、技術內容的欄目。過去數年,機器之心AIxiv專欄接收報道了2000多篇內容,覆蓋全球各大高校與企業的頂級實驗室,有效促進了學術交流與傳播。如果您有優秀的工作想要分享,歡迎投稿或者聯系報道。投稿郵箱:liyazhou@jiqizhixin.com;zhaoyunfeng@jiqizhixin.com本研究評估了先進多模態基礎模型在 10 個數據集上的多樣本上下文學習,揭示了持續的性能提升。批量查詢顯著降低了每個示例的延遲和推理成本而不犧牲性能。這些發現表明:利用大量演示示例可以快速適應新任務和新領域,而無需傳統的微調。論文地址:https://arxiv.org/abs/2405.09798
代碼地址:https://github.com/stanfordmlgroup/ManyICL
背景介紹
在近期的多模態基礎模型(Multimodal Foundation Model)研究中,上下文學習(In-Context Learning, ICL)已被證明是提高模型性能的有效方法之一。
然而,受限于基礎模型的上下文長度,尤其是對于需要大量視覺 token 來
原文鏈接:吳恩達團隊新作:多模態多樣本上下文學習,無需微調快速適應新任務
聯系作者
文章來源:機器之心
作者微信:almosthuman2014
作者簡介:專業的人工智能媒體和產業服務平臺
? 版權聲明
文章版權歸作者所有,未經允許請勿轉載。
相關文章
暫無評論...