吳恩達(dá)團(tuán)隊新作:多模態(tài)多樣本上下文學(xué)習(xí),無需微調(diào)快速適應(yīng)新任務(wù)
AIGC動態(tài)歡迎閱讀
原標(biāo)題:吳恩達(dá)團(tuán)隊新作:多模態(tài)多樣本上下文學(xué)習(xí),無需微調(diào)快速適應(yīng)新任務(wù)
關(guān)鍵字:上下文,示例,模型,性能,數(shù)據(jù)
文章來源:機(jī)器之心
內(nèi)容字?jǐn)?shù):0字
內(nèi)容摘要:
AIxiv專欄是機(jī)器之心發(fā)布學(xué)術(shù)、技術(shù)內(nèi)容的欄目。過去數(shù)年,機(jī)器之心AIxiv專欄接收報道了2000多篇內(nèi)容,覆蓋全球各大高校與企業(yè)的頂級實驗室,有效促進(jìn)了學(xué)術(shù)交流與傳播。如果您有優(yōu)秀的工作想要分享,歡迎投稿或者聯(lián)系報道。投稿郵箱:liyazhou@jiqizhixin.com;zhaoyunfeng@jiqizhixin.com本研究評估了先進(jìn)多模態(tài)基礎(chǔ)模型在 10 個數(shù)據(jù)集上的多樣本上下文學(xué)習(xí),揭示了持續(xù)的性能提升。批量查詢顯著降低了每個示例的延遲和推理成本而不犧牲性能。這些發(fā)現(xiàn)表明:利用大量演示示例可以快速適應(yīng)新任務(wù)和新領(lǐng)域,而無需傳統(tǒng)的微調(diào)。論文地址:https://arxiv.org/abs/2405.09798
代碼地址:https://github.com/stanfordmlgroup/ManyICL
背景介紹
在近期的多模態(tài)基礎(chǔ)模型(Multimodal Foundation Model)研究中,上下文學(xué)習(xí)(In-Context Learning, ICL)已被證明是提高模型性能的有效方法之一。
然而,受限于基礎(chǔ)模型的上下文長度,尤其是對于需要大量視覺 token 來
原文鏈接:吳恩達(dá)團(tuán)隊新作:多模態(tài)多樣本上下文學(xué)習(xí),無需微調(diào)快速適應(yīng)新任務(wù)
聯(lián)系作者
文章來源:機(jī)器之心
作者微信:almosthuman2014
作者簡介:專業(yè)的人工智能媒體和產(chǎn)業(yè)服務(wù)平臺