ACL2024主會:無需訓練的大模型推薦系統(tǒng)!

AIGC動態(tài)歡迎閱讀
原標題:ACL2024主會:無需訓練的大模型推薦系統(tǒng)!
關鍵字:用戶,問題,方法,本文,領域
文章來源:夕小瑤科技說
內(nèi)容字數(shù):0字
內(nèi)容摘要:
夕小瑤科技說 原創(chuàng)作者 | Axe_越如今,各種推薦系統(tǒng)無時無刻不在包圍著我們的生活,自大模型(Large Language Model, LLM)時代以來,得益于LLM的高度,傳統(tǒng)推薦方法中常規(guī)項目庫的限制被打破,更多全新的內(nèi)容可以通過LLM直接生成并被推薦給用戶,為用戶提供了更多樣化和個性化的選項。
當然,正如要求大家用一個字來形容LLM,大多數(shù)朋友都會用“好”;而如果要求用兩個字的話,想必不少朋友就會在“好”字后面加上一個“貴”了。是的,無論是微調(diào)還是訓練一個LLM,往往都意味著大量的計算資源和財務投入。此外,除了微調(diào)或訓練需要時間,收集和標注數(shù)據(jù)同樣需要大量的時間投入,而這就可能會延遲產(chǎn)品發(fā)布和迭代速度,使得推薦的內(nèi)容出現(xiàn)滯后的現(xiàn)象。
正如文本和圖像領域可以運用LLM的理解和泛化能力,在不經(jīng)過額外訓練的情況下,就讓LLM實現(xiàn)特定領域很好的應用效果。那么對于AI三支柱的最后一支“推薦系統(tǒng)”來說,是否也同樣可以做到呢?
論文標題:Generative Explore-Exploit: Training-free Optimization of Generative Recomm
原文鏈接:ACL2024主會:無需訓練的大模型推薦系統(tǒng)!
聯(lián)系作者
文章來源:夕小瑤科技說
作者微信:xixiaoyaoQAQ
作者簡介:專業(yè)、有趣、深度價值導向的科技媒體。聚集30萬AI工程師、研究員,覆蓋500多家海內(nèi)外機構投資人,互聯(lián)網(wǎng)大廠中高管和AI公司創(chuàng)始人。一線作者來自清北、國內(nèi)外頂級AI實驗室和大廠,兼?zhèn)涿翡J的行業(yè)嗅覺和洞察深度。商務合作:zym5189

粵公網(wǎng)安備 44011502001135號