AIGC動態歡迎閱讀
原標題:CMU+清華開源Prompt2Model框架,性能超越GPT-3.5,僅需1/700的參數量
文章來源:夕小瑤科技說
內容字數:7364字
內容摘要:夕小瑤科技說 分享來源 | 新智元基于大型語言模型(LLM),開發者或用戶可以通過描述任務,并給出幾個樣例來構造自然語言提示,很輕松地就能實現指定的功能。不過從某種程度上來說,相比傳統的、面向任務開發的NLP系統,大型語言模型在計算資源需求等方面是一種極大的退步。最近,卡內基梅隆大學和清華大學的研究人員提出了一種通用的模型構造方法Prompt2Model,開發者只需要構造自然語言提示,就可以訓練出…
原文鏈接:點此閱讀原文:CMU+清華開源Prompt2Model框架,性能超越GPT-3.5,僅需1/700的參數量
聯系作者
文章來源:夕小瑤科技說
作者微信:xixiaoyaoQAQ
作者簡介:更快的AI前沿,更深的行業洞見。聚集25萬AI應用開發者、算法工程師和研究人員。一線作者均來自清北、國外頂級AI實驗室和互聯網大廠,兼備媒體sense與技術深度。
? 版權聲明
文章版權歸作者所有,未經允許請勿轉載。
相關文章
暫無評論...