AIGC動態歡迎閱讀
原標題:大模型預測問題的計算復雜度,用不同能力的LLMs協作提高推理效率
關鍵字:模型,復雜度,報告,問題,復雜性
文章來源:人工智能學家
內容字數:0字
內容摘要:
關鍵詞:大語言模型,深度學習,計算復雜度來源:集智俱樂部
作者:郭瑞東??
大語言模型(LLMs)在人工智能領域取得顯著進展,但同時也帶來了推理成本方面的挑戰。而隨著模型變得更加先進,所需的計算資源顯著增加,如GPT-4的計算量是GPT-3.5的十倍左右。通常用戶會傾向于使用最強大的模型來處理所有任務,而不考慮任務的復雜性。該研究提出一種系統化的方法,微調小型語言模型來評估任務復雜性來自動選擇最合適的模型,以減少計算資源的浪費。
https://arxiv.org/pdf/2312.11511表一:不同模型的成本
這項研究中,首先根據編程問題數據庫,給出對應的prompt,之后分別使用Lamma7B,GPT3.5和GPT4 嘗試回答問題,每個模型運行五次,計算每個模型的給出正常答案的成功率,之后根據不同模型成功率的差異,定義問題的計算復雜性。具體分級方式如圖2所示。圖1:研究所用的問題復雜度如何計算圖2:對問題復雜度分級的決策樹,例如Lamma五次都答對或Lamma及GPT3.5答對次數超過7次的是一級。
之后研究者基于GPT3.5微調了一個大模型,用于根據prompt預測問題的復雜度
原文鏈接:大模型預測問題的計算復雜度,用不同能力的LLMs協作提高推理效率
聯系作者
文章來源:人工智能學家
作者微信:AItists
作者簡介:致力成為權威的人工智能科技媒體和前沿科技研究機構
? 版權聲明
文章版權歸作者所有,未經允許請勿轉載。
相關文章
暫無評論...