
AIGC動態歡迎閱讀
文章來源:人工智能學家
內容字數:20128字
內容摘要:上下文長度的增加是 LLM 的一個顯著發展趨勢。過去一年,幾種長上下文語言模型陸續問世,包括 GPT-4(32k上下文)、MosaicML 的 MPT(65k上下文)、Anthropic 的 Claude(100k上下文)等。然而,擴大 Transformer 的上下文長度是一個挑戰,因為其核心的注意力層在時間復雜度和空間復雜度與輸入序列長度的平方成正比。一年前,來自斯坦福大學、紐約州立大學布法羅…
聯系作者
文章來源:人工智能學家
作者微信:AItists
作者簡介:致力成為權威的人工智能科技媒體和前沿科技研究機構
? 版權聲明
文章版權歸作者所有,未經允許請勿轉載。
相關文章
暫無評論...

粵公網安備 44011502001135號