標簽:上下文

iPhone上最強模型出現!性能超越GPT-4,Siri有救啦?

夕小瑤科技說 原創作者 | 任同學 你有多久沒用你的Siri了呢?對于一個曾市值超過三萬億美元的科技巨頭,蘋果在人工智能方向上的實力還值得大家期待嗎? 最近...
閱讀原文

中科院發布大模型想象增強法IAG,無需外部資源,想想就能變強

夕小瑤科技說 原創作者 | 松果 引言:探索知識增強的新方法在人工智能領域,尤其是自然語言處理(NLP)的子領域——問答系統(QA)中,知識的獲取和利用一直是...
閱讀原文

人工智能助力語音助手:蘋果新方法超越GPT-4

點擊上方藍字關注我們“蘋果公司近期提出一種名為ReALM(Reference Resolution As Language Modeling)的方法,通過將上下文信息轉化為語言模型問題,成功解決...
閱讀原文

「有效上下文」提升20倍!DeepMind發布ReadAgent框架

新智元報道編輯:LRS 【新智元導讀】模仿人類閱讀過程,先分段摘要再回憶,谷歌新框架ReadAgent在三個長文檔閱讀理解數據集上取得了更強的性能,有效上下文提...
閱讀原文

首個開源世界模型!百萬級上下文,長視頻理解吊打GPT-4,UC伯克利華人一作

新智元報道編輯:alan 【新智元導讀】來自UC berkeley的研究人員開源了首個世界模型,多模態性能優秀,長視頻理解吊打GPT-4,同時將上下文長度增加到百萬級別...
閱讀原文

AI 大模型已被!Claude 團隊最新“越獄”論文把各家模型全部了一遍

來源:CSDN(ID:CSDNnews) 作者:王啟隆 昨日,憑借著 Claude 大模型和 GPT-4 打的不可開交的人工智能創業公司Anthropic公布了一篇論文,文中詳述了當前大...
閱讀原文

OpenAI競對用256輪對話「灌醉」大模型,Claude被騙造出!

新智元報道編輯:alan flynne 【新智元導讀】就在剛剛,Anthropic發現了大模型的驚人漏洞。經過256輪對話后,Claude 2逐漸被「灌醉」,開始瘋狂越獄,幫人類...
閱讀原文

馬斯克突發Grok 1.5!上下文長度至128k、HumanEval得分超GPT-4

豐色 西風 發自 凹非寺量子位 | 公眾號 QbitAI就在剛剛,馬斯克Grok大模型宣布重大升級。 難怪之前突然開源了Grok-1,因為他有更強的Grok-1.5了,主打推理能...
閱讀原文

Mamba架構第一次做大!混合Transformer,打敗Transformer

豐色 發自 凹非寺量子位 | 公眾號 QbitAI精彩精彩,第一個把爆火Mamba架構真正擴展到足夠大的工作來了。 520億參數,還是Mamba+Transformer混合架構。 它的名...
閱讀原文

Attention isn’t all you need!Mamba混合大模型開源:三倍Transformer吞吐量

機器之心報道 編輯:小舟Mamba 時代來了? 自 2017 年開創性研究論文《Attention is All You Need》問世以來,transformer 架構就一直主導著生成式人工智能領...
閱讀原文

Mamba超強進化體一舉顛覆Transformer!單張A100跑140K上下文

新智元報道編輯:編輯部 【新智元導讀】52B的生產級Mamba大模型來了!這個超強變體Jamba剛剛打破世界紀錄,它能正面硬剛Transformer,256K超長上下文窗口,吞...
閱讀原文

開源11天,馬斯克再發Grok-1.5!128K代碼擊敗GPT-4

新智元報道編輯:桃子 好困 【新智元導讀】馬斯克「搞笑」模型剛剛升級到Grok-1.5,推理性能暴漲,支持128k長上下文。最重要的是,Grok-1.5的數學和代碼能力...
閱讀原文

馬斯克發布Grok 1.5! 編碼和數學能力大幅提升

夕小瑤科技說 分享來源 | 量子位就在剛剛,馬斯克Grok大模型宣布重大升級。 難怪之前突然開源了Grok-1,因為他有更強的Grok-1.5了,主打推理能力。 來自xAI的...
閱讀原文

LLM代理操作系統

點擊上方藍字關注我們“Rutgers University的研究團隊提出了AIOS,一種創新的大型語言模型(LLM)代理操作系統,旨在解決智能代理在資源調度、上下文維護和異...
閱讀原文

月之暗面Kimi正被大廠“圍剿”:90后清華學霸帶隊“卷”長文本,不到一年估值破百億

作者|冬梅 上周,月之暗面(Moonshot AI)公司宣布旗下對話式 AI 助理產品 Kimi 應用現已支持 200 萬字無損上下文輸入。去年 10 月發布時,Kimi 僅支持 20 ...
閱讀原文
15678915