標(biāo)簽:性能

數(shù)量即力量!騰訊揭秘:Agent數(shù)量越多,大語言模型效果越好

機(jī)器之心專欄 機(jī)器之心編輯部來自騰訊的研究者們做了一個(gè)關(guān)于 agent 的scaling property(可拓展性)的工作。發(fā)現(xiàn):通過簡單的采樣投票,大語言模型(LLM)的...
閱讀原文

OMEN 暗影精靈 10 評測:游戲本中的六邊形戰(zhàn)士

變快了 也變強(qiáng)了以學(xué)生黨和新職人為目標(biāo)的筆記本電腦市場,每年都會(huì)迎來兩波換機(jī)潮——9 月的開學(xué)季,和 2 月的返校季。 相較于介于 618 和雙 11 之間的開學(xué)季...
閱讀原文

英偉達(dá)新顯卡發(fā)布!筆記本AI畫圖提速14倍,輕薄本也能當(dāng)AI工作站

金磊 西風(fēng) 發(fā)自 凹非寺量子位 | 公眾號 QbitAI黃院士的新核彈,來了! 全新消費(fèi)級顯卡,專為提速筆記本大模型應(yīng)用而生。 就在這兩天的MWC上,英偉達(dá)重磅推出...
閱讀原文

今日arXiv最熱NLP大模型論文:做到頭了!清華和哈工大把大模型量化做到了1比特

夕小瑤科技說 原創(chuàng)作者 | 謝年年在追求更高效的機(jī)器學(xué)習(xí)模型部署時(shí),模型量化技術(shù)應(yīng)運(yùn)而生,它通過降低權(quán)重矩陣的位寬來顯著減少大型語言模型的存儲(chǔ)和計(jì)算需...
閱讀原文

Scaling 能通往 AGI 嗎?萬字科普 Scaling Law 的業(yè)內(nèi)爭議與討論

幾乎所有關(guān)于 LLM 的討論都無法跳開 scaling law,它被看作是 OpenAI 最核心的技術(shù),Sora 的出現(xiàn)也被認(rèn)為是 scaling law 的又一次成功。與此同時(shí),關(guān)于 scali...
閱讀原文

全球最強(qiáng)開源大模型一夜易主!谷歌Gemma 7B碾壓Llama 2 13B,今夜重燃開源之戰(zhàn)

新智元報(bào)道編輯:編輯部 【新智元導(dǎo)讀】谷歌發(fā)布全球最強(qiáng)開源大模型Gemma,7B性能超越Llama 2 13B!谷歌和OpenAI,已經(jīng)卷出了新高度。這輪番放深夜炸彈的頻率...
閱讀原文

出圈的Sora帶火DiT,連登GitHub熱榜,已進(jìn)化出新版本SiT

機(jī)器之心報(bào)道 編輯:杜偉好的研究不會(huì)被埋沒,只會(huì)歷久彌新。雖然已經(jīng)發(fā)布近一周時(shí)間,OpenAI 視頻生成大模型 Sora 的影響仍在繼續(xù)! 其中,Sora 研發(fā)負(fù)責(zé)人...
閱讀原文

10倍英偉達(dá)GPU:大模型專用芯片一夜成名,來自谷歌TPU創(chuàng)業(yè)團(tuán)隊(duì)

機(jī)器之心報(bào)道 編輯:澤南、蛋醬能帶來完全不同的大模型體驗(yàn)。我們知道,大模型到 GPT-3.5 這種千億體量以后,訓(xùn)練和推理的算力就不是普通創(chuàng)業(yè)公司所能承擔(dān)的...
閱讀原文

三年16篇一作,前谷歌研究科學(xué)家Yi Tay官宣新模型,21B媲美Gemini Pro、GPT-3.5

機(jī)器之心報(bào)道 編輯:陳萍該團(tuán)隊(duì)的新模型在多個(gè)基準(zhǔn)測試中都與 Gemini Pro 、GPT-3.5 相媲美。 如果你經(jīng)常讀 AI 大模型方向的論文,Yi Tay 想必是一個(gè)熟悉的名...
閱讀原文

英偉達(dá)市值飆升1.8萬億美元,趕超谷歌、亞馬遜!老黃:我才剛上路呢

新智元報(bào)道編輯:桃子 潤 【新智元導(dǎo)讀】當(dāng)?shù)貢r(shí)間周一,英偉達(dá)市值突破1.8萬億美元,趕超谷歌亞馬遜。與此同時(shí),新款GPU RTX 2000 Ada首發(fā),性能比上一代暴漲...
閱讀原文

今日arXiv最熱NLP大模型論文:引入噪聲,可提升RAG檢索效果超30%??

夕小瑤科技說 原創(chuàng)編輯 | 謝年年檢索增強(qiáng)生成(Retrieval-Augmented Generation,簡稱RAG)系統(tǒng)的出現(xiàn),提高了LLMs回答生成的準(zhǔn)確性。它分為兩個(gè)部分:檢索與...
閱讀原文

2B參數(shù)性能超Mistral-7B:面壁智能多模態(tài)端側(cè)模型開源

機(jī)器之心報(bào)道 編輯:澤南千元機(jī)也能本地運(yùn)行。在大模型不斷向著大體量方向前進(jìn)的同時(shí),最近一段時(shí)間,人們在優(yōu)化和部署方面也取得了成果。 2 月 1 日,面壁智...
閱讀原文

直逼GPT-4開源模型大泄漏,AI社區(qū)炸鍋!Mistral CEO自曝是舊模型,OpenAI再敗一局?

新智元報(bào)道編輯:Aeneas 【新智元導(dǎo)讀】這幾天引發(fā)了AI社區(qū)大討論的逼近GPT-4性能的泄漏模型「miqu」,的確是Mistral公司訓(xùn)練的一個(gè)舊模型的量化版。此前,沖...
閱讀原文

PyTorch 2.2大更新!集成FlashAttention-2,性能提升2倍

新智元報(bào)道編輯:alan 【新智元導(dǎo)讀】新的一年,PyTorch也迎來了重大更新,PyTorch 2.2集成了FlashAttention-2和AOTInductor等新特性,計(jì)算性能翻倍。新的一...
閱讀原文

媲美GPT-4的開源模型泄露!Mistral老板剛剛證實(shí):正式版本還會(huì)更強(qiáng)

白交 發(fā)自 凹非寺量子位 | 公眾號 QbitAIMistral-Medium竟然意外泄露?此前僅能通過API獲得,性能直逼GPT-4。 CEO最新發(fā)聲:確有其事,系早期客戶員工泄露。...
閱讀原文
1151617181926