標(biāo)簽:任務(wù)

GPT-4搞不定的圖推理,港科大7B模型搞定|KDD2024

香港科技大學(xué) 陳諾 投稿量子位 | 公眾號(hào) QbitAI大模型執(zhí)行圖推理任務(wù),我們是希望大模型僅僅給出結(jié)果,還是在給出準(zhǔn)確答案的同時(shí),輸出詳細(xì)的推理過程? 先來...
閱讀原文

拿下SOTA!最強(qiáng)中文Embedding模型對(duì)標(biāo)OpenAI,技術(shù)路線公開

新智元報(bào)道編輯:編輯部 【新智元導(dǎo)讀】國產(chǎn)大模型「日日新 5.0」已經(jīng)在權(quán)威主流評(píng)測中鯊瘋了。變強(qiáng)的背后原因竟是,來自商湯自研中文Embedding模型——Piccolo...
閱讀原文

大模型在持續(xù)學(xué)習(xí)中的最新進(jìn)展:綜述

來源:專知 近年來,基礎(chǔ)語言模型(LMs)在自然語言處理(NLP)和計(jì)算機(jī)視覺(CV)領(lǐng)域取得了顯著成就。與傳統(tǒng)神經(jīng)網(wǎng)絡(luò)模型不同,基礎(chǔ)語言模型通過在大量無監(jiān)...
閱讀原文

偏微分方程有了基礎(chǔ)模型:樣本需求數(shù)量級(jí)減少,14項(xiàng)任務(wù)表現(xiàn)最佳

機(jī)器之心報(bào)道 編輯:陳萍本文提出的 Poseidon 在樣本效率和準(zhǔn)確率方面都表現(xiàn)出色。偏微分方程(PDEs)被稱為物理學(xué)的語言,因?yàn)樗鼈兛梢栽趶V泛的時(shí)間 - 空間...
閱讀原文

GPT-4人類高達(dá)99.16%驚人率!PNAS重磅研究曝出,LLM推理越強(qiáng)值越高

新智元報(bào)道編輯:桃子 喬楊 【新智元導(dǎo)讀】最近,德國研究科學(xué)家發(fā)表的PANS論文揭示了一個(gè)令人擔(dān)憂的現(xiàn)象:LLM已經(jīng)涌現(xiàn)出「欺騙能力」,它們可以理解并誘導(dǎo)欺...
閱讀原文

Llama3-8B秒殺700億巨獸?北大博士生等全新「BoT」框架推理暴漲70倍,24點(diǎn)圖形推理一步成神

新智元報(bào)道編輯:Aeneas 好困 【新智元導(dǎo)讀】24點(diǎn)游戲、幾何圖形、一步將死問題,這些推理密集型任務(wù),難倒了一片大模型,怎么破?北大、UC伯克利、斯坦福研...
閱讀原文

清華系細(xì)胞大模型登Nature子刊!能對(duì)人類2萬基因同時(shí)建模,代碼已開源

白交 發(fā)自 凹非寺量子位 | 公眾號(hào) QbitAI生命科學(xué)領(lǐng)域的基礎(chǔ)大模型來了! 來自清華、百圖生科的團(tuán)隊(duì)提出的單細(xì)胞基礎(chǔ)大模型scFoundation,登上Nature Methods...
閱讀原文

今日arXiv最熱大模型論文:大模型都能怎么用?中南大學(xué)最新綜述:大模型時(shí)代的自然語言處理

夕小瑤科技說 原創(chuàng)作者 | Axe_越還記得2022年末ChatGPT的橫空出世,帶來了整個(gè)NLP乃至AI領(lǐng)域的震動(dòng),隨后如LLaMA、ChatGLM、Qwen等類ChatGPT大模型(LLM)開...
閱讀原文

3B模型新SOTA!開源AI讓日常調(diào)用不同大模型更簡單

NEXA AI 投稿量子位 | 公眾號(hào) QbitAI大模型,大,能力強(qiáng),好用! 但單一大模型在算力、數(shù)據(jù)和能耗方面面臨巨大的限制,且消耗大量資源。 而且目前最強(qiáng)大的模...
閱讀原文

多模態(tài)模型學(xué)會(huì)打撲克:表現(xiàn)超越GPT-4v,全新強(qiáng)化學(xué)習(xí)框架是關(guān)鍵

Simon Zhai 投稿量子位 | 公眾號(hào) QbitAI只用強(qiáng)化學(xué)習(xí)來微調(diào),無需人類反饋,就能讓多模態(tài)大模型學(xué)會(huì)做決策! 這種方法得到的模型,已經(jīng)學(xué)會(huì)了看圖玩撲克、算“...
閱讀原文

LeCun新作:分層世界模型,數(shù)據(jù)驅(qū)動(dòng)的人型機(jī)器人控制

新智元報(bào)道編輯:alan 【新智元導(dǎo)讀】在復(fù)雜的物理世界中,人型機(jī)器人的全身控制一直是個(gè)難題,現(xiàn)有的強(qiáng)化學(xué)習(xí)做出的效果有時(shí)會(huì)比較抽象。近日,LeCun參與的...
閱讀原文

SpaceX 與日本億萬富豪「分手」,dearMoon 環(huán)月之旅宣布暫停

dearMoon 環(huán)月之旅 取消日本億萬富豪前澤友作曾高調(diào)宣布自己將乘坐 SpaceX 的星艦,進(jìn)行一場「環(huán)月之旅」。如果順利飛行,這將是 1972 年美國阿波羅登月計(jì)劃...
閱讀原文

淺談大模型 SFT 的實(shí)踐落地:10 問 10 答

來源|知乎—周星星 地址|https://zhuanlan.zhihu.com/p/685582706 前言SFT 是“低端”的工作,但它與業(yè)務(wù)緊密相連。相較于難以實(shí)施且多數(shù)公司沒資源訓(xùn)練的預(yù)訓(xùn)...
閱讀原文

英偉達(dá)新研究:上下文長度虛標(biāo)嚴(yán)重,32K性能合格的都不多

西風(fēng) 發(fā)自 凹非寺量子位 | 公眾號(hào) QbitAI無情戳穿“長上下文”大模型的虛標(biāo)現(xiàn)象—— 英偉達(dá)新研究發(fā)現(xiàn),包括GPT-4在內(nèi)的10個(gè)大模型,生成達(dá)到128k甚至1M上下文長...
閱讀原文

next-token被淘汰!Meta實(shí)測「多token」訓(xùn)練方法,推理提速3倍,性能大漲10%+

新智元報(bào)道編輯:LRS 【新智元導(dǎo)讀】研究人員提出了一種新的大型語言模型訓(xùn)練方法,通過一次性預(yù)測多個(gè)未來tokens來提高樣本效率和模型性能,在代碼和自然語...
閱讀原文
1161718192048