標(biāo)簽:知識(shí)

5分鐘搭建大模型應(yīng)用!騰訊將「實(shí)用主義」貫徹到底|甲子光年

讓企業(yè)像搭積木一樣構(gòu)建大模型應(yīng)用,簡(jiǎn)單可上手。作者|伍月編輯|栗子 在經(jīng)歷了一年多的技術(shù)錘煉后,大模型正在邁向真刀真槍搶落地的關(guān)鍵階段。 對(duì)于更多企...
閱讀原文

ICML 2024 | 大語言模型預(yù)訓(xùn)練新前沿:「最佳適配打包」重塑文檔處理標(biāo)準(zhǔn)

AIxiv專欄是機(jī)器之心發(fā)布學(xué)術(shù)、技術(shù)內(nèi)容的欄目。過去數(shù)年,機(jī)器之心AIxiv專欄接收?qǐng)?bào)道了2000多篇內(nèi)容,覆蓋全球各大高校與企業(yè)的頂級(jí)實(shí)驗(yàn)室,有效促進(jìn)了學(xué)術(shù)...
閱讀原文

今日arXiv最熱NLP大模型論文:揭露大語言模型短板,北京大學(xué)提出推理測(cè)試基準(zhǔn)

夕小瑤科技說 原創(chuàng)作者 | Richard人工智能領(lǐng)域又一里程碑時(shí)刻!北京大學(xué)、北京智源人工智能研究院等機(jī)構(gòu)聯(lián)合推出大型事件推理評(píng)測(cè)基準(zhǔn) 。這是首個(gè)同時(shí)在知識(shí)...
閱讀原文

“馴服”不受控的大模型,要搞定哪些事?| 專訪達(dá)觀數(shù)據(jù)副總裁王文廣

采訪嘉賓|王文廣,達(dá)觀數(shù)據(jù)副總裁 作者 | 華衛(wèi) GPT 爆火一年多后,無論在國內(nèi)、外,“幾乎所有領(lǐng)域都需要用大模型重構(gòu)”的論調(diào)已深入人心。中國 200 多家廠商...
閱讀原文

所知與能知:人類知識(shí)的多重向度

來源:中國學(xué)派 摘要:當(dāng)代西方主流知識(shí)論以“被辯護(hù)或證成的真信念”為知識(shí)的形態(tài)。與之相異,知識(shí)的真切意義表現(xiàn)為“有可靠根據(jù)的并引向真實(shí)存在(所知)的判...
閱讀原文

肖仰華|生成式語言模型與通用人工智能:內(nèi)涵、路徑與啟示

來源:信息化協(xié)同創(chuàng)新專委會(huì) 作者簡(jiǎn)介肖仰華,復(fù)旦大學(xué)計(jì)算機(jī)科學(xué)技術(shù)學(xué)院教授、博導(dǎo),上海市數(shù)據(jù)科學(xué)重點(diǎn)實(shí)驗(yàn)室主任。研究方向?yàn)橹R(shí)圖譜、知識(shí)工程、大數(shù)據(jù)...
閱讀原文

手機(jī)秒變超腦!微軟Phi-3已經(jīng)超越主流大模型!

點(diǎn)擊上方藍(lán)字關(guān)注我們“微軟phi-3系列語言模型,尤其phi-3-mini,憑借創(chuàng)新數(shù)據(jù)集(精選網(wǎng)絡(luò)數(shù)據(jù)與合成數(shù)據(jù))和高效訓(xùn)練,實(shí)現(xiàn)小模型媲美Mixtral 8x7B、GPT-3.5...
閱讀原文

無任務(wù)學(xué)習(xí)及在機(jī)器人任務(wù)和規(guī)劃中的應(yīng)用

大數(shù)據(jù)文摘授權(quán)轉(zhuǎn)載自中國人工智能學(xué)會(huì) 作者:張憲琦,范曉鵬摘 要: 本文提出了無任務(wù)學(xué)習(xí)的方法,闡述了其與現(xiàn)有方法(包括自監(jiān)督學(xué)習(xí)、遷移學(xué)習(xí)、模仿學(xué)習(xí)...
閱讀原文

一款超強(qiáng)悍、免費(fèi)文檔識(shí)別AI工具,開啟內(nèi)測(cè)!論文/PPT/書籍/財(cái)報(bào)等各種文檔都能識(shí)別解析

夕小瑤科技說 分享作者 | ccAI 創(chuàng)業(yè)公司NoEdgeAI近期開始了他們的文檔解析工具Doc2X的內(nèi)測(cè)。 Doc2X 能夠提取各種文檔,包括書籍,論文,財(cái)報(bào),教輔,幻燈片中...
閱讀原文

對(duì)科學(xué)與哲學(xué)關(guān)系的基礎(chǔ)主義理解

編者按:我一直都是知識(shí)論、認(rèn)識(shí)論之類的哲學(xué)名詞搞不清楚的,基礎(chǔ)主義也沒弄明白。今天正好看到《科學(xué)的哲學(xué)解讀與西方哲學(xué)的知識(shí)論傳統(tǒng)》可以對(duì)這些詞進(jìn)一...
閱讀原文

Llama架構(gòu)比不上GPT2?神奇token提升10倍記憶?

機(jī)器之心專欄 機(jī)器之心編輯部一個(gè) 7B 規(guī)模的語言模型 LLM 能存儲(chǔ)多少人類知識(shí)?如何量化這一數(shù)值?訓(xùn)練時(shí)間、模型架構(gòu)的不同將如何影響這一數(shù)值?浮點(diǎn)數(shù)壓縮 ...
閱讀原文

中科院發(fā)布大模型想象增強(qiáng)法IAG,無需外部資源,想想就能變強(qiáng)

夕小瑤科技說 原創(chuàng)作者 | 松果 引言:探索知識(shí)增強(qiáng)的新方法在人工智能領(lǐng)域,尤其是自然語言處理(NLP)的子領(lǐng)域——問答系統(tǒng)(QA)中,知識(shí)的獲取和利用一直是...
閱讀原文

傳奇程序員Kent Beck:LLM如何放大程序員技能 | 極客時(shí)間

Sora 的驚艷亮相、ChatGPT 的迅速崛起、Gemini 的強(qiáng)勢(shì)跟進(jìn)以及國內(nèi)的百模大戰(zhàn),以至于大家談 AI 色變,仿佛下一秒就會(huì)“被下崗”。 但我的朋友們,真的沒必要過...
閱讀原文

劍橋團(tuán)隊(duì)開源:賦能多模態(tài)大模型RAG應(yīng)用,首個(gè)預(yù)訓(xùn)練通用多模態(tài)后期交互知識(shí)檢索器

機(jī)器之心專欄 機(jī)器之心編輯部PreFLMR模型是一個(gè)通用的預(yù)訓(xùn)練多模態(tài)知識(shí)檢索器,可用于搭建多模態(tài)RAG應(yīng)用。模型基于發(fā)表于 NeurIPS 2023 的 Fine-grained Late...
閱讀原文

釋放 LLM 進(jìn)行復(fù)雜化學(xué)推理的能力,一種簡(jiǎn)單而有效的提示策略 StructChem

將 ScienceAI設(shè)為星標(biāo) 第一時(shí)間掌握 新鮮的 AI for Science 資訊編輯 |X 人工智能有望改變化學(xué)領(lǐng)域。LLM 在解決簡(jiǎn)單的化學(xué)問題,如分子分類和性質(zhì)預(yù)測(cè),取得...
閱讀原文