標(biāo)簽:樣本
評(píng)論能力強(qiáng)于GPT-4,上交開(kāi)源13B評(píng)估大模型Auto-J
機(jī)器之心專欄機(jī)器之心編輯部隨著生成式人工智能技術(shù)的快速發(fā)展,確保大模型與人類價(jià)值(意圖)對(duì)齊(Alignment)已經(jīng)成為行業(yè)的重要挑戰(zhàn)。雖然模型的對(duì)齊至關(guān)...
讓大模型真正學(xué)會(huì)1+1=2!谷歌教會(huì)模型自動(dòng)學(xué)習(xí)推理規(guī)則,大模型的幻覺(jué)有救了
夕小瑤科技說(shuō) 原創(chuàng)作者 | 謝年年在初學(xué)算術(shù)加法或乘法時(shí),我們通過(guò)數(shù)小棍的方式逐步從1+1=2,1+2=3等例子中得出1+3=4,這是一種依賴記憶中的數(shù)學(xué)表格進(jìn)行演繹...
清華團(tuán)隊(duì)攻破GPT-4V、谷歌Bard等模型,商用多模態(tài)大模型也脆弱?
機(jī)器之心專欄機(jī)器之心編輯部GPT-4 近日開(kāi)放了視覺(jué)模態(tài)(GPT-4V)。以 GPT-4V、谷歌 Bard 為代表的多模態(tài)大語(yǔ)言模型 (Multimodal Large Language Models, MLLM...
7.7億參數(shù),超越5400億PaLM!UW谷歌提出「分步蒸餾」,只需80%訓(xùn)練數(shù)據(jù)|ACL 2023
新智元報(bào)道編輯:LRS【新智元導(dǎo)讀】LLM不實(shí)用,小模型蒸餾才是「現(xiàn)實(shí)」的大模型應(yīng)用路線,全面領(lǐng)先微調(diào)技術(shù)!土豪請(qǐng)無(wú)視。。。大型語(yǔ)言模型雖然性能優(yōu)異,可...
ICCV 2023 Oral | 如何在開(kāi)放世界進(jìn)行測(cè)試段訓(xùn)練?基于動(dòng)態(tài)原型擴(kuò)展的自訓(xùn)練方法
機(jī)器之心報(bào)道機(jī)器之心編輯部本文首次提出一種針對(duì)開(kāi)放世界的測(cè)試段訓(xùn)練方法。提高模型泛化能力是推動(dòng)基于視覺(jué)的感知方法落地的重要基礎(chǔ),測(cè)試段訓(xùn)練和適應(yīng)(T...
幾行代碼,幾秒鐘就能生成令人驚嘆的音頻樣本!HuggingFace推出音頻生成Pipeline
夕小瑤科技說(shuō) 原創(chuàng)編輯 | 謝年年音頻是我們?nèi)粘I钪胁豢苫蛉钡囊徊糠郑缃瘢珹I+音頻帶來(lái)了前所未有的體驗(yàn)。通過(guò)AI技術(shù),只需簡(jiǎn)單地輸入一些文本提示就可...
GPT-4:我寫(xiě)的代碼你敢用嗎?研究表明其API誤用率超過(guò)62%
機(jī)器之心報(bào)道編輯:Panda W現(xiàn)在,已經(jīng)有不少軟件開(kāi)發(fā)者在開(kāi)發(fā)軟件時(shí)讓大型語(yǔ)言模型當(dāng)助手了,但最新的一項(xiàng)研究發(fā)出了警示:使用 LLM 反饋的代碼時(shí)一定要慎重...
復(fù)旦大學(xué)團(tuán)隊(duì)發(fā)布中文醫(yī)療健康個(gè)人助手,同時(shí)開(kāi)源47萬(wàn)高質(zhì)量數(shù)據(jù)集
機(jī)器之心發(fā)布機(jī)器之心編輯部隨著遠(yuǎn)程醫(yī)療的興起,在線問(wèn)診、咨詢?cè)桨l(fā)成為患者尋求便捷高效的醫(yī)療支持的首選項(xiàng)。近來(lái)大語(yǔ)言模型(LLM)展示出強(qiáng)大的自然語(yǔ)言交...