標(biāo)簽:對(duì)話系統(tǒng)

LangManus

LangManus 是 AI 自動(dòng)化框架,基于分層多智能體系統(tǒng)設(shè)計(jì)。包含多種智能體,如協(xié)調(diào)員、規(guī)劃員、研究員、程序員等,各司其職,協(xié)同完成復(fù)雜任務(wù)。框架支持多種...
閱讀原文

Mistral Small 3.1

Mistral Small 3.1 是 Mistral AI 開源的多模態(tài)人工智能模型,有 240 億參數(shù),基于 Apache 2.0 許可證發(fā)布。在文本和多模態(tài)任務(wù)上表現(xiàn)出色,支持長(zhǎng)達(dá) 128k to...
閱讀原文

Responses API

Responses API 是 OpenAI 推出的用在構(gòu)建 AI Agents 的核心接口,Responses API是 Chat Completions API 的升級(jí)版,結(jié)合 Assistants API 的工具調(diào)用能力,支...
閱讀原文

Anus

Anus(Autonomous Networked Utility System)是 Manus 生成的開源自主智能體項(xiàng)目,復(fù)刻 Manus 的部分功能。Anus支持自然語言指令執(zhí)行、多代理協(xié)作、網(wǎng)絡(luò)交互...
閱讀原文

LanDiff

LanDiff是用于高質(zhì)量的文本到視頻(T2V)生成的創(chuàng)新混合框架,結(jié)合了自回歸語言模型(LLM)和擴(kuò)散模型(Diffusion Model)的優(yōu)勢(shì),通過粗到細(xì)的生成方式,有...
閱讀原文

Heygem

Heygem 是硅基智能推出的開源數(shù)字人模型,專為 Windows 系統(tǒng)設(shè)計(jì)。基于先進(jìn)的AI技術(shù),僅需 1 秒視頻或 1 張照片,能在 30 秒內(nèi)完成數(shù)字人形象和聲音克隆,在 ...
閱讀原文

GO-1

GO-1(Genie Operator-1,智元啟元大模型)是智元機(jī)器人推出的首個(gè)通用具身基座模型。模型采用Vision-Language-Latent-Action(ViLLA)架構(gòu),由VLM(多模態(tài)大...
閱讀原文

Moonlight-16B-A3B

Moonlight-16B-A3B 是 Moonshot AI 推出的新型 Mixture-of-Expert (MoE) 模型,具有 160 億總參數(shù)和 30 億激活參數(shù)。模型使用了優(yōu)化后的 Muon 優(yōu)化器進(jìn)行訓(xùn)練...
閱讀原文

Mistral Saba

Mistral Saba 是法國(guó) Mistral AI 推出的專注于中東和南亞地區(qū)語言及文化的區(qū)域定制 AI 模型。模型擁有 240 億參數(shù),規(guī)模雖小,在處理阿拉伯語和印度起源語言...
閱讀原文

KTransformers

KTransformers是清華大學(xué)KVCache.AI團(tuán)隊(duì)聯(lián)合趨境科技推出的開源項(xiàng)目,能優(yōu)化大語言模型的推理性能,降低硬件門檻。KTransformers基于GPU/CPU異構(gòu)計(jì)算策略,用...
閱讀原文

MAETok

MAETok(Masked Autoencoders Tokenizer)是卡內(nèi)基梅隆大學(xué)、香港大學(xué)、北京大學(xué)等機(jī)構(gòu)推出的用在擴(kuò)散模型的新型圖像標(biāo)記化方法。MAETok基于掩碼建模(Mask M...
閱讀原文

ChatGPT Tasks

ChatGPT Tasks是OpenAI推出的新功能,屬于OpenAI Agent的初步形態(tài)。ChatGPT Tasks賦予ChatGPT執(zhí)行力,用戶能在ChatGPT聊天界面的“4o與計(jì)劃任務(wù)”模式中,用自...
閱讀原文

Monoxer Junior

Monoxer Junior 是面向小學(xué)新生的AI家庭學(xué)習(xí)應(yīng)用,日本公司Monoxer開發(fā)。基于AI技術(shù)根據(jù)兒童的學(xué)習(xí)水平和記憶狀態(tài)智能出題,提供假名、漢字等豐富學(xué)習(xí)內(nèi)容,...
閱讀原文

LLM2LLM

LLM2LLM是創(chuàng)新的迭代數(shù)據(jù)增強(qiáng)策略,旨在提升大型語言模型(LLM)在數(shù)據(jù)稀缺情況下的性能。方法通過基于一個(gè)強(qiáng)大的教師模型來生成合成數(shù)據(jù),增強(qiáng)學(xué)生模型的訓(xùn)...
閱讀原文

Diff-Instruct

Diff-Instruct是先進(jìn)的知識(shí)轉(zhuǎn)移方法,用于從預(yù)訓(xùn)練的擴(kuò)散模型中提取知識(shí),指導(dǎo)其他生成模型的訓(xùn)練。它基于一種新的散度度量——積分Kullback-Leibler (IKL) 散...
閱讀原文