標簽:多模態交互

Qwen2.5-VL-32B

Qwen2.5-VL-32B是阿里巴巴開源的多模態模型,參數規模為32B。模型在Qwen2.5-VL系列的基礎上,基于強化學習優化,具備更符合人類偏好的回答風格、顯著提升的數...
閱讀原文

騰訊混元Turbo S

騰訊混元Turbo S是騰訊推出的新一代快思考模型。模型采用創新的Hybrid-Mamba-Transformer融合架構,有效降低了傳統Transformer的計算復雜度,減少了KV-Cache...
閱讀原文

騰訊混元T1

T1(Thinker)是騰訊混元推出的最新深度思考模型,已正式上線接入騰訊元寶。模型專注于邏輯推理和深度思考,支持聯網搜索功能,能從互聯網信源、微信公眾號、...
閱讀原文

OmniHuman

OmniHuman 是字節跳動推出的端到端多模態條件化人類視頻生成框架,能基于單張人類圖像和運動信號(如音頻、視頻或兩者的組合)生成逼真的人類視頻。OmniHuman...
閱讀原文

微軟華人團隊最新研究:從LLM到LAM,讓大模型真正具有「行動力」!

原標題:微軟華人團隊最新研究:從LLM到LAM,讓大模型真正具有「行動力」! 文章來源:新智元 內容字數:6294字微軟大型行動模型LAM:AI從“聊天”到“行動”的跨...
閱讀原文

GUI Agent綜述 : 2-GUI Agent的三大技術基石

本文主要介紹鑄就GUI Agent的三大技術基石。
閱讀原文

LLaVA-o1:開源視覺語言模型助力智能理解與生成內容

LLaVA-o1是北京大學、清華大學、鵬城實驗室、阿里巴巴達摩院以及理海大學(Lehigh University)組成的研究團隊推出的開源視覺語言模型,基于Llama-3.2-Vision...
閱讀原文

PixVerse V2.5

PixVerse V2.5是愛詩科技最新推出的AI視頻生成工具,通過模型優化提升了視頻生成的速度和畫質,支持4K分辨率。新版本增加了Performance模式、運動筆刷、運鏡...
閱讀原文

混元DiT

混元DiT(Hunyuan-DiT)是由騰訊混元團隊開發的一款高性能的文本到圖像的擴散Transformer模型,具備細粒度的中英文理解能力,能夠根據文本提示生成多分辨率的...
閱讀原文

Gemini Live

Gemini Live是谷歌推出的智能語音助手,具有自然語言理解和多模態識別能力,支持圖像、視頻和語音交互。用戶可通過語音指令控制,實現日常任務自動化。Gemini...
閱讀原文

Qwen2-VL

Qwen2-VL是阿里巴巴達摩院開源的視覺多模態AI模型,具備高級圖像和視頻理解能力。Qwen2-VL支持多種語言,能處理不同分辨率和長寬比的圖片,實時分析動態視頻...
閱讀原文

HMoE

HMoE(混合異構專家模型)是騰訊混元團隊提出的新型神經網絡架構,旨在提升大型語言模型的性能和計算效率。通過引入不同尺寸的專家來處理不同復雜性的輸入數...
閱讀原文

VideoLLaMB

VideoLLaMB 是一種創新的長視頻理解框架,通過引入記憶橋接層和遞歸記憶令牌來處理視頻數據,確保在分析時不丟失關鍵視覺信息。模型特別設計用于理解長時間視...
閱讀原文
123