標(biāo)簽:內(nèi)容創(chuàng)作

DCLM-7B

DCLM-7B是由蘋果公司聯(lián)合研究團(tuán)隊推出的70億參數(shù)開源小模型,性能超越Mistral-7B,接近Llama 3和Gemma。最近,蘋果公司作為 DataComp-LM(DCLM)項(xiàng)目的研究機(jī)...
閱讀原文

ControlNeXt

ControlNeXt是一種新型的AI圖像和視頻可控生成框架,由香港中文大學(xué)和商湯科技聯(lián)合開發(fā)。采用輕量化控制模塊和創(chuàng)新的交叉歸一化技術(shù),大幅降低計算資源和訓(xùn)練...
閱讀原文

新壹視頻大模型

新壹視頻大模型是新壹科技推出的AI視頻創(chuàng)作大模型,自研AI算法和深度學(xué)習(xí)技術(shù),實(shí)現(xiàn)從劇本到成品的一鍵式創(chuàng)作。具備劇本生成、情感化語音合成、3D元素創(chuàng)建和...
閱讀原文

GameNGen

GameNGen是谷歌推出的首個AI游戲引擎,能以每秒20幀的速度實(shí)時生成逼真的DOOM游戲畫面,甚至讓60%的玩家無法區(qū)分真假。GameNGen預(yù)示著游戲開發(fā)可能不再需要傳...
閱讀原文

GLM-4-Plus

GLM-4-Plus是智譜AI最新推出的高智能旗艦大模型,在語言理解和長文本處理上取得突破,采用創(chuàng)新技術(shù)如PPO,顯著提升推理和指令遵循能力。GLM-4-Plus在多個關(guān)鍵...
閱讀原文

LM Studio

LM Studio 是一個本地大語言模型 (LLM) 應(yīng)用平臺,開源、傻瓜、一站式部署本地大模型。包括但不限于Llama、MPT、Gemma等,LM Studio 提供了一個圖形用戶界面...
閱讀原文

LTM-2-mini

LTM-2-mini是Magic公司推出的支持1億token上下文AI模型,能處理相當(dāng)于1000萬行代碼或750本小說的內(nèi)容。LTM-2-mini采用序列維度算法,計算效率比Llama 3.1 405...
閱讀原文

什么是文本生成(Text Generation)

文本生成(Text Generation)是自然語言處理(NLP)領(lǐng)域的一項(xiàng)技術(shù),使計算機(jī)能自動創(chuàng)建可讀且語法正確的文本。將非語言信息(如數(shù)據(jù)或圖像)轉(zhuǎn)換為文本,或...
閱讀原文

什么是序列生成模型(Sequence Generation Models)

序列生成模型(Sequence Generation Models)是一類深度學(xué)習(xí)模型,專注于處理輸入和輸出均為序列數(shù)據(jù)的問題。通過學(xué)習(xí)序列中的時間依賴性和模式,用于生成新...
閱讀原文

OpenAI o1模型

OpenAI o1模型是OpenAI公司最新發(fā)布的最強(qiáng)推理系列AI大模型,即“Strawberry”草莓大模型,包括一款 OpenAI o1-preview 的推理模型,還有一個更小、成本更低的...
閱讀原文

GameGen-O

GameGen-O 是騰訊推出的一款基于 Transformer 架構(gòu)的游戲視頻生成模型,專門用于生成開放世界視頻游戲。模型能模擬游戲引擎的多種功能,包括生成游戲角色、動...
閱讀原文

CogVideoX-5B-I2V

CogVideoX-5B-I2V 是智譜 AI 開源的一款圖生視頻模型,通過一張圖片和文本提示詞生成視頻。模型采用了3D 因果變分自編碼器和專家自適應(yīng) LayerNorm 技術(shù),能輸...
閱讀原文

Ovis1.6

Ovis1.6是阿里國際AI團(tuán)隊推出的多模態(tài)大模型,在多模態(tài)權(quán)威綜合評測基準(zhǔn)OpenCompass上取得了優(yōu)異的成績,特別是在30億參數(shù)以下的模型中綜合得分排名第一,超...
閱讀原文

StoryMaker

StoryMaker 是小紅書開源的一款文本到圖像生成工具,專注于幫助創(chuàng)作者在連續(xù)圖像內(nèi)容中保持角色的一致性。基于 Stable Diffusion XL 模型和 LoRA 技術(shù),確保...
閱讀原文

Llama 3.2

Llama 3.2是Meta公司最新推出的開源AI大模型系列,包括小型和中型視覺語言模型(11B和90B參數(shù))以及輕量級純文本模型(1B和3B參數(shù))。Llama 3.2模型專為邊緣...
閱讀原文
13456