標(biāo)簽:長(zhǎng)度
WPS接入DeepSeek,秒變辦公神器!
WPS 大家經(jīng)常用來(lái)日常寫作,雖然本身提供了AI功能,但可惜需要會(huì)員,本文教你三分鐘接入最火的DeepSeek,讓W(xué)PS秒變辦公神器。 DeepSeek API申請(qǐng)地址:http:/...
AI賺錢副業(yè)~AI生成影視解說(shuō),半個(gè)月漲粉變現(xiàn)3.5W+!
這兩年大家都在感嘆生活不易,然而我想說(shuō)的是,機(jī)會(huì)還是有的,但問題不在于有沒有,而在于你是否能夠認(rèn)準(zhǔn)機(jī)會(huì),然后抓住它。 接觸過(guò)很多咨詢項(xiàng)目的人,發(fā)現(xiàn)...
視頻大模型無(wú)損提速:刪除多余token,訓(xùn)練時(shí)間減少30%,幀率越高效果越好 | NeurIPS
克雷西 發(fā)自 凹非寺量子位 | 公眾號(hào) QbitAIDon’t look twice! 把連續(xù)相同的圖像塊合并成一個(gè)token,就能讓Transformer的視頻處理速度大幅提升。 卡內(nèi)基梅隆...
無(wú)問芯穹提出混合稀疏注意力方案MoA,加速長(zhǎng)文本生成,實(shí)現(xiàn)最高8倍吞吐率提升
機(jī)器之心發(fā)布 機(jī)器之心編輯部隨著大語(yǔ)言模型在長(zhǎng)文本場(chǎng)景下的需求不斷涌現(xiàn),其核心的注意力機(jī)制(Attention Mechanism)也獲得了非常多的關(guān)注。 注意力機(jī)制會(huì)...
NeurIPS 2024 | Transformer長(zhǎng)度外推,全新位置編碼DAPE大幅提升模型性能
AIxiv專欄是機(jī)器之心發(fā)布學(xué)術(shù)、技術(shù)內(nèi)容的欄目。過(guò)去數(shù)年,機(jī)器之心AIxiv專欄接收?qǐng)?bào)道了2000多篇內(nèi)容,覆蓋全球各大高校與企業(yè)的頂級(jí)實(shí)驗(yàn)室,有效促進(jìn)了學(xué)術(shù)...
米開朗基羅怎么說(shuō)?谷歌DeepMind推出長(zhǎng)上下文評(píng)估新框架
新智元報(bào)道編輯:alan 【新智元導(dǎo)讀】近日,來(lái)自谷歌DeepMind的研究人員提出了Michelangelo,「用米開朗基羅的觀點(diǎn)」來(lái)測(cè)量任意上下文長(zhǎng)度的基礎(chǔ)模型性能。米...
OpenAI重磅發(fā)布Canvas:跟ChatGPT一起寫作編程
來(lái)源:量子位 | 公眾號(hào) QbitAI金磊 發(fā)自 凹非寺今天凌晨,OpenAI又有了一個(gè)大動(dòng)作—— 發(fā)布Canvas,一個(gè)與ChatGPT合作寫作和編程的新界面! 這個(gè)全新的界面,是...
666條數(shù)據(jù)教會(huì)AI寫萬(wàn)字長(zhǎng)文!模型數(shù)據(jù)集都開源
魔搭ModelScope團(tuán)隊(duì) 投稿量子位 | 公眾號(hào) QbitAI僅需600多條數(shù)據(jù),就能訓(xùn)練自己的長(zhǎng)輸出模型了?! 事情是醬嬸兒的—— 雖然大模型的上下文(Context)支持越來(lái)越...
Meta:大語(yǔ)言模型可以通過(guò)自我批判取得大幅提升!
夕小瑤科技說(shuō) 原創(chuàng)作者 | 謝年年論文的審稿模式想必大家都不會(huì)陌生,一篇論文除了分配多個(gè)評(píng)審,最后還將由PC綜合評(píng)估各位審稿人的reviews撰寫meta-review。 ...
谷歌揭秘大模型不會(huì)數(shù)r原因:嵌入維度是關(guān)鍵,不止分詞器問題
克雷西 發(fā)自 凹非寺量子位 | 公眾號(hào) QbitAI大模型做奧賽題游刃有余,簡(jiǎn)單的數(shù)數(shù)卻屢屢翻車的原因找到了。 谷歌的一項(xiàng)新研究,發(fā)現(xiàn)大模型不會(huì)數(shù)數(shù)的原因,并不...
GPT-4o mini排名雪崩,大模型競(jìng)技場(chǎng)規(guī)則更新,奧特曼刷分小技巧無(wú)效了
夢(mèng)晨 發(fā)自 凹非寺量子位 | 公眾號(hào) QbitAI大模型競(jìng)技場(chǎng)規(guī)則更新,GPT-4o mini排名立刻雪崩,跌出前10。 新榜單對(duì)AI回答的長(zhǎng)度和風(fēng)格等特征做了降權(quán)處理,確保...
“防御性”編程弱爆了,我選擇“進(jìn)攻性”編程
Hello,大家好,我是 JioNLP。 應(yīng)該都聽說(shuō)過(guò)防御性編程吧? 程序員們?yōu)榱朔乐贡徊脝T,需要把程序?qū)懙脕y糟糟的: 要么是層層抽象,每一層都特別難理解,搞得其...
清華唐杰團(tuán)隊(duì)新作:一口氣生成2萬(wàn)字,大模型開卷長(zhǎng)輸出
明敏 發(fā)自 凹非寺量子位 | 公眾號(hào) QbitAI一口氣生成2萬(wàn)字,大模型輸出也卷起來(lái)了! 清華&智譜AI最新研究,成功讓GLM-4、Llama-3.1輸出長(zhǎng)度都暴增。 相同...
30秒生成建模師級(jí)Mesh!最大可生成面數(shù)提升至1600,GitHub攬星1.9k項(xiàng)目發(fā)布V2版本
木子 投稿量子位 | 公眾號(hào) QbitAI只需30秒,AI就能像3D建模師一樣,在各種指示下生成高質(zhì)量人造Mesh。 NeRF、3D Gaussian Splatting生成的三維重建圖像Mesh效...
NVIDIA把Llama-3的上下文長(zhǎng)度擴(kuò)展16倍,長(zhǎng)上下文理解能力超越GPT-4
夕小瑤科技說(shuō) 原創(chuàng)作者 | Richard在 Llama-3.1 模型發(fā)布之前,開源模型與閉源模型的性能之間一直存在較大的差距,尤其是在長(zhǎng)上下文理解能力上。 大模型的上下...
4訓(xùn),Llama 7B擊敗GPT-4!Meta等讓LLM「分飾三角」自評(píng)自進(jìn)化
新智元報(bào)道編輯:編輯部 【新智元導(dǎo)讀】Meta、UC伯克利、NYU共同提出元獎(jiǎng)勵(lì)語(yǔ)言模型,給「超級(jí)對(duì)齊」指條明路:讓AI自己當(dāng)裁判,自我改進(jìn)對(duì)齊,效果秒殺自我...
開源超閉源!通義千問Qwen2發(fā)布即爆火,網(wǎng)友:GPT-4o危
魚羊 發(fā)自 凹非寺量子位 | 公眾號(hào) QbitAI開源大模型全球格局,一夜再變。 這不,全新開源大模型亮相,性能全面超越開源標(biāo)桿Llama 3。王座易主了。不是“媲美”...