標簽:變體

WPS接入DeepSeek,秒變辦公神器!

WPS 大家經(jīng)常用來日常寫作,雖然本身提供了AI功能,但可惜需要會員,本文教你三分鐘接入最火的DeepSeek,讓WPS秒變辦公神器。 DeepSeek API申請地址:http:/...
閱讀原文

AI賺錢副業(yè)~AI生成影視解說,半個月漲粉變現(xiàn)3.5W+!

這兩年大家都在感嘆生活不易,然而我想說的是,機會還是有的,但問題不在于有沒有,而在于你是否能夠認準機會,然后抓住它。 接觸過很多咨詢項目的人,發(fā)現(xiàn)...

o1規(guī)劃能力首測!已超越語言模型范疇,preview終于贏mini一回

克小西 發(fā)自 凹非寺量子位 | 公眾號 QbitAIo1-preview終于贏過了mini一次! 亞利桑那州立大學的最新研究表明,o1-preview在規(guī)劃任務(wù)上,表現(xiàn)顯著優(yōu)于o1-mini...
閱讀原文

當代版木牛流馬?國友造出「會走路的桌子」,引百萬人圍觀

機器之心報道 機器之心編輯部你想喝瓶啤酒,于是就把桌子叫了過來。這不是吃了菌子才有的場景,而是國外網(wǎng)友的一項發(fā)明,名叫 Carpentopod。整個桌子有 12 條...
閱讀原文

英偉達下一代GPU泄露!RTX 5080比4090提升10%,5090功耗高達600W

新智元報道編輯:好困 【新智元導讀】根據(jù)最新泄露的數(shù)據(jù),英偉達GeForce RTX 5080的功耗或?qū)⑻嵘?00W,并在部分性能上達到RTX 4090的110%!而RTX 5090的功...
閱讀原文

AI填補蛋白質(zhì)設(shè)計一大空白,或揭秘癌癥、癡呆癥發(fā)病機制,促進新藥發(fā)現(xiàn)和生物材料研發(fā)

大數(shù)據(jù)文摘授權(quán)轉(zhuǎn)載自學術(shù)頭條 中風、癡呆癥等神經(jīng)系統(tǒng)疾病是致病、致殘的主要原因之一,據(jù)世界衛(wèi)生組織(WHO)報道,全球有超過三分之一的人口遭受這類疾病...
閱讀原文

新PyTorch API:幾行代碼實現(xiàn)不同注意力變體,兼具FlashAttention性能和PyTorch靈活性

機器之心報道 編輯:陳陳用 FlexAttention 嘗試一種新的注意力模式。理論上,注意力機制就是你所需要的一切。然而在實際操作中,我們還需要優(yōu)化像 FlashAtten...
閱讀原文

ACL 2024 | 對25個開閉源模型數(shù)學評測,GPT-3.5-Turbo才勉強及格

AIxiv專欄是機器之心發(fā)布學術(shù)、技術(shù)內(nèi)容的欄目。過去數(shù)年,機器之心AIxiv專欄接收報道了2000多篇內(nèi)容,覆蓋全球各大高校與企業(yè)的頂級實驗室,有效促進了學術(shù)...
閱讀原文

Llama 3上線4天,井噴1000多個變種!中文版也有了!Groq上推理速度800token每秒

大數(shù)據(jù)文摘授權(quán)自夕小瑤科技說作者:Zicy 4月19號,Meta發(fā)布了其最新的大型語言模型Llama 3的早期版本,反響熱烈,短短4天,就有了1000多個變種,而且這個數(shù)...
閱讀原文

Llama 3 上線4天,井噴1000多個變種!中文版也有了!Groq上推理速度800token每秒

夕小瑤科技說 原創(chuàng)作者 | Zicy4月19號,Meta發(fā)布了其最新的大型語言模型Llama 3的早期版本,反響熱烈,短短4天,就有了1000多個變種,而且這個數(shù)字還在持續(xù)增...
閱讀原文

詳解Latte:去年底上線的全球首個開源文生視頻DiT

機器之心專欄 機器之心編輯部隨著 Sora 的成功發(fā)布,視頻 DiT 模型得到了大量的關(guān)注和討論。設(shè)計穩(wěn)定的超大規(guī)模神經(jīng)網(wǎng)絡(luò)一直是視覺生成領(lǐng)域的研究重點。DiT [...
閱讀原文

生成速度快SDXL一倍,9GB GPU也能運行,Stable Cascade來搞性價比了

機器之心報道 編輯:大盤雞硬件要求越來越低,生成速度越來越快。Stability AI 作為文本到圖像的「元老」,不僅在引領(lǐng)該領(lǐng)域的潮流方向,也在模型質(zhì)量上一次...
閱讀原文

Meta對Transformer架構(gòu)下手了:新注意力機制更懂推理

機器之心報道編輯:杜偉、陳萍作者表示,這種全新注意力機制(Sytem 2 Attention)或許你也需要呢。大型語言模型(LLM)很強已經(jīng)是一個不爭的事實,但它們有...
閱讀原文

重新審視Transformer:倒置更有效,真實世界預測的新SOTA出現(xiàn)了

機器之心報道編輯:大盤雞反轉(zhuǎn) Transformer,變成 iTransformer。Transformer 在時間序列預測中出現(xiàn)了強大能力,可以描述成對依賴關(guān)系和提取序列中的多層次表...
閱讀原文

兩天star量破千:OpenAI的Whisper被蒸餾后,語音識別數(shù)倍加速

機器之心報道編輯:張倩模型小了,幻覺還減輕了。前段時間,「霉霉大秀中文」的視頻在各個社交媒體走紅,隨后又出現(xiàn)了「郭德綱大秀英語」等類似視頻。這些視...
閱讀原文