標(biāo)簽:效率

WPS接入DeepSeek,秒變辦公神器!

WPS 大家經(jīng)常用來(lái)日常寫(xiě)作,雖然本身提供了AI功能,但可惜需要會(huì)員,本文教你三分鐘接入最火的DeepSeek,讓W(xué)PS秒變辦公神器。 DeepSeek API申請(qǐng)地址:http:/...
閱讀原文

AI賺錢(qián)副業(yè)~AI生成影視解說(shuō),半個(gè)月漲粉變現(xiàn)3.5W+!

這兩年大家都在感嘆生活不易,然而我想說(shuō)的是,機(jī)會(huì)還是有的,但問(wèn)題不在于有沒(méi)有,而在于你是否能夠認(rèn)準(zhǔn)機(jī)會(huì),然后抓住它。 接觸過(guò)很多咨詢項(xiàng)目的人,發(fā)現(xiàn)...

Liquid AI推出性STAR模型:超越Transformer的高效新紀(jì)元

隨著有關(guān)頂級(jí)人工智能公司在開(kāi)發(fā)更新、更強(qiáng)大的大型語(yǔ)言模型方面面臨困難的謠言和報(bào)道不斷流傳,人們的注意力越來(lái)越多地轉(zhuǎn)向“Transformer”的替代架構(gòu)。
閱讀原文

數(shù)字智能的崛起:辛頓揭示其效率超越生物智能10萬(wàn)倍的秘密與背后的博士天團(tuán)

原標(biāo)題:諾獎(jiǎng)和圖靈獎(jiǎng)得主辛頓最新演講:數(shù)字智能比生物智能效率高10萬(wàn)倍,但進(jìn)化方向不同,成名研究成果歸功于博士弟子天團(tuán) 文章來(lái)源:人工智能學(xué)家 內(nèi)容字...
閱讀原文

160年的煤炭理論竟能預(yù)測(cè)自動(dòng)駕駛未來(lái)?

Illustration by Alex Castro / The Verge 來(lái)源:IEEE電氣電子工程師學(xué)會(huì) 在經(jīng)歷了頗為殘酷的 2023 年之后,圍繞自動(dòng)駕駛汽車(chē)的氛圍正在好轉(zhuǎn) (https://www.f...
閱讀原文

阿里通義上新PPT創(chuàng)作!PC端“效率”功能三合一,聽(tīng)讀寫(xiě)一站搞定

魚(yú)羊 衡宇 發(fā)自 凹非寺量子位 | 公眾號(hào) QbitAI這年頭,哪有人上班不發(fā)瘋的(doge)。 就拿PPT來(lái)說(shuō),趙曉卉“PPTSD”這詞兒一出,那真是戳到了打工人心坎上。 對(duì)...
閱讀原文

清華大合斯坦福大學(xué)提出混合注意力機(jī)制MoA,大模型解碼速率提高6倍

夕小瑤科技說(shuō) 原創(chuàng)作者 | Richard 隨著大語(yǔ)言模型的規(guī)模不斷擴(kuò)大,如何在保持模型性能的同時(shí)提高其效率,成為了當(dāng)前研究的熱點(diǎn)問(wèn)題。最近,清華大學(xué)聯(lián)合斯坦...
閱讀原文

越過(guò)智算云發(fā)展拐點(diǎn)!解讀天翼云智算服務(wù),用“組合拳”突圍大模型訓(xùn)推難題

▲頭圖由AI生成 天翼云萬(wàn)卡方案驅(qū)動(dòng)萬(wàn)億參數(shù)大模型訓(xùn)練 作者|香草 編輯|漠影 在大模型熱潮的推動(dòng)下,AI算力呈現(xiàn)出爆炸式的增長(zhǎng),為云計(jì)算行業(yè)帶來(lái)新的機(jī)遇。 ...
閱讀原文

首個(gè)國(guó)產(chǎn)全功能GPU的萬(wàn)卡集群來(lái)了!“中國(guó)英偉達(dá)”出品

金磊 發(fā)自 凹非寺量子位 | 公眾號(hào) QbitAI純國(guó)產(chǎn)GPU的萬(wàn)卡集群,它來(lái)了! 而且還是國(guó)內(nèi)首個(gè)全功能GPU,兼容CUDA的那種。 這個(gè)集結(jié)了超過(guò)10000張高性能GPU的超...
閱讀原文

AI主戰(zhàn)場(chǎng),萬(wàn)卡是標(biāo)配:國(guó)產(chǎn)GPU萬(wàn)卡萬(wàn)P集群來(lái)了!

機(jī)器之心報(bào)道 機(jī)器之心編輯部Scaling Law 持續(xù)見(jiàn)效,讓算力就快跟不上大模型的膨脹速度了。「規(guī)模越大、算力越高、效果越好」成為行業(yè)圭皋。主流大模型從百億...
閱讀原文

OpenAI前員工預(yù)測(cè):2027年AGI降臨!GPT智商飆升,4年從幼兒園躥到高中生

新智元報(bào)道編輯:?jiǎn)虠钐易?【新智元導(dǎo)讀】最近,OpenAI的一位前員工發(fā)表了一篇165頁(yè)的超長(zhǎng)博文,對(duì)AI發(fā)展的未來(lái)做出了一系列預(yù)測(cè)。文章的核心觀點(diǎn)可以概括成...
閱讀原文

清華接手,YOLOv10問(wèn)世:性能大幅提升,登上GitHub熱榜

機(jī)器之心報(bào)道 機(jī)器之心編輯部相同性能情況下,延遲減少 46%,參數(shù)減少 25%。目標(biāo)檢測(cè)系統(tǒng)的標(biāo)桿 YOLO 系列,再次獲得了重磅升級(jí)。自今年 2 月 YOLOv9 發(fā)布之...
閱讀原文

利用多級(jí)框架和多解碼器架構(gòu)提高擴(kuò)散模型訓(xùn)練效率 | 密歇根大學(xué)安娜堡分校在讀博士張揮杰主講

「智猩猩AI新青年講座」由智猩猩出品,致力于邀請(qǐng)青年學(xué)者,主講他們?cè)谏墒紸I、LLM、AI Agent、CV等人工智能領(lǐng)域的最新重要研究成果。 AI新青年是加速人工...
閱讀原文

OpenAI陷巨大算力荒,國(guó)內(nèi)大廠搶先破局!打破單芯片限制,算力效率提升33%

新智元報(bào)道編輯:編輯部 【新智元導(dǎo)讀】一切計(jì)算皆AI已成為行業(yè)共識(shí)。大模型參數(shù)規(guī)模從千億走向萬(wàn)億,從單一走向MoE,對(duì)算力的需求愈加龐大。我們需要理清的...
閱讀原文

大模型一定就比小模型好?谷歌的這項(xiàng)研究說(shuō)不一定

機(jī)器之心報(bào)道 編輯:Panda在這個(gè)大模型不斷創(chuàng)造新成就的時(shí)代,我們通常對(duì)機(jī)器學(xué)習(xí)模型有一個(gè)直觀認(rèn)知:越大越好。但事實(shí)果真如此嗎? 近日,Google Research ...
閱讀原文

最強(qiáng)開(kāi)源大模型Llama 3來(lái)了!4000億參數(shù)GPT-4,訓(xùn)練數(shù)據(jù)達(dá)Llama 2七倍

開(kāi)源大模型超閉源?Meta重回開(kāi)源大模型鐵王座。 編譯|長(zhǎng)頸鹿 編輯|李水青 智東西4月19日消息,昨夜,Meta推出迄今為止能力最強(qiáng)的開(kāi)源大模型Llama 3系列,發(fā)布...
閱讀原文

Llama 3 發(fā)布!目前最強(qiáng)開(kāi)源大模型,全面登陸 Meta 系產(chǎn)品,即將推出 4000 億模型

Meta 于本周四正式發(fā)布 Llama 3,官方號(hào)稱「有史以來(lái)最強(qiáng)大的開(kāi)源大模型」。 本次發(fā)布了 8B 和 70B 參數(shù)的大模型,提供了新功能,改進(jìn)了推理能力,在行業(yè)基準(zhǔn)...
閱讀原文
12