標(biāo)簽:資源

WPS接入DeepSeek,秒變辦公神器!

WPS 大家經(jīng)常用來日常寫作,雖然本身提供了AI功能,但可惜需要會員,本文教你三分鐘接入最火的DeepSeek,讓W(xué)PS秒變辦公神器。 DeepSeek API申請地址:http:/...
閱讀原文

AI賺錢副業(yè)~AI生成影視解說,半個月漲粉變現(xiàn)3.5W+!

這兩年大家都在感嘆生活不易,然而我想說的是,機會還是有的,但問題不在于有沒有,而在于你是否能夠認(rèn)準(zhǔn)機會,然后抓住它。 接觸過很多咨詢項目的人,發(fā)現(xiàn)...

GitHub超火開發(fā)者路線圖庫有AI學(xué)習(xí)路線了!star數(shù)近30萬

機器之心報道 編輯:Panda學(xué)習(xí) AI 不再迷失方向。AI 大時代,每天都有層出不窮的新技術(shù)、新方法、新模型、新應(yīng)用…… 想要去學(xué)卻又似乎無從下手? 這里正好有一...
閱讀原文

資源多到什么程度,才能創(chuàng)業(yè)追 OpenAI?

xAI 今天宣布推出 Grok-2 和 Grok-2 mini 測試版,官方說,它的表現(xiàn)比 Claude 3.5 Sonnet 和 GPT-4-Turbo 更好。 看樣子,馬斯克的 xAI 算是支棱起來了。 按...
閱讀原文

馬斯克“偏心”,特斯拉高管們坐不住了

Grok 2要來了,但代價是“挖空”特斯拉? 編譯|香草 編輯|云鵬 智東西8月13日報道,時隔4個月,Grok 2終于要來了! 昨日,馬斯克在社交平臺X上預(yù)告了Grok 2測試...
閱讀原文

VC囤貨GPU提供“氧氣”,創(chuàng)業(yè)者真的買賬嗎?|甲子光年

獲得a16z或者紅杉資本的投資,比獲得算力資源重要多了。作者|田思奇 氧氣——人類生命的基礎(chǔ),靈感的源泉。而在AI時代,GPU就是供養(yǎng)每一位創(chuàng)業(yè)者的氧氣。 據(jù)美...
閱讀原文

上線即滿載,點軍智算中心探索本土AI新基建的范式變革

點軍智算中心已經(jīng)成為本土智算中心建設(shè)上線即滿載的標(biāo)桿案例。 作者|程茜 編輯|漠影 數(shù)字經(jīng)濟時代,算力就是新質(zhì)生產(chǎn)力。 如今為企業(yè)提供多元化算力資源、能...
閱讀原文

【材料化學(xué)工具匯總】開源科學(xué)大模型;材料分析Python庫;分子并行模擬器;自動材料探測

在 AI for Science 的規(guī)模化推廣過程中,低門檻使用且開源的高性能工具至關(guān)重要。一方面,科研人員能夠通過上手使用,更加直觀地了解 AI 的能力;另一方面,...
閱讀原文

陶哲軒力薦!史上最全「數(shù)學(xué)AI資源」清單出爐

新智元報道編輯:好困 桃子 【新智元導(dǎo)讀】陶哲軒轉(zhuǎn)發(fā)的這份「數(shù)學(xué)AI資源清單」,干貨滿滿,全到讓你震撼。史上最全的「數(shù)學(xué)人工智能資源」清單出爐了。 陶哲...
閱讀原文

陶哲軒力薦、親自把關(guān):AI for Math照這個清單學(xué)就對了

機器之心報道 編輯:陳萍在 AI for Math 領(lǐng)域,如果你一直找不到合適的資源,這份清單或許會有幫助。剛剛,著名數(shù)學(xué)家陶哲軒的個人博客又更新了,這次他們整...
閱讀原文

谷歌提出深度混合:使 AI 模型速度提高 50%

點擊上方藍(lán)字關(guān)注我們“本文介紹了一種名為'深度混合'的創(chuàng)新方法,旨在解決基于Transformer的語言模型在處理長序列或復(fù)雜任務(wù)時面臨的計算資源分配問題。該方...
閱讀原文

谷歌更新Transformer架構(gòu),更節(jié)省計算資源!50%性能提升

明敏 發(fā)自 凹非寺量子位 | 公眾號 QbitAI谷歌終于更新了Transformer架構(gòu)。 最新發(fā)布的Mixture-of-Depths(MoD),改變了以往Transformer計算模式。 它通過動...
閱讀原文

今日arXiv最熱大模型論文:北大發(fā)布,通過上下文提示,讓大模型學(xué)習(xí)一門新的語言

夕小瑤科技說 原創(chuàng)作者 | 松果 引言:探索LLMs學(xué)習(xí)新語言的可能性在人工智能領(lǐng)域,大語言模型(LLMs)的發(fā)展已經(jīng)取得了顯著的進(jìn)步,它們在處理高資源語言方面...
閱讀原文

五種資源類別,如何提高大語言模型的資源效率,超詳細(xì)綜述來了

機器之心專欄 機器之心編輯部本綜述深入探討了大型語言模型的資源高效化問題。近年來,大型語言模型(LLM)如 OpenAI 的 GPT-3 在人工智能領(lǐng)域取得了顯著進(jìn)展...
閱讀原文

阿里與上交大提出 LLM 長文本計算新解法:可處理文本長達(dá) 1900k 字節(jié)、效率提升 2.4 倍

DistAttention與DistKV-LLM結(jié)合,帶來云端自然語言處理新變革。編譯 | 郭 思 編輯丨陳彩嫻 在實際應(yīng)用大模型的過程中,尤其是處理長文本的上下文信息時,如何...
閱讀原文

最新調(diào)查:AI大模型的兩大難題,要靠“綠色計算”來解決?

大數(shù)據(jù)文摘受權(quán)轉(zhuǎn)載自學(xué)術(shù)頭條作者:閆一米編輯:學(xué)術(shù)君當(dāng)前,人工智能(AI)已廣泛應(yīng)用于眾多領(lǐng)域,包括計算機視覺、自然語言處理、時間序列分析和語音合成...
閱讀原文

【緬懷】6億人的“二八定律 ”

引“6億人”后面的真相不止有盛世繁華,還有殘垣頹瓦;不止有北上深廣的四通八達(dá),還有阡陌不通的邊緣小鎮(zhèn);不止有年賺千萬的娛樂明星,還有更多失業(yè)在家的啃老...
閱讀原文
12