標簽:代碼

OpenAI、Google和Meta 的當紅華人研究員們在想些什么|對話實錄

座無虛席,過道里也站滿了人。甚至你會以為這是一場明星見面會。但這其實是一場在硅谷進行的GenAI大會的其中一個圓桌。它被安排在“副舞臺”,時間在人們最昏昏...
閱讀原文

操作系統(tǒng)級ChatGPT爆火,實測讓電腦自己整理桌面,Mac/Windows/Linux都支持

夢晨 發(fā)自 凹非寺量子位 | 公眾號 QbitAI操作系統(tǒng)級ChatGPT,微軟還沒搞出來,被開源項目先實現(xiàn)了——支持Windows、Mac、Linux三大系統(tǒng),相當于直接和你的電腦...
閱讀原文

用大模型,火山引擎要把數(shù)據(jù)飛輪「轉」起來

機器之心報道作者:姜菁玲在大模型對千行百業(yè)的改造進程中,火山引擎率先交出了一份數(shù)據(jù)行業(yè)的個性化答案。9 月 19 日,在上海舉辦的 “數(shù)據(jù)飛輪?V-Tech 數(shù)據(jù)...
閱讀原文

收到郵件了吧?GPT-3.5-Turbo-Instruct發(fā)了,多模態(tài)大模型Gobi也曝光了

機器之心報道編輯:杜偉、梓文谷歌與 OpenAI 多模態(tài)之爭白熱化,兩家先后被曝出了正在研發(fā)的多模態(tài)大模型或工具。本月初,OpenAI 官宣了其首屆開發(fā)者大會「Op...
閱讀原文

LLM變現(xiàn)平臺來了!LangChain+DemoGPT合作:有了idea就能掙錢,「只缺程序員」的時代宣告結束

新智元報道編輯:LRS【新智元導讀】LLM應用開發(fā)進入快車道,變現(xiàn)平臺已經(jīng)搭建好,只等一個絕妙創(chuàng)意!?有了大型語言模型的加持,開發(fā)者可以實現(xiàn)很多全新的功能...
閱讀原文

LangChain 的問題所在

作者 | Max Woolf 譯者 | Sambodhi 策劃 | Tina 擺脫繁瑣,追求高效。是開發(fā)者永遠追求的目標。LangChain,雖號稱多功能,但集成過多引發(fā)問題,逼人只用其代...
閱讀原文

程序員如何用ChatGPT編程?

ChatGPT 的爆火讓大家看到人工智能(AI)的宏大前景,那么對于程序員來說,ChatGPT 如何能作為程序員們最忠實的伙伴,被充分運用于編程中呢?《人人都是提示...
閱讀原文

llama2.mojo比llama2.c快20%,最年輕的語言Mojo驚艷開發(fā)者社區(qū)

機器之心報道編輯:梓文你聽說過 Mojo 的「傳奇色彩」嗎?如果說 Python 是最流行的語言,C 語言是最經(jīng)典的語言,那么 Mojo 也有它的之最 —— 最年輕。Mojo 能...
閱讀原文

零代碼編程:用ChatGPT來批量刪除特定文件

一個文件夾中有很多個文件重復了,重復的文件中都含有“(1)”這樣的字符,需要把所有這些文件批量刪除掉。在ChatGPT中輸入如下提示詞:你是一個Python編程專...
閱讀原文

南洋理工大學劉楊教授:沒有安全,AI 難落地;沒有 AI,安全難保障丨GAIR 2023

GPT時代,要守好安全這道門。作者丨何思思編輯丨林覺民2023 年 8月14日,第七屆GAIR全球人工智能與機器人大會在新加坡烏節(jié)大酒店正式開幕。論壇由GAIR研究院...
閱讀原文

狂攬13k star,開源版代碼解釋器登頂GitHub熱榜,可本地運行、可訪問互聯(lián)網(wǎng)

機器之心報道編輯:小舟Open Interpreter 可以總結 pdf 長文、還能將 word 文件轉換成 pdf 文件等。今年 7 月,OpenAI 開放了一個強大的插件 ——Code Interpre...
閱讀原文

大模型寫代碼能力突飛猛進,北大團隊提出結構化思維鏈SCoT

機器之心專欄機器之心編輯部任何簡單或復雜的算法都可以由順序結構、選擇結構和循環(huán)結構這三種基本結構組合而成。摘要大型語言模型(下文稱為:大模型)在代...
閱讀原文

比Python快68000倍!Mojo正式發(fā)布,網(wǎng)友:Python生態(tài)系統(tǒng)最重要的升級來了

編譯 | 凌敏、核子可樂 自 5 月 2 日首次亮相以來,Modular 公司的 Mojo 編程語言引起了開發(fā)人員的極大興趣,已經(jīng)有超 12 萬開發(fā)人員注冊使用 Mojo Playgroun...
閱讀原文

180B參數(shù)的Falcon登頂Hugging Face,超越Llama 2 ,自稱當前最好開源大模型

夕小瑤科技說 分享來源 | 新智元作者 | 桃子一夜之間,世界最強開源大模型Falcon 180B引爆全網(wǎng)!1800億參數(shù),F(xiàn)alcon在3.5萬億token完成訓練,直接登頂Hugging...
閱讀原文
122232425