AIGC動態歡迎閱讀
原標題:為什么要純C語言手搓GPT-2,Karpathy回應網友質疑
關鍵字:神經網絡,代碼,項目,語言,可能會
文章來源:機器之心
內容字數:4302字
內容摘要:
機器之心報道
編輯:小舟Karpathy:for fun.幾天前,前特斯拉 Autopilot 負責人、OpenAI 科學家 Andrej Karpathy 發布了一個僅用 1000 行代碼即可在 CPU/fp32 上實現 GPT-2 訓練的項目「llm.c」。llm.c 旨在讓大模型(LM)訓練變得簡單 —— 使用純 C 語言 / CUDA,不需要 245MB 的 PyTorch 或 107MB 的 cPython。例如,訓練 GPT-2(CPU、fp32)僅需要單個文件中的大約 1000 行干凈代碼(clean code),可以立即編譯運行,并且完全可以媲美 PyTorch 參考實現。項目鏈接:https://github.com/karpathy/llm.c
項目的 Star 量不到七個小時就沖上了 2000,目前已經接近一萬 Star。很多網友驚呼太強了:「即使頂著指針 ptsd,我也能感受到這些代碼的美?!谷欢琹lm.c 項目收到的不只是稱贊,還有很多質疑的聲音。例如,有網友直接提問:「能具體描述下這個項目做了什么嗎,解決了什么問題?」對此,Karpathy 今天正面回應了
原文鏈接:為什么要純C語言手搓GPT-2,Karpathy回應網友質疑
聯系作者
文章來源:機器之心
作者微信:almosthuman2014
作者簡介:專業的人工智能媒體和產業服務平臺
? 版權聲明
文章版權歸作者所有,未經允許請勿轉載。
相關文章
暫無評論...