Ollama官網(wǎng)
Ollama是一個用于在本地計算機上運行大型語言模型的命令行工具,允許用戶下載并本地運行像Llama 2、Code Llama和其他模型,并支持自定義和創(chuàng)建自己的模型。該免費開源的項目,目前支持macOS和Linux操作系統(tǒng),未來還將支持Windows系統(tǒng)????。
網(wǎng)站服務:。
Get up and running with large language models, locally.
Ollama是一個用于在本地計算機上運行大型語言模型的命令行工具,允許用戶下載并本地運行像Llama 2、Code Llama和其他模型,并支持自定義和創(chuàng)建自己的模型。該免費開源的項目,目前支持macOS和Linux操作系統(tǒng),未來還將支持Windows系統(tǒng)????。
此外,Ollama還提供了官方的Docker鏡像,由此使用Docker容器部署大型語言模型變得更加簡單,確保所有與這些模型的交互都在本地進行,無需將私有數(shù)據(jù)發(fā)送到第三方服務。Ollama在macOS和Linux上支持GPU加速,并提供了簡單的命令行界面(CLI)以及用于與應用程序交互的REST API??。
該工具對于需要在本地機器上運行和實驗大語言模型的開發(fā)人員或研究人員來說特別有用,無需依賴外部云服務。
Ollama支持的模型
Ollma提供一個模型庫,用戶可以自行選擇安裝想要運行的模型,目前支持40+的模型,還在持續(xù)增加中,以下是可以下載的開源模型示例:
模型 | 參數(shù)大小 | 文件大小 | 下載運行命令 |
---|---|---|---|
Neural Chat | 7B | 4.1GB | ollama run neural-chat |
Starling | 7B | 4.1GB | ollama run starling-lm |
Mistral | 7B | 4.1GB | ollama run mistral |
Llama 2 | 7B | 3.8GB | ollama run llama2 |
Code Llama | 7B | 3.8GB | ollama run codellama |
Llama 2 Uncensored | 7B | 3.8GB | ollama run llama2-uncensored |
Llama 2 13B | 13B | 7.3GB | ollama run llama2:13b |
Llama 2 70B | 70B | 39GB | ollama run llama2:70b |
Orca Mini | 3B | 1.9GB | ollama run orca-mini |
Vicuna | 7B | 3.8GB | ollama run vicuna |
Ollama網(wǎng)址入口
OpenI小編發(fā)現(xiàn)Ollama網(wǎng)站非常受用戶歡迎,請訪問Ollama網(wǎng)址入口試用。
數(shù)據(jù)統(tǒng)計
數(shù)據(jù)評估
本站OpenI提供的Ollama都來源于網(wǎng)絡,不保證外部鏈接的準確性和完整性,同時,對于該外部鏈接的指向,不由OpenI實際控制,在2023年 12月 10日 上午6:00收錄時,該網(wǎng)頁上的內(nèi)容,都屬于合規(guī)合法,后期網(wǎng)頁的內(nèi)容如出現(xiàn)違規(guī),可以直接聯(lián)系網(wǎng)站管理員進行刪除,OpenI不承擔任何責任。