Ollama官網
Ollama是一個用于在本地計算機上運行大型語言模型的命令行工具,允許用戶下載并本地運行像Llama 2、Code Llama和其他模型,并支持自定義和創建自己的模型。該免費開源的項目,目前支持macOS和Linux操作系統,未來還將支持Windows系統????。
網站服務:。
Get up and running with large language models, locally.
Ollama是一個用于在本地計算機上運行大型語言模型的命令行工具,允許用戶下載并本地運行像Llama 2、Code Llama和其他模型,并支持自定義和創建自己的模型。該免費開源的項目,目前支持macOS和Linux操作系統,未來還將支持Windows系統????。
此外,Ollama還提供了官方的Docker鏡像,由此使用Docker容器部署大型語言模型變得更加簡單,確保所有與這些模型的交互都在本地進行,無需將私有數據發送到第三方服務。Ollama在macOS和Linux上支持GPU加速,并提供了簡單的命令行界面(CLI)以及用于與應用程序交互的REST API??。
該工具對于需要在本地機器上運行和實驗大語言模型的開發人員或研究人員來說特別有用,無需依賴外部云服務。
Ollama支持的模型
Ollma提供一個模型庫,用戶可以自行選擇安裝想要運行的模型,目前支持40+的模型,還在持續增加中,以下是可以下載的開源模型示例:
| 模型 | 參數大小 | 文件大小 | 下載運行命令 |
|---|---|---|---|
| Neural Chat | 7B | 4.1GB | ollama run neural-chat |
| Starling | 7B | 4.1GB | ollama run starling-lm |
| Mistral | 7B | 4.1GB | ollama run mistral |
| Llama 2 | 7B | 3.8GB | ollama run llama2 |
| Code Llama | 7B | 3.8GB | ollama run codellama |
| Llama 2 Uncensored | 7B | 3.8GB | ollama run llama2-uncensored |
| Llama 2 13B | 13B | 7.3GB | ollama run llama2:13b |
| Llama 2 70B | 70B | 39GB | ollama run llama2:70b |
| Orca Mini | 3B | 1.9GB | ollama run orca-mini |
| Vicuna | 7B | 3.8GB | ollama run vicuna |
Ollama網址入口

OpenI小編發現Ollama網站非常受用戶歡迎,請訪問Ollama網址入口試用。
數據評估
本站OpenI提供的Ollama都來源于網絡,不保證外部鏈接的準確性和完整性,同時,對于該外部鏈接的指向,不由OpenI實際控制,在2023年 12月 10日 上午6:00收錄時,該網頁上的內容,都屬于合規合法,后期網頁的內容如出現違規,可以直接聯系網站管理員進行刪除,OpenI不承擔任何責任。


粵公網安備 44011502001135號