快速入门
安装完成ollama后,在命令行窗口输入
ollama run llama3
上图表示 Ollama 正在下载 llama3
任务所需的资源文件,并显示了当前的下载进度、速度和预计剩余时间。这是 Ollama 在准备运行 llama3
任务之前所需的步骤。
上面的步骤完成后,就可以在本地进行聊天了,当然笔者亲测是可以离线使用的,如下
ollama支持的模型有哪些
https://ollama.com/library,Ollama 支持 ollama.com/library 上提供的一系列模型。
注意:您应该至少有 8 GB 可用 RAM 来运行 7B 型号,16 GB 来运行 13B 型号,32 GB 来运行 33B 型号
定制模型
从 GGUF 导入
Ollama 支持在 Modelfil