目录
1.下载 Ollama
2.下载DeepSeek模型
3.下载 ollama.js
1.下载 Ollama
https://ollama.com/
下载之后点击安装,等待安装成功后,打开cmd窗口,输入以下指令:
ollama -v
如果显示了版本号,则代表已经下载成功了。
2.下载DeepSeek模型
然后选择自己对应配置的模型,在复制右侧指令到cmd窗口,就可以把模型下载到本地了。
3.下载 ollama.js
npm下载方式:
npm i ollama
yarn下载方式:
yarn add ollama
pnpm下载方式:
pnpm i ollama
下载完成后,按照ollama.js 官方文档指示则可使用,下面是一个最简单的案例:
import { Ollama } from 'ollama'const ollama = new Ollama({host: 'http://127.0.0.1:11434'
})const response = await ollama.chat({model: 'deepseek-r1:1.5b',messages: [{ role: 'user', content: '你好' }],
})console.log(response.message.content)
输出结果:
最后,如果大家不熟悉 Ollama 的指令,可以看上一篇博客:ollama 基本使用教程