python调用本地deepseek
- 1 本地化部署deepseek
- 2 python调用方式
1 本地化部署deepseek
已经有很多大佬们说了不少部署本地化部署deepseek的工作了,我就不过多重复了。
先安装Ollama软件,再通过Ollama获取deepseek的模型文件,大家根据电脑的配置安装对应的模型,如果不是4090显卡建议就安装deepseek-r1:1.5b 。
# Ollama的下载地址
https://ollama.com
# ollama中下载deepseek模型的口令
ollama pull deepseek-r1:1.5b
需要注意的是,安装ollama后,所有ollama指令通过CMD触发。
2 python调用方式
# 这个是ollama调用语言模型的地址
http://localhost:11434/api/generate
通过这个地址也可以利用浏览器进行调用
在python中主要是通过以下代码实现调用
其中json中的model的值为“deepseek-r1:1.5b”可替换为其他模型的名称,可以通过ollama list进行获取模型名称。
import requestsdef ask(content):response = requests.post("http://localhost:11434/api/generate",json={"model": "deepseek-r1:1.5b","prompt": content,"stream": False})print(response.json()["response"])while True:content = input("请输入您的问题:")ask(content)