本地基于Ollama部署的DeepSeek详细接口文档说明

        前文,我们已经在本地基于Ollama部署好了DeepSeek大模型,并且已经告知过如何查看本地的API。为了避免网络安全问题,我们希望已经在本地调优的模型,能够嵌入到在本地的其他应用程序中,发挥本地DeepSeek的作用。因此需要知道本地DeepSeek的API结构,知道什么接口地址要输入什么参数,以及如何使用。

       前置文章:

        (1)个人windows电脑上安装DeepSeek大模型:https://lzm07.blog.csdn.net/article/details/145491693

        (2)查看和使用本地Windows系统下通过Ollama部署的DeepSeek模型的API:https://lzm07.blog.csdn.net/article/details/145601121

        先了解接口的详细内容,再postman对接口进行验证。

一、核心接口文档说明

1. ‌模型列表查询

‌接口地址‌:GET http://localhost:11434/api/tags

‌功能‌:获取本地已部署的模型列表,包含模型名称、版本及大小信息

‌响应示例‌(json):

{"models": [{"name": "deepseek-r1:8b", "modified_at": "2025-03-20T12:00:00Z", "size": 8.2e9}]}

2. ‌文本生成

‌接口地址‌:POST http://localhost:11434/api/generate

‌功能:根据输入提示生成文本内容,支持代码、文章、问答等场景‌。

请求参数(json)‌:

{"model": "deepseek-r1:8b",  // 必填,需与本地模型名称一致‌:ml-citation{ref="2,4" data="citationList"}"prompt": "输入问题",        // 必填"stream": false,           // 是否流式输出(默认true)‌:ml-citation{ref="4,7" data="citationList"}"temperature": 0.7,        // 随机性控制(0-1,默认0.8)‌:ml-citation{ref="4,7" data="citationList"}"max_tokens": 1000         // 最大输出长度‌:ml-citation{ref="4,7" data="citationList"}}

‌响应示例‌(json):

{"response": "生成内容","created_at": "2025-03-21T10:00:00Z","done": true}

3. ‌对话交互

‌接口地址‌:POST http://localhost:11434/api/chat

‌‌功能‌: 支持多轮对话交互,维护上下文语义

请求参数(json)‌:

{"model": "deepseek-r1:8b","messages": [{"role": "user", "content": "你好"},{"role": "assistant", "content": "有什么可以帮助您?"}],"options": {"temperature": 0.7,      // 可选参数‌:ml-citation{ref="4,7" data="citationList"}"num_ctx": 4096          // 上下文窗口大小‌:ml-citation{ref="7" data="citationList"}}}

‌响应示例(json)‌:

{"message": {"role": "assistant", "content": "回复内容"},"done": true}

二、模型管理接口

4. ‌拉取模型

‌接口地址‌:POST http://localhost:11434/api/pull

‌功能‌: 从仓库下载指定模型到本地

请求参数(json)‌:

{"name": "deepseek-r1:14b",  // 需与模型仓库名称一致‌:ml-citation{ref="5,8" data="citationList"}"stream": false             // 是否显示下载进度流‌:ml-citation{ref="5,8" data="citationList"}}

‌响应示例‌(json):

{"status": "success", "digest": "sha256:..."}

5. ‌创建自定义模型

‌接口地址‌:POST http://localhost:11434/api/create

请求参数‌(json):

{"name": "custom-model",    // 自定义模型名称"modelfile": "FROM deepseek-r1:8b\nPARAMETER temperature 0.9"  // 模型配置文件‌:ml-citation{ref="5,8" data="citationList"}}

6. ‌删除模型

‌接口地址‌:DELETE http://localhost:11434/api/delete

‌功能‌: 移除本地已部署的模型

请求参数‌(json):

{"name": "deepseek-r1:1.5b"}  // 需删除的模型名称‌:ml-citation{ref="6,8" data="citationList"}

三、高级接口

7. ‌查看模型信息

‌接口地址‌:GET http://localhost:11434/api/show

‌请求参数‌(json):

{"name": "deepseek-r1:8b"}    // 模型名称‌:ml-citation{ref="8" data="citationList"}

‌响应示例(json)‌:

{"license": "Apache-2.0","modelfile": "...","parameters": "temperature 0.8"}

‌8. 流式响应处理

‌说明‌: 在请求(文本生成/对话)中设置 "stream": true 时,响应将以数据流形式分块返回‌。

‌‌数据格式‌: 分块返回SSE(Server-Sent Events)格式数据。

示例‌(使用 curl)(CMD中执行):

curl http://localhost:11434/api/generate -d '{"model": "deepseek-r1:8b","prompt": "写一首关于春天的诗","stream": true}'

四、Postman下载安装

        了解了以上接口之后,我们要先对接口进行验证,看接口的地址、类型、以及请求的参数是否都正常,便于之后在其他程序中应用这些接口。当前我们使用来postman验证接口。

        先下载和安装postman程序。

1. 下载postman

       官方网址:https://www.postman.com/downloads/

2. postman安装

       点击Postman-win64-Setup.exe。不用登录,点击下方的“Continue without an account”。

       不用登录,点击“Open Lightweight API Client”。

       进入postman主界面

五、Postman测试说明

‌1.配置请求头

设置 Content-Type: application/json‌。

2.发送请求示例(对话接口)

‌步骤‌:

(1)选择 POST 方法,输入 http://localhost:11434/api/chat

(2)在 ‌Body‌ 标签中选择 ‌raw‌ 格式,粘贴以下内容(json):

       模型名称一定要写对,根据自己本地安装好的模型修改,如我们前面已经在本地部署好了deepseek模型,并将模型命名为my_model_name ,则此时,应该填写:"model": "my_model_name"

{"model": "deepseek-r1:8b","messages": [{"role": "user", "content": "解释机器学习中的过拟合"}]}

(3)点击 ‌Send‌ 获取响应‌。

‌3.流式响应处理

若设置 "stream": true,需在Postman中启用 ‌Stream‌ 模式,逐块接收数据‌。

(1)在 ‌Body‌ 标签选择 ‌raw‌ → ‌JSON‌,输入以下内容(json):

{"model": "deepseek-chat", "messages": [{"role": "user", "content": "你的问题"}], "stream": true  // 关键参数,启用流式输出‌:ml-citation{ref="7,8" data="citationList"}}

(2)关闭 SSL 验证(可选)‌

在 Postman 设置(Settings → General)中关闭 ‌SSL certificate verification‌,避免证书错误中断流式传输‌。

六、注意事项

‌       (1)模型名称匹配‌:确保接口中的 model 参数与通过 ollama list 查看到的名称完全一致‌。

‌       (2)显存限制‌:高参数版本(如14B)需至少32GB内存,低配置设备建议使用1.5B或8B版本‌。

‌       (3)端口占用‌:若端口11434被占用,可通过 OLLAMA_HOST 环境变量修改服务端口‌。

‌       (4)跨域问题‌: 若通过 Swagger 调用,需在Ollama服务端配置CORS头(bash):

# 启动服务时添加参数OLLAMA_ORIGINS=* ollama serve

通过以上接口,可全面管理本地部署的DeepSeek模型并实现交互式调用。

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.rhkb.cn/news/37785.html

如若内容造成侵权/违法违规/事实不符,请联系长河编程网进行投诉反馈email:809451989@qq.com,一经查实,立即删除!

相关文章

FPGA 以太网通信(三)

一、UDP协议 UDP(User Datagram Protocol Protocol),即用户数据报协议,是一种面向无连接的传输层协议。UDP和TCP协议都属于传输层协议,在网络传输中同一 IP 服务器需要提供各种不同的服务,为了区别不同的服…

期刊分区表2025年名单下载(经济学、管理学)

2025年期刊分区表包括SCIE、SSCI、A&HCI、ESCI和OAJ,共设置了包括自然科学、社会科学和人文科学在内的21个大类 本次分享的是期刊分区表2025年名单经济学类、管理学类,一共7631025条 一、数据介绍 数据名称:期刊分区表2025年名单 数据…

如何在MCU工程中启用HardFault硬错误中断

文章目录 一、HardFault出现场景二、启动HardFault三、C代码示例 一、HardFault出现场景 HardFault(硬故障) 错误中断是 ARM Cortex-M 系列微控制器中一个较为严重的错误中断,一旦触发,表明系统遇到了无法由其他异常处理机制解决…

智能体开发革命:灵燕平台如何重塑企业AI应用生态

在AI技术深度渗透产业的今天,**灵燕智能体平台**以“全生命周期管理”为核心,为企业提供从智能体开发、协作到落地的闭环解决方案,开创了AI应用工业化生产的新模式。 三位一体的智能体开发体系 1. Agent Builder:零门槛构建专属…

机器学习之支持向量机(SVM)算法详解

文章目录 引言一、 什么是支持向量机(SVM)二、 SVM的基本原理三、数学推导1.线性可分情况2. 非线性可分情况3. 核函数 四、SVM的优缺点优点:缺点: 五、 应用场景六、 Python实现示例七、 总结 引言 支持向量机(Suppor…

【C++进阶】深入探索类型转换

目录 一、C语言中的类型转换 1.1 隐式类型转换 1.2. 显式类型转换 1.3.C语言类型转换的局限性 二、C 类型转换四剑客 2.1 static_cast:静态类型转换(编译期检查) 2.2 dynamic_cast:动态类型转换(运行时检查&…

机器学习之KL散度推导

机器学习之KL散度推导 预备知识 熵、交叉熵、条件熵 熵 (Entropy) 这一词最初来源于热力学。1948年,克劳德爱尔伍德香农将热力学中的熵引入信息论,所以也被称为香农熵 (Shannon entropy)、信息熵 (information entropy)。 对于具体熵的定义和用法推荐…

使用PlotNeuralNet绘制ResNet50模型

一、下载所需软件 1、下载MikTex 作用:将.tex文件转换为PDF文件 下载官网链接:Getting MiKTeX 2、下载Git 作用:将PlotNeuralNet库从GitHub上下载下来,在cmd使用命令行: git clone https://github.com/SamuraiBUPT/PlotNeuralNet-Windows.git 就可以将PlotNeuralNet…

10分钟打造专属AI助手:用ms-swift实现自我认知微调

想象一下,你是辛辛苦苦利用开源模型打造一个专属的AI产品助手。这个助手不仅能高效解答客户的问题,还能自豪地告诉大家:“我是某某打造的某某助手,代表着我们的品牌和价值观。” 然而,当前市面上的开源AI模型虽然技术先…

尝试使用tauri2+Django+React的项目

前言 使用Tauri2前端,本质是进程间的通信。并非前后端。 而想使用nw,先后端打包exe,再和前端打包成exe,并没有完成成功。 而笔者从Tauri中看到这种可能性。很有可能成功基于SeaORMMySQLTauri2ViteReact等的CRUD交互项目-CSDN博…

【JavaWeb学习Day27】

Tlias前端 员工管理 条件分页查询&#xff1a; 页面布局 搜索栏&#xff1a; <!-- 搜索栏 --><div class"container"><el-form :inline"true" :model"searchEmp" class"demo-form-inline"><el-form-item label…

Milvus WeightedRanker 对比 RRF 重排机制

省流:优先选择WeightedRanker 以rag为例,优先选择bm25全文检索,其次选择向量检索 Milvus混合搜索中的重排机制 Milvus通过hybrid_search() API启用混合搜索功能&#xff0c;结合复杂的重排策略来优化多个AnnSearchRequest实例的搜索结果。本主题涵盖了重排过程&#xff0c;…

PLY格式文件如何转换成3DTiles格式——使用GISBox软件实现高效转换

一、概述 在三维GIS和数字孪生领域&#xff0c;3DTiles格式已成为主流的数据格式之一。它由Cesium团队提出&#xff0c;专为大规模3D数据可视化设计&#xff0c;能够高效地加载和展示海量模型数据。而PLY格式则是一种常见的三维模型文件格式&#xff0c;主要用于存储点云数据或…

Junit在测试过程中的使用方式,具体使用在项目测试中的重点说明

JUnit 是一个广泛使用的 Java 单元测试框架,主要用于编写和运行可重复的测试。以下是 JUnit 在项目测试中的使用方式和重点说明: 1. 基本使用 场景:测试一个简单的 Java 类。 示例: import org.junit.Test; import static org.junit.Assert.*;public class CalculatorTe…

《C++11 基于CAS无锁操作的atomic原子类型》

count; count--; 我们知道&#xff0c;/--操作并不是原子性的&#xff0c;其实对应三条汇编指令来完成的。 读取&#xff1a;从内存中把变量的值读取到寄存器修改&#xff1a;在寄存器里将变量的值1/-1写入&#xff1a;把修改后的值写入到内存 在单线程环境下&#xff0c;这…

网络编程之客户端聊天(服务器加客户端共三种方式)

最终效果&#xff1a; serve.c #include <stdio.h> #include <stdlib.h> #include <string.h> #include <unistd.h> #include <arpa/inet.h> #include <sys/select.h>#define MAX_CLIENTS 2 // 只允许两个客户端 #define BUF_SIZE 1024i…

《深度学习》—— 模型部署

文章目录 模型部署模型准备选择部署平台部署配置与服务化测试与验证优化与维护常用工具与框架Flask本地部署模型 模型部署 模型部署是将训练好的机器学习或深度学习模型投入实际生产环境&#xff0c;使其能够处理实时数据并提供预测或推理服务的过程。 模型准备 模型格式转换…

解码小米714亿资本棋局:雷军“押宝”AI新战场

目录 小米的AI战略&#xff1a;70亿投入背后的逻辑 1. ​AI成为核心战略&#xff0c;聚焦三大方向 2. ​资本开支超100亿&#xff0c;投资AI基础层公司 3. ​自研芯片与大模型突破 小米的资本棋局&#xff1a;从智能硬件到AI生态 1. ​714亿投资布局&#xff0c;构建产业…

如何为在线游戏选择合适的游戏盾?

在当今这个互联网高速发展的时代&#xff0c;在线游戏已经成为许多人日常生活中不可或缺的一部分。然而&#xff0c;随着游戏人数的不断增加&#xff0c;网络安全问题也层出不穷。游戏盾的问世便是为了解决这一系列安全隐患&#xff0c;确保玩家在游戏中能够拥有安全、畅快的体…

自适应柔顺性策略:扩散引导控制中学习近似的柔顺

24年10月来自斯坦福大学和 TRI 的论文“Adaptive Compliance Policy: Learning Approximate Compliance for Diffusion Guided Control”。 柔顺性在操作中起着至关重要的作用&#xff0c;因为它可以在不确定的情况下平衡位置和力的并发控制。然而&#xff0c;当今的视觉运动策…