Linux部署DeepSeek r1 模型训练

之前写过一篇windows下部署deepseekR1的文章,有小伙伴反馈提供一篇linux下部署DeepSeek r1 模型训练教程,在 Linux 环境下,我找了足够的相关资料,花费了一些时间,我成功部署了 DeepSeek R1 模型训练任务,结合了 Ollama、DeepSeekR1 和 RAGFlow 三大工具,实现了高效的模型训练与推理。

小贴士:AI学习资料pdf文档下载 点击下载AI学习资料

一、安装ollama ⼯具

介绍

Ollama是一个开源软件,主要用于在本地电脑设备上下载、部署和使用大模型(LLM)。它提供了丰富的LLM库,如llama、qwen、mistral以及DeepSeek R1等,并且支持不同参数规模的模型,以适配不同性能的电脑设备‌。Ollama虽然支持直接使用LLM,但仅能在命令行中进行对话,交互功能有限,因此需要配合其他工具使用‌。通俗理解为用于方便本地部署大模型使用的工具,实现离线使用和数据得到安全保护。

安装

# curl下载ollama⼆进制⽂件
$ sudo curl -L https://ollama.com/download/ollama-linux-amd64 -o /usr/bin/ol
lama
$ sudo chmod +x /usr/bin/ollama
# github下载:https://github.com/ollama/ollama/
$ tar -zxvf ollama-linux-amd64.tgz -C /usr
$ ollama --help
$ ollama --version

在这里插入图片描述
在这里插入图片描述
或者直接下载脚本安装

$ curl -fsSL https://ollama.com/install.sh | sh

在这里插入图片描述

在Service中增加下⾯两⾏

$ vi /etc/systemd/system/ollama.service
Environment="OLLAMA_HOST=0.0.0.0"
Environment="OLLAMA_ORIGINS=*"

然后重启ollama服务

$ systemctl daemon-reload
$ systemctl restart ollama
验证服务是否开启,11434是核⼼端⼝,必须开启。
netstat -nultp |grep 11434

在这里插入图片描述
输入自己本地电脑的IP+11434端口访问
在这里插入图片描述
第⼆步:将Ollama添加为启动服务

sudo useradd -r -s /bin/false -m -d /usr/share/ollama ollama

写⼀个启动脚本

$ sudo vim /etc/systemd/system/ollama.service
[Unit]
Description=Ollama Service
After=network-online.target
[Service]
ExecStart=/usr/bin/ollama serve
User=ollama
Group=ollama
Restart=always
RestartSec=3
[Install]
WantedBy=default.target$ chmod +x /etc/systemd/system/ollama.service

ollama.service配置⽂件中注意事项:
ollama默认只⽀持localhost访问,如果想要开放外⽹访问,可以在[service]下⾯添加⼀个环境变量

[Service]
Environment="OLLAMA_HOST=0.0.0.0:11434"

默认情况下,通过ollama部署的⼤模型是阻塞的,为了提⾼⼤模型的并发性,
可以通过添加OLLAMA_NUM_PARALLEL来配置同时并发的数量

[Service]
Environment="OLLAMA_NUM_PARALLEL=4"

4表示同时运⾏4个并发线程数,默认情况下,ollama会默认保持5分钟的活跃状态,超过五分钟没有操作,
服务会⾃动退出,为了避免在调⽤⼤模型服务时的冷启动,可以通过环境变量
OLLAMA_KEEP_ALIVE来设置活跃状态的时间

[Service]
Environment="OLLAMA_KEEP_ALIVE=-1"
# -1表示⼀直处于连接状态。

第四步:启动服务

$ sudo systemctl daemon-reload
$ sudo systemctl enable ollama

注意:每次修改配置⽂件后,需要关停ollama服务,重启后才⽣效.
关停命令

$ sudo systemctl stop ollama

启动:

 $ sudo systemctl start ollama

安装 deepseek R1

# deepseek 版本信息查看此地址 https://ollama.com/library/deepseek-r1
$ ollama run deepseek-r1:14b

在这里插入图片描述

二、部署⼀个客户端⼯具

下面客户端选择任意一个客户端安装

安装配置 Cherry Studio

介绍

Cherry Studio 是一个用于创建和部署桌面应用程序的开发框架,特别适用于开发跨平台应用。它通过提供简洁易用的工具和可视化界面,使开发者能够以较少的代码量快速构建具有高性能和美观界面的应用程序。Cherry Studio 结合了强大的图形界面设计功能和模块化架构,允许开发者灵活地定制界面布局和交互逻辑。

该框架支持多种主流操作系统,如 Windows、macOS 和 Linux,使得开发者能够创建具有广泛兼容性的桌面应用。此外,Cherry Studio 提供了丰富的插件和扩展功能,支持自定义组件、第三方库的集成,以及与后端服务的连接。其目标是简化开发流程,提升应用开发的效率,尤其适合那些希望快速构建用户友好的桌面应用的开发者。通过 Cherry Studio,开发者能够更轻松地专注于应用逻辑的实现,而无需过多关心平台兼容性和底层细节。

安装

下载linux 安装包 下载官⽹:https://cherry-ai.com/
在这里插入图片描述
双击exe文件安装完成,从设置⾥⾯找到模型服务, ollama 的模型为 deepseek-r1
在这里插入图片描述
设置默认模型
在这里插入图片描述
打开一个聊天窗口进行测试
在这里插入图片描述

安装配置chatbox 客户端

介绍

Chatbox 是一种基于聊天界面的应用程序或工具,旨在通过自动化的方式与用户进行互动,通常用于客户支持、信息查询或作为智能助手。它可以通过文本、语音或其他多种形式与用户进行交流。Chatbox 通常结合自然语言处理(NLP)技术,使得它能够理解和生成自然语言,从而提供智能响应。现代的聊天框架如 ChatGPT 或 Dialogflow 使得 Chatbox 更加灵活和强大,可以实现复杂的对话流程和多轮对话。

Chatbox 的应用场景非常广泛,涵盖了电子商务、在线教育、客户服务、健康咨询等领域。它能够提供即时响应,帮助企业提升客户体验并减少人工客服压力。同时,Chatbox 也能通过不断学习和优化,逐步提高对话质量,提供更贴近用户需求的服务。随着技术的进步,Chatbox 正变得越来越智能,能够处理更为复杂的问题,并在多个平台上无缝集成,满足不同用户的需求。

安装

下载linux chatbox安装包⽂件,地址: https://chatboxai.app/zh
在这里插入图片描述
配置ollama 模型地址,本机电脑IP+11434端口,选择deepseek你的模型
在这里插入图片描述
新建对话,按照图中的配置选择模型
在这里插入图片描述
保存就可以测试对话了
在这里插入图片描述

安装配置Open-WebUI

介绍

Open-WebUI 是一个开源项目,旨在提供一个易于使用、可定制的Web界面,用于与各种AI和机器学习模型进行交互。该项目的目标是让用户能够通过直观的图形界面,轻松管理和运行复杂的机器学习任务,而无需深入编写代码。Open-WebUI 支持多个主流的AI模型,包括文本生成、图像生成、翻译、语音识别等,允许用户通过简单的操作配置和调用这些模型。

其特点包括高度的可扩展性,支持插件化架构,可以根据需求扩展新功能;界面简洁且响应式,适应不同设备的屏幕;并且提供了集成的日志系统和任务管理工具,帮助用户更好地监控和管理后台运行的模型任务。通过 Open-WebUI,开发者和研究人员可以快速搭建自己的AI应用,提升开发效率并降低入门门槛。该项目的开源性质也促进了社区的活跃参与,使其能够不断得到改进和优化。

安装

使⽤docker ⽅式安装客户端⼯具

$ docker pull ghcr.mirrorify.net/open-webui/open-webui:main
$ docker run -d -p 3000:8080 -e OLLAMA_BASE_URL=http://10.1.192.54:11434 --privileged=true -v open-webui:/app/backend/data --name open-webui --restart always ghcr.mirrorify.net/open-webui/open-webui:main

在这里插入图片描述
打开open-webui界面,自己电脑的ip地址+3000端口
在这里插入图片描述

在这里插入图片描述
在这里插入图片描述
首次打开需要注册登录,按提示注册就好,然后登录进去开始对话

在这里插入图片描述

三、RAGFlow的安装和部署

介绍

RAGFlow 是一个开源的框架,旨在简化和优化信息检索与生成的工作流程。它基于检索增强生成(RAG,Retrieval-Augmented Generation)的思想,将信息检索与文本生成结合起来,以提高生成模型的准确性和效率。RAGFlow 通过引入外部数据源(如知识库或文档库),在生成过程中动态地获取相关信息,弥补传统生成模型仅依赖训练数据的局限性。

该框架的核心优势在于它的灵活性与扩展性,可以与现有的语言模型(如 GPT、BERT 等)结合使用,支持多种自定义配置与优化策略,适应不同的业务需求。RAGFlow 的设计理念是简化复杂的工作流程,让开发者能够高效构建基于检索增强生成的应用场景,如问答系统、内容生成、数据分析等。它的开放性和模块化架构使得其在不同领域的适用性更强。

安装

部署的环境前置条件
CPU >= 4 核
内存 >= 16 GB
硬盘 >= 50 GB
Docker版本 >= 24.0.0 & Docker Compose >= v2.26.1

1.安装

# 克隆仓库
$ git clone https://github.com/infiniflow/ragflow.git
$ cd ragflow-main/docker/# 如果你遇到 Docker 镜像拉不下来的问题,可以在 #docker/.env ⽂件内根据变量
# RAGFLOW_IMAGE 的注释提示选择华为云或者阿⾥云的相应镜像。
# 华为云镜像名:swr.cn-north-4.myhuaweicloud.com/infiniflow/ragflow
# 阿⾥云镜像名:registry.cn-hangzhou.aliyuncs.com/infiniflow/ragflow
$ vim .envRAGFLOW_IMAGE=registry.cn-hangzhou.aliyuncs.com/infiniflow/ragflow:v0.16.0# 构建:
$ docker compose -f docker-compose.yml up -d

在这里插入图片描述

在这里插入图片描述

查看容器服务运行状态

$ docker ps -a

在这里插入图片描述

查看服务日志

docker logs -f ragflow-server

在这里插入图片描述

访问RAGFlow界面,http://本地电脑ip

我这里地址是:http://192.168.2.36
在这里插入图片描述

注册一个账号,按照提示操作即可
在这里插入图片描述

添加自己的deepseek模型(自己电脑ip+11434端口)

在这里插入图片描述

在这里插入图片描述

在这里插入图片描述

设置系统模型

在这里插入图片描述
新建知识库
在这里插入图片描述
新增文件,代表数据源,对数据进行训练,提供AI使用
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
点击解析一下,进行解析文件里面的内容数据,让AI学习
在这里插入图片描述
解析成功
在这里插入图片描述
在这里插入图片描述
点击聊天功能—》新建助理
在这里插入图片描述
在这里插入图片描述
根据文档存在的内容提问,你会发现AI会根据你上传文档的数据,给出你要的答案。
在这里插入图片描述

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.rhkb.cn/news/20715.html

如若内容造成侵权/违法违规/事实不符,请联系长河编程网进行投诉反馈email:809451989@qq.com,一经查实,立即删除!

相关文章

学习kafka和flink

kafka kafka安装一套流程 方法一:启动需安装zookeeper和kafka 【Kafka】Windows下安装Kafka(图文记录详细步骤) 安装Tzq2018写的上面链接安装的,一切很顺利,除了zookeeper的环境变量不管如何配置都不管用&#xff0…

安装海康威视相机SDK后,catkin_make其他项目时,出现“libusb_set_option”错误的解决方法

硬件:雷神MIX G139H047LD 工控机 系统:ubuntu20.04 之前运行某项目时,处于正常状态。后来由于要使用海康威视工业相机(型号:MV-CA013-21UC),便下载了并安装了该相机的SDK,之后运行…

K8s 之端口暴露(The Port of K8s is Exposed)

K8s 之端口暴露 Kubernetes 是一个用于管理容器化应用程序的流行工具。然而,关于它的工作原理存在一些误解。最常见的误解之一是关于 Kubernetes Pod 中的端口暴露。本文将解释 Kubernetes 中端口暴露的真相。 1 误解 像许多 Kubernetes 新手一样,我最…

科普:Docker run的相关事项

一、镜像名(含标签)太长 如,通过如下命令行: docker pull designthru2019/dify:56c6d1af0944dbdb5e0115cb623ff0e118a4ac62拉取的镜像名(及标签)太长,可以通过改名的方法变短。 在 Docker 中&…

Windows服务器搭建时间同步服务

一、配置NTP服务器 1、在局域网内找一台时间可靠的计算机或服务器做为NTP服务器,例IP:209.209.209.2 2、在NTP服务器上运行 regedit 打开注册表 3、在注册表中展开HKEY_LOCAL_MACHINE\SYSTEM\CurrentControlSet\Services\W32Time\TimeProviders\NtpSer…

【Hugging Face系列篇】01初步介绍:“AI界的GitHub”

Hugging Face 是一个开源机器学习平台,专注于自然语言处理(NLP)和人工智能,提供模型、数据集、工具及协作社区支持,被誉为“AI界的GitHub”。 目录 一、历史发展 二、核心价值 三、核心功能与工具 四、适用人群与场景 五、优势与竞争力 六、使用方法(以情感分析为例…

企业内部知识库:安全协作打造企业智慧运营基石

内容概要 作为企业智慧运营的核心载体,企业内部知识库通过结构化的信息聚合与动态化的知识流动,为组织提供了从数据沉淀到价值转化的系统性框架。其底层架构以权限管理为核心,依托数据加密技术构建多层级访问控制机制,确保敏感信…

知识库的进化:从知识存储到知识共享

一、知识存储:知识库的起源与初步形态 回溯到知识库的早期阶段,受当时技术水平的显著限制,其功能相对较为单一,主要集中在知识存储方面。那时的知识库如同一个静态的知识仓库,管理员在后台辛勤地上传各类文档&#xff…

事务--实操演示

目录 一、准备工作 二、在MySQL中操作事务(重点) 第一种方式:使用命令的方式 第二种方式:设置MySQL事务不默认提交的方式 结 三、在JDBC中操作事务(掌握) 第一种方式:使用命令的方式 第…

【数据挖掘】--算法

【数据挖掘】--算法 目录:1. 缺失值和数值属性处理1缺失值处理: 2. 用于文档分类的朴素贝叶斯3. 分治法:建立决策树4. 覆盖算法建立规则5. 挖掘关联规则6. 线性模型有效寻找最近邻暴力搜索(Brute-Force Search)kd树&am…

什么是Grok-3?技术特点,场景,潜在问题与挑战

Grok-3 的技术特点与优势 1. 超大算力与训练规模 算力投入:Grok-3 使用了 20 万块英伟达 H100 GPU,分两个阶段训练(第一阶段 10 万 GPU 训练 144 天,第二阶段 20 万 GPU 训练 92 天),总计算量是前代 Grok-2 的 10 倍。这种规模远超同期其他项目(如印度的 1.8 万 GPU 公…

爬取网站内容转为markdown 和 html(通常模式)

我们遇到一些自己喜欢内容,想保存下来,手动复制粘贴很麻烦,我们使用 python 来爬取这些内容。 一、代码 downlod.py import os import requests from bs4 import BeautifulSoup from urllib.parse import urljoin# 目标网页(可…

Java 大视界 -- 企业数字化转型中的 Java 大数据战略与实践(93)

💖亲爱的朋友们,热烈欢迎来到 青云交的博客!能与诸位在此相逢,我倍感荣幸。在这飞速更迭的时代,我们都渴望一方心灵净土,而 我的博客 正是这样温暖的所在。这里为你呈上趣味与实用兼具的知识,也…

交换路由——控制VLAN之间通信

项目 最近一段时间,A公司发现划分VLAN之后,网速提高很多,发生拥堵的情况消失了.但是,部门之间不能互联,也给办公室带来不便.公司要求项目实施各VLAN内主机互通。 部门 VLAN 名称 端口范围 网络ID 计算机 市场部 VLAN 10 shichang f0/1-f/010 192.168.10.0/24 pc0,pc…

一文读懂Docker之Docker Compose

目录 一、Docker Compose简介 二、Docker Compose的安装和基本使用 1、Docker Compose的安装 步骤一、下载docker-compose 步骤二、新增可执行权限 步骤三、查看是否安装成功 2、Docker Compose的基本使用 (1)、docker-compose up (2)、docker-compose ps (3)、docke…

拯救者电脑在重装系统之后电源计划丢失Fn+Q切换不了模式怎么恢复?

参考联想知识库的一下链接: https://iknow.lenovo.com.cn/detail/196192 其中下载的解压文件后的文件需要复制粘贴到D盘的根目录下,再来运行文件。若在生成的log文件中看到导入成功以及控制面板中看到已添加的电源计划即可 如果还是无效可是试试以下的…

让编程变成一种享受-明基RD320U显示器

引言 作为一名有着多年JAVA开发经验的从业者,在工作过程中,显示器的重要性不言而喻。它不仅是我们与代码交互的窗口,更是影响工作效率和体验的关键因素。在多年的编程生涯中,我遇到过各种各样的问题。比如,在进行代码…

React入门案例-Hello React案例

需求 为了演练React,我们可以提出一个小的需求: 在界面显示一个文本:Hello World 点击下方的一个按钮,点击后文本改变为Hello React 但是,我们使用React实现之前,先使用原生代码来实现,这样更加方便大家对比React和原生: 当然,你也可以使用jQuery和Vue来实现,对它…

【SpringBoot】SpringBoot中分页插件(PageHelper)的使用

目录 1.分页概念 2.原生写法 3.PageHelper插件分页查询 3.1 介绍 3.2?使用 3.3 Page对象和PageInf对象 1.分页概念 用户查询的数据不可能一次性全部展示给用户(如果用户有一万条数据呢),而是分页展示给用户,这就是分页查询…

解锁 AIoT 无限可能,乐鑫邀您共赴 Embedded World 2025

2025 年 3 月 11-13 日,全球规模最大的嵌入式展览会——Embedded World 2025 将在德国纽伦堡盛大开幕。作为物联网和嵌入式技术领域的领先企业,乐鑫信息科技 (688018.SH) 将展示在 AI LLM、HMI、双频 Wi-Fi 6、低功耗 MCU 和 Matter 等领域的最新技术及解…