本地部署DeepSeek摆脱服务器繁忙

由于图片和格式解析问题,可前往 阅读原文

最近DeepSeek简直太火了,频频霸榜热搜打破春节的平静,大模型直接开源让全球科技圈都为之震撼!再次证明了中国AI的换道超车与崛起

DeepSeek已经成了全民ai,使用量也迅速上去了,加上对面半球对ds服务器的攻击导致现在使用起来动不动就崩溃

那么如何解决这个问题呢❓

上一篇《DeepSeek搭建私有GPT》讲了结合FastGPT与OneAPI直接调用 deepseek api 来本地部署自己的gpt,一定程度上也可以缓解使用对公的gpt,但此种方式在用户调用过多时也会出现问题,毕竟算力在云端,目前官方也停止了充值,这也反映了当前问题

:::warning 小贴士
文章中涉及到的示例代码你都可以从 这里查看 ,若对你有用还望点赞支持
:::

当然DeepSeek开源了多个大模型当然也可以本地进行部署,虽然没有在线模型那么强大,但也足够使用了。相较于api调用或者公开的gpt来说,本地部署可以不需要联网、数据隐私更安全,响应更快更方便

来看怎么部署

Ollama

Ollama 是一个开源的机器学习框架,旨在简化 AI 模型的训练和部署过程,Ollama 提供了简洁的 API 和直观的命令行界面,让用户能够快速开始训练和部署模型,无需复杂的配置;是本地运行大模型的利器(对小白非常友好)

安装Ollama

Ollama支持linux、MacOS、Windows平台的安装,打开官网页面直接点击Download按钮下载会自动下载适合自己系统的安装包

安装完后打开终端,输入ollama -v正常情况下会输出版本信息:

➜ ollama -v
ollama version is 0.5.7

除此之外也支持api调用,访问http://localhost:11434/会返回Ollama is running

下载大模型

Ollama安装完毕后就可以下载大模型了,Ollama支持很多厂商的模型,可以在官网https://ollama.com/search查看

这里搜索deepseek安装deepseek-r1模型,左侧有对应的标签,默认是7b体量,读者需要根据自己机器情况安装合适的体量模型

本人机器MacOS配置如下

14b也绰绰有余,7b相对14b来说有很多噪点,这里就直接7b了

打开终端,直接输入:

ollama pull deepseek-r1:14b

是不是感觉命令和docker很像,是的Ollama的大多数命令都和docker类似,可以在终端输入ollama查看

回车后就开始拉取文件了,整体时间受模型的大小网速影响

运行模型

拉取完后就可以使用了,可以先输入以下命令输出本地所有的模型

➜ ollama list
NAME               ID              SIZE      MODIFIED
deepseek-r1:14b    ea35dfe18182    9.0 GB    3 minutes ago
deepseek-r1:7b     0a8c26691023    4.7 GB    39 hours ago
llama3.2:latest    a80c4f17acd5    2.0 GB    2 days ago

运行模型:

➜ ollama run deepseek-r1:14b
>>> Send a message (/? for help)

这里本人试下青椒炒蛋教程

除此之外也可以使用REST API进行调用,这里我们接着使用上一篇使用到的Nodejs代码:

import readline from "readline";
import axios from "axios";const API_URL = "http://localhost:11434/api/chat";
const MODEL = "deepseek-r1:14b";async function generateMessage(inputText) {const completion = axios({url: API_URL,method: "POST",data: {model: MODEL,messages: [{ role: "user", content: inputText }],stream: true,},responseType: "stream",});completion.then((res) => {res.data.on("data", (chunk) => {process.stdout.write(JSON.parse(chunk.toString()).message.content || "");});res.data.on("end", () =>console.log("\n\n(以上是我的回答,请合理参考,祝您生活愉快!)\n\n"));});
}function bootstrap() {const rl = readline.createInterface({input: process.stdin,output: process.stdout,});console.log("我是一个智能助手,你可以向我提问任何问题,我将尽力回答。🌈🌈\n\n");rl.on("line", async (input) => {if (input === "q") {rl.close();return;}generateMessage(input);});rl.on("close", () => {console.log("\nBye!");process.exit(0);});
}try {bootstrap();
} catch (error) {console.error(error);process.exit(1);
}

来看下效果:

注意‼️ 如果使用ip进行调用的话,可能会访问不通,可执行以下命令后重启ollama即可

launchctl setenv OLLAMA_HOST "0.0.0.0"

OpenUI

来看看和界面应用结合使用,这里使用 OpenUI 开源免费的界面,类似于ChatGPT那种使用非常简单

这里直接使用docker部署:

docker run -d -p 3000:8080 --add-host=host.docker.internal:host-gateway -v open-webui:/app/backend/data --name open-webui ghcr.io/open-webui/open-webui:main

初次运行会下载需要的镜像,启动成功后就可以使用了

左上角可以选择本地已经下载好的模型

FastGPT

FastGPT 是上一篇文中用到的统一部署大模型的方案,关于它的安装配置这里不再介绍,可参考上篇文章。这里我们直接来配置本地模型

配置模型

首先还是要先使用ollama list列出本地模型,用docker运行FastGPT后打开OneAPI系统

点击创建渠道:

  • 将本地的模型写入
  • 密钥随便写不影响本地模型使用
  • 代理地址一定要使用ip

最后保存后使用编辑器打开config.json配置文件,将在系统中的模型写入配置文件:

{"llmModels": [{"provider": "ollama","model": "deepseek-r1:7b","name": "deepseek-r1:7b",// 参考上一篇,省略...},{"provider": "ollama","model": "deepseek-r1:14b","name": "deepseek-r1:14b",// 参考上一篇,省略...},// ...]
}

修改完后在终端重启容器:

docker compose down
docker compose up -d

创建应用

接下来就可以在FastGPT中创建聊天应用了,步骤和上一篇都是一样的

保存发布后来看下效果怎么样❓

可以看到影响非常迅速‼️ 当然也可以结合知识库,读者可以参考上一篇文章

到这里基本就可以使用了,下面再多介绍几款界面应用

ChatBox

Chatbox AI是一款AI客户端应用和智能助手,支持众多先进的AI模型和API,可在Windows、MacOS、Android、iOS、Linux 和网页版上使用

直接下载桌面应用,下载好后打开设置选择本地模型Ollama API,填写本地ollama地址,就可以选择本地已经下载好的模型了,最后确定即可

这里是使用llama3.2模型的情况

Chatbox比较简单很容易上手,作为日常助手使用完全够用。除此还有很多开源的界面应用、模型部署应用,如:Dify.AI等等,很多都支持知识库、工作流等复杂的情况,感兴趣的读者可以尝试一下

由于图片和格式解析问题,可前往 阅读原文

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.rhkb.cn/news/18177.html

如若内容造成侵权/违法违规/事实不符,请联系长河编程网进行投诉反馈email:809451989@qq.com,一经查实,立即删除!

相关文章

‌CBA认证‌(业务架构师认证)简介---适用人群、考试内容与形式、含金量与职业前景,以及‌CBA、TOGAF认证对比表格

‌CBA认证‌,即业务架构师认证(Certified Business Architect,CBA),是由业务架构师协会(Business Architecture Institute)推出的一项国际认证计划。该认证旨在评估和认证业务架构师的专业能力和…

保姆级GitHub大文件(100mb-2gb)上传教程

GLF(Git Large File Storage)安装使用 使用GitHub desktop上传大于100mb的文件时报错 The following files are over 100MB. lf you commit these files, you will no longer beable to push this repository to GitHub.com.term.rarWe recommend you a…

使用 Visual Studio Code (VS Code) 开发 Python 图形界面程序

安装Python、VS Code Documentation for Visual Studio Code Python Releases for Windows | Python.org 更新pip >python.exe -m pip install --upgrade pip Requirement already satisfied: pip in c:\users\xxx\appdata\local\programs\python\python312\lib\site-pa…

Python的那些事第二十一篇:Python Web开发的“秘密武器”Flask

基于 Flask 框架的 Python Web 开发研究 摘要 在 Web 开发的江湖里,Python 是一位武林高手,而 Flask 则是它手中那把小巧却锋利的匕首。本文以 Flask 框架为核心,深入探讨了它在 Python Web 开发中的应用。通过幽默风趣的笔触,结合实例和表格,分析了 Flask 的特性、优势以…

Qt开发①Qt的概念+发展+优点+应用+使用

目录 1. Qt的概念和发展 1.1 Qt的概念 1.2 Qt 的发展史: 1.3 Qt 的版本 2. Qt 的优点和应用 2.1 Qt 的优点: 2.2 Qt 的应用场景 2.3 Qt 的应用案例 3. 搭建 Qt 开发环境 3.1 Qt 的开发工具 3.2 Qt SDK 的下载和安装 3.3 Qt 环境变量配置和使…

【第4章:循环神经网络(RNN)与长短时记忆网络(LSTM)— 4.3 RNN与LSTM在自然语言处理中的应用案例】

咱今天来聊聊在人工智能领域里,特别重要的两个神经网络:循环神经网络(RNN)和长短时记忆网络(LSTM),主要讲讲它们在自然语言处理里的应用。你想想,平常咱们用手机和别人聊天、看新闻、听语音助手说话,背后说不定就有 RNN 和 LSTM 在帮忙呢! 二、RNN 是什么? (一)…

DeepSeek应用——与PyCharm的配套使用

目录 一、配置方法 二、使用方法 三、注意事项 1、插件市场无continue插件 2、无结果返回,且在本地模型报错 记录自己学习应用DeepSeek的过程,使用的是自己电脑本地部署的私有化蒸馏模型...... (举一反三,这个不单单是可以用…

国自然地区基金|影像组学联合病理组学预测进展期胃癌术后预后的研究|基金申请·25-02-13

小罗碎碎念 今天和大家分享一个国自然地区科学项目,执行年限为2020.01~2023.12,直接费用为34万元。 胃癌在我国发病形势严峻,现有TNM分期预后评估存在局限,难以满足精准医疗需求。本项目运用“医工结合,学科…

【Java集合一】集合概述

一、集合简介 Java 集合框架(Collection Framework)是 Java 提供的一组用于存储和操作对象的类和接口集合。这些集合类提供了不同的数据结构,使得数据的管理和操作更加方便和高效。 Java 集合框架提供了各种类型的数据结构,如列…

k8s集群搭建参考(by lqw)

文章目录 声明配置yum源安装docker安装 kubeadm,kubelet 和 kubectl部署主节点其他节点加入集群安装网络插件 声明 由于看了几个k8s的教程,都存在各种问题,自己搭建的时候,踩了不少坑,最后还是靠百度csdnchatGPT才搭建…

MySQL 插入替换语句(replace into statement)

我们日常使用 insert into 语句向表中插入数据时,一定遇到过主键或唯一索引冲突的情况,MySQL的反应是报错并停止执行后续的语句,而replace into语句可以实现强制插入。 文章目录 一、replace into 语句简介1.1 基本用法1.2 使用set语句 二、注…

日语发音的节拍

短音 每个假名(包括清音、浊音、半浊音)都占 1 拍。 长音 长音占 2 拍,发音时间比短音长 不同母音的长音形式不同(あ段あ,い段い,う段う,え段い/え,お段う/お) 促音 …

[AI]从零开始的llama.cpp部署与DeepSeek格式转换、量化、运行教程

一、前言 在上一次的DeepSeek的部署教程中,我们使用Ollama与LM Studio很轻松的部署了DeepSeek并且也完成了相关API的调用,如果还有不会的小伙伴请看下面的教程: DeepSeek本地部署:[AI]从零开始的DeepSeek本地部署及本地API调用教…

基于SSM+uniapp的数学辅导小程序+LW示例参考

1.项目介绍 系统角色:管理员、普通用户功能模块:用户管理、学习中心、知识分类管理、学习周报管理、口算练习管理、试题管理、考试管理、错题本等技术选型:SSM,Vue(后端管理web),uniapp等测试环…

解决DeepSeek服务器繁忙问题

目录 解决DeepSeek服务器繁忙问题 一、用户端即时优化方案 二、高级技术方案 三、替代方案与平替工具(最推荐简单好用) 四、系统层建议与官方动态 用加速器本地部署DeepSeek 使用加速器本地部署DeepSeek的完整指南 一、核心原理与工具选择 二、…

B+Tree在mysql中的使用

BTree的结构 BTree是B-Tree的变种,实际结构如图 绿色框框起来的部分,是索引部分,仅仅起到索引数据的作用,不存储数据。红色框框起来的部分,是数据存储部分,在其叶子节点中要存储具体的数据 BTree的特点 所有…

vue学习10

1.GPT和Copilot Copilot Tab接受 删除键,不接受 ctrlenter更多方案 更适合的是修改方向 const submitForm async () > {//等待校验结果await formRef.value.validate()//提交修改await userUpdateInfoService(form.value)//通知user模块,进行数据更…

我的新书《青少年Python趣学编程(微课视频版)》出版了!

🎉 激动人心的时刻来临啦! 🎉 小伙伴们久等了,我的第一本新书 《青少年Python趣学编程(微课视频版)》 正式出版啦! 📚✨ 在这个AI时代,市面上的Python书籍常常过于枯燥&…

总结:如何在SpringBoot中使用https协议以及自签证书?

总结:如何在SpringBoot中使用https协议以及自签证书? 前提一:什么是http协议?前提二:什么是https协议?一生成自签证书二 将证书转换为PKCS12格式三 配置SpringBoot(1)修改配置文件&a…

JAVA毕业设计212—基于Java+Springboot+vue3的校园运动场馆预约管理系统(源代码+数据库)

毕设所有选题: https://blog.csdn.net/2303_76227485/article/details/131104075 基于JavaSpringbootvue3的校园运动场馆预约管理系统(源代码数据库)212 一、系统介绍 本项目前后端分离(可以改为ssm版本),分为用户、管理员两种角色 1、用户&#xff…