【fnOS飞牛云NAS本地部署DeepSeek-R1结合内网穿透远程访问告别服务器繁忙】

💝💝💝欢迎来到我的博客,很高兴能够在这里和您见面!希望您在这里可以感受到一份轻松愉快的氛围,不仅可以获得有趣的内容和知识,也可以畅所欲言、分享您的想法和见解。
img

  • 推荐:kwan 的首页,持续学习,不断总结,共同进步,活到老学到老
  • 导航
    • 檀越剑指大厂系列:全面总结 java 核心技术,jvm,并发编程 redis,kafka,Spring,微服务等
    • 常用开发工具系列:常用的开发工具,IDEA,Mac,Alfred,Git,typora 等
    • 数据库系列:详细总结了常用数据库 mysql 技术点,以及工作中遇到的 mysql 问题等
    • 新空间代码工作室:提供各种软件服务,承接各种毕业设计,毕业论文等
    • 懒人运维系列:总结好用的命令,解放双手不香吗?能用一个命令完成绝不用两个操作
    • 数据结构与算法系列:总结数据结构和算法,不同类型针对性训练,提升编程思维,剑指大厂

非常期待和您一起在这个小小的网络世界里共同探索、学习和成长。💝💝💝 ✨✨ 欢迎订阅本专栏 ✨✨

博客目录

    • 前言
    • 1. 环境准备
    • 2. 部署 Ollama
    • 3.本地部署 deepseek-r1 模型
    • 4. Page Assist 浏览器插件安装与配置
    • 5. 安装内网穿透
      • 5.1 开启 ssh 连接安装 cpolar
      • 5.2 创建远程连接公网地址
    • 6. 配置固定公网地址

前言

今天和大家分享一下如何在本地的 fnOS 飞牛云 NAS 中部署 DeepSeek-R1 大模型,并结合 cpolar 内网穿透工具轻松实现远程访问与使用本地大模型,无需公网 IP 也不用准备云服务器那么麻烦。

随着越来越多的人知道并了解了 DeepSeek 的强大,官方自然也收获了更多人的关注。访问的人一多,就经常出现服务器繁忙的情况。不过对于了解一些技术知识的人来说,选择在本地部署 DeepSeek 就能轻松解决这个问题。

现在本地部署的方案很多,如果是轻量级的 DeepSeek 模型,那么使用家用级的硬件就可以。如果希望体验满血版的 DeepSeek,那么可能需要调用一些服务商的 API 接口,或者是相对配置较高的硬件来实现纯本地部署来获得更佳的使用效果与隐私保护。

而像 NAS 这种 24 小时开机的形式,就很适合部署大模型,方便我们随时访问进行提问。今天笔者就在飞牛云 NAS 上分享一下如何本地部署 DeepSeek,根据大家安装 fnOS 的硬件配置不同,可以选择的模型规模也从 1.5B 到 70B,甚至 671B 不等。大家自己根据实际情况选择即可,下面就来进行具体操作演示。

image-20250225140851074

1. 环境准备

fnOSOllamaDeepSeek-R1 模型Page Assist 浏览器插件:本地 AI 模型的 Web UI

fnOS 基于最新 Linux 内核(Debian 发行版)深度开发,兼容主流 x86 硬件,灵活扩展外部存储。

如果您想要在 x86 架构的物理机中安装,可以访问飞牛私有云 fnOS官网下载镜像文件然后使用 U 盘写入镜像后,进入 bios 设置 U 盘启动后像装 Windows 系统一样安装即可。

本例中使用 VMware Workstation 安装的 fnOS 虚拟机,系统版本为 V0.8.37。如果不知道如何在虚拟机中安装,可以参考这篇文章:VMware 中安装飞牛云(fnOS) NAS 系统

其他软件在安装好 fnOS 后,使用 Docker 与命令行进行安装。

2. 部署 Ollama

首先启动 fnOS,可以看到飞牛云 nas 的 Web UI 界面的地址:

image-20250225132904182

在浏览器中访问即可(账号密码在安装 fnos 时设置):

image-20250225132925258

为了能正常使用 Deepseek-R1 模型,我们首先需要部署本地大模型运行工具:Ollama

打开 Docker,选择镜像仓库,在搜索框中输入 ollama,第一个 1K+星星的就是,点击下载按钮:

image-20250225133205199

选择默认的 latest 镜像标签,确定:

image-20250225133328604

然后在本地镜像中能看到正在下载 ollama 镜像:

image-20250225133424526

如果不能正常下载,或者下载失败,那么大家可以点击镜像仓库 → 右上角仓库设置 → 点击添加 → 名字随便填,地址填入地址:https://docker.1ms.run 填写完成之后选择新添加的仓库,点击启用。

image-20250225133553878

676cc5bb-13d2-4fbd-88db-be3759402039.png

Ollama 镜像下载完毕后,点击运行按钮,开始创建 ollama 容器:

image-20250225134018497

勾选开机自动开启容器,下一步:

image-20250225134039705

在高级设置的储存位置中,点击添加路径:

image-20250225134230640

在我的文件路径中,点击左下角的新建文件夹,创建一个名为 docker 的文件夹:

image-20250225134328659

image-20250225134349339

然后选择它,点击确定:

image-20250225134418911

在装载路径中填写:/root/.ollama

image-20250225134523965

然后,点击下方的环境变量:

image-20250225134600736

点击添加变量,变量名输入 OLLAMA_ORIGINS 值输入 *

然后点击下一步:

image-20250225134746558

确认信息无误后,点击创建 ollama 容器:

image-20250225134839203

然后点击左侧容器,可以看到 ollama 容器已经显示绿色正常运行状态,点击后边的更多按钮:

image-20250225135223786

打开终端:

image-20250225135248220

点击连接:

image-20250225135343554

3.本地部署 deepseek-r1 模型

现在我们就可以在终端中通过命令行来安装 deepseek-r1 模型了:

image-20250225135451186

安装 deepseek-r1 模型的命令我们可以访问 ollama 官网:https://ollama.com/download

点击 Model:页面跳转后可以看到第一个就是 DeepSeek-r1 模型:

image-20250205154710576

找到你想要下载的各种量级的 deepseek-r1 模型,右边就是对应的模型下载命令,如果你安装 fnOS 飞牛云 NAS 的主机配置较高,可以选择 32B 或者 70B 模型,更多参数配置可以参考下图:

image-20250219144230816

我这里下载 1.5b 的轻量级 deepseek 模型进行演示,在终端中执行这个命令就能下载了:

image-20250205154929276

ollama run deepseek-r1:1.5b

image-20250225140621200

可以看到已经开始下载 deepseek-r1:1.5b 模型了:

image-20250225140701076

等待一会儿后,会看到 success 提示,现在已经成功在本地部署好了 deepseek-r1:1.5b 模型了:

image-20250225140851074

我们可以直接在终端中与它进行对话:

image-20250225140955879

现在已经完成了在本地 fnOS 飞牛云 NAS 中部署 deepseek-r1 模型与 AI 进行聊天了!

但是在终端界面中聊天可能不是很美观,而且在复制回答时也不太方便,我们可以通过安装一个 Web UI 界面来解决这个问题。

4. Page Assist 浏览器插件安装与配置

通过在电脑中安装 Page Assist 浏览器插件是目前相对简单的一个 Web UI 解决方案,可以在 Chrome 浏览器的应用商店中在线安装,也可以下载应用程序后离线安装。

Github 官网:https://github.com/n4ze3m/page-assist

安装后在 Chrome 浏览器中接入刚才部署的 Ollama 地址,就可以在任何有网络的设备中使用 Chrome 浏览器在网页中与 DeepSeek 对话,享受更方便快捷的 AI 交互体验。

首先打开 Chrome 浏览器,进入应用商店:

image-20250217172805737

在顶部搜索框中搜索 Page Assist:

image-20250217172848265

点击添加至 Chrome:

image-20250217173120232

在弹出的提示框中点击添加扩展程序:

image-20250217173146943

添加后在浏览器右上角的扩展程序图标中打开它即可看到 Web UI 界面了:

image-20250217173327844

PS:如果访问不了 chrome 应用商店添加插件,我已打包插件文件到网盘,需要的可以自取:

链接: https://pan.baidu.com/s/1gzrgj1os64-VDOm1oWO0dA?pwd=6666 提取码: 6666

下载好插件文件后,在 chrome 浏览器中输入: chrome://extensions/ 进入扩展程序安装界面

将插件文件拖入这个界面,点击安装扩展程序即可。

image-20250218105518541

image-20250218105544504

回到 Page Assist 的 Web UI 主界面,点击右上角设置–ollama 设置,将模型地址进行修改为你的飞牛云 NAS 的 IP 地址+ollama 端口号,就能实现同一局域网内的其他小伙伴在浏览器中安装了 Page Assist 插件后,也可以直接访问你在本地部署的 DeepSeek 大模型了!

image-20250225145736624

回到 Page Assist 的 Web UI 主界面,点击上方模型选择可以看到刚才本地部署的 deepseek-r1:1.5b:

image-20250217173618434

选择好模型后即可在下方输入框中与 deepseek 聊天啦!

image-20250217173859546

底部联网开关打开,还可以进行联网搜索:

image-20250218104810399

点击左上角展开侧边栏图标可以看到聊天历史记录:

image-20250218110656120

点击右上角三个点按钮,可以复制与下载回答,支持多种格式:

image-20250218110802762

5. 安装内网穿透

我们现在已经实现了在本地 fnOS 飞牛云 NAS 中部署 Ollama 并接入 Deepseek-R1 模型,并在 Chrome 浏览器中安装 Page Assist 插件快速搭建本地 AI 模型的 Web UI 界面实现同一局域网内用户都能在网页中与 AI 模型聊天。

但如果你的主机配置很不错,想让异地好友或者同事也能远程使用你在本地飞牛云 NAS 中部署的 deepseek 大模型应该怎么办呢?很简单,只要安装一个 cpolar 内网穿透工具就能轻松实现远程访问内网主机中部署的服务了,他人无需二次部署,节约成本,提高效率,接下来介绍一下如何安装 cpolar 内网穿透。

cpolar 官网地址: https://www.cpolar.com

5.1 开启 ssh 连接安装 cpolar

首先打开飞牛云 NAS 设置界面,开启 ssh 连接,端口默认为 22 即可,开启后,我们就可以 ssh 连接飞牛云 NAS 执行命令:

853d0e568b7879cca312f7b18d4fbb4.png

然后我们通过输入飞牛云 NAS 的 IP 地址 ssh 远程连接进去,因为 fnOS 是基于 Linux 内核开发的,所以我们可以按照 cpolar 的 Linux 安装方法进行安装:

image-20250225152553263

连接后执行下面 cpolar Linux 安装命令:

sudo curl https://get.cpolar.sh | sh

再次输入飞牛云 nas 的密码确认后即可自动安装

安装完成后,执行下方命令查看 cpolar 服务状态:(如图所示即为正常启动)

sudo systemctl status cpolar

image-20250225153049854

Cpolar 安装和成功启动服务后,在浏览器上输入飞牛云主机 IP 加 9200 端口即:【http://localhost:9200】访问 Cpolar 管理界面,使用官网注册的账号登录,登录后即可看到配置界面,接下来在 web 界面配置即可:

image.png

5.2 创建远程连接公网地址

登录 cpolar web UI 管理界面后,点击左侧仪表盘的隧道管理——创建隧道:

  • 隧道名称:可自定义,本例使用了: fnos 注意不要与已有的隧道名称重复
  • 协议:http
  • 本地地址:11434
  • 域名类型:随机域名
  • 地区:选择 China Top

image-20250225153431473

创建成功后,打开左侧在线隧道列表,可以看到刚刚通过创建隧道生成了两个公网地址,接下来你的好友在安装了 Page Assist 插件的 Chrome 浏览器的 ollama 设置中使用上面的任意一个公网地址替换刚才 IP 加端口号的地址,点击保存按钮后,就可以实现随时随地远程访问你在本地部署的 deepseek 大模型聊天了!

image-20250225153533091

使用了 cpolar 的公网域名,无需自己购买云服务器,轻松搞定跨网络环境远程访问本地服务!

image-20250225153713724

image-20250225153750348

小结

为了方便演示,我们在上边的操作过程中使用 cpolar 生成的 HTTP 公网地址隧道,其公网地址是随机生成的。这种随机地址的优势在于建立速度快,可以立即使用。然而,它的缺点是网址是随机生成,这个地址在 24 小时内会发生随机变化,更适合于临时使用。

如果有长期使用 Chrome 浏览器远程访问本地飞牛云 NAS 中部署的 DeepSeek 等大模型,或者异地访问与使用其他本地部署的服务的需求,但又不想每天重新配置公网地址,还想让公网地址好看又好记并体验更多功能与更快的带宽,那我推荐大家选择使用固定的二级子域名方式来配置公网地址。

6. 配置固定公网地址

接下来演示如何为 ollama 服务配置固定的 HTTP 公网地址,该地址不会变化,方便分享给别人长期访问你部署的大模型,而无需每天重复修改服务器地址。

配置固定 http 端口地址需要将 cpolar 升级到专业版套餐或以上。

登录 cpolar 官网,点击左侧的预留,选择保留二级子域名,设置一个二级子域名名称,点击保留,保留成功后复制保留的二级子域名名称:

image-20250225154102331

保留成功后复制保留成功的二级子域名的名称:fnollama,大家也可以设置自己喜欢的名称。

image-20250225154124361

返回 Cpolar web UI 管理界面,点击左侧仪表盘的隧道管理——隧道列表,找到所要配置的隧道:fnos,点击右侧的编辑:

image-20250225154215418

修改隧道信息,将保留成功的二级子域名配置到隧道中

  • 域名类型:选择二级子域名
  • Sub Domain:填写保留成功的二级子域名:fnollama

点击更新(注意,点击一次更新即可,不需要重复提交)

image-20250225154258400

更新完成后,打开在线隧道列表,此时可以看到公网地址已经发生变化,地址名称也变成了固定的二级子域名名称的域名:

image-20250225154400703

最后,我们在 Chrome 浏览器的 Page Assist 插件 ollama 设置界面中使用上面的任意一个固定的二级子域名公网地址替换刚才的随机公网地址,现在开始就不用每天都更换公网地址来远程访问本地部署的 deepseek 大模型了。

image-20250225154450750

image-20250225154618046

以上就是如何在 fnOS 飞牛云 NAS 中本地安装 Ollama 与 deepseek-r1 模型,并使用 Chrome 浏览器安装 Page Assist 插件快速搭建 web 页面,然后结合 cpolar 内网穿透工具配置固定不变的二级子域名公网地址,实现随时随地远程访问本地部署的 deepseek 大模型的全部流程,感谢您的观看,有任何问题欢迎留言交流。

觉得有用的话点个赞 👍🏻 呗。
❤️❤️❤️本人水平有限,如有纰漏,欢迎各位大佬评论批评指正!😄😄😄

💘💘💘如果觉得这篇文对你有帮助的话,也请给个点赞、收藏下吧,非常感谢!👍 👍 👍

🔥🔥🔥Stay Hungry Stay Foolish 道阻且长,行则将至,让我们一起加油吧!🌙🌙🌙

img

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.rhkb.cn/news/25080.html

如若内容造成侵权/违法违规/事实不符,请联系长河编程网进行投诉反馈email:809451989@qq.com,一经查实,立即删除!

相关文章

Python学习第十七天之PyTorch保姆级安装

PyTorch安装与部署 一、准备工作二、pytorch介绍三、CPU版本pytorch安装1. 创建虚拟环境2. 删除虚拟环境1. 通过环境名称删除2. 通过环境路径删除 3. 配置镜像源4. 安装pytorch1. 首先激活环境变量2. 进入pytorch官网,找到安装指令 5. 验证pytorch是否安装成功 四、…

内存管理+模板基础知识

在前面的博客中,我们已经基本学习完了类和对象有关知识,在这篇博客中,我们将要学习C/C内存管理与模板的一些基础知识。 目录 一、C/C内存管理 1.1 C/C内存分布 1.2 C内存管理方式 1.2.1 new/delete操作内置类型 1.2.2 new和delete操作自…

新建菜单项的创建之CmpGetValueListFromCache函数分析

第一部分: PCELL_DATA CmpGetValueListFromCache( IN PHHIVE Hive, IN PCACHED_CHILD_LIST ChildList, OUT BOOLEAN *IndexCached, OUT PHCELL_INDEX ValueListToRelease ) 0: kd> dv KeyControlBlock 0xe1…

《无畏契约》运行时提示“d3dcompiler_43.dll丢失”是什么原因?“找不到d3dcompiler_43.dll文件”如何解决?

--- 使用DLL修复工具(懒人专用) https://file-xfqdx-cdn.fanqiesoft.cn/package/XFQDXTool_21121_tg.exe 逐步说明: 步骤1:重新安装《无畏契约》 - 操作指南: - 打开“控制面板” → “程序和功能”。 - 在列表…

蓝牙接近开关模块感应开锁手机靠近解锁支持HID低功耗

ANS-BT101M是安朔科技推出的蓝牙接近开关模块,低功耗ble5.1,采用UART通信接口,实现手机自动无感连接,无需APP,人靠近车门自动开锁,支持苹果、安卓、鸿蒙系统,也可以通过手机手动开锁或上锁&…

Ubuntu 22.04 安装Nvidia驱动加速deepseek

一键安装22.04 nvidia 驱动 nvidia 官网下载驱动我的环境是NVIDIA RTX A5000nvidia 文档参考没有安装驱动之前确认自己的型号 lspci | grep -i vga (如数字2231) 参考docker 支持nvidia ,注释了需要的取消注释即可 42行-92行一定要重启服务器…

数据结构——双链表

1. 双向带头循环链表 1. 双链表的功能 1. 初始化 2. 销毁 3. 打印 4. 检查链表是否为空 5. 尾插 6. 尾删 7. 头插 8. 头删 9. 在目标节点之后插入数据 10. 删除目标节点 11. 查找 2. 双链表的定义 结构体需要包含三个成员,一个成员存储数据,一个成员存储…

微服务2025/2/15

微服务是一种软件架构风格,它是以专注于单一职责的很多小型项目为基础,组合出复杂的大型应用。 微服务是一种架构。 微服务是一种架构。 微服务是一种架构。 以前自己做项目最常用的架构是单体架构。单体项目不适合开发大型项目。 学习微服务技术来解…

Locust性能压测工具使用指南

Locust是一款用Python编写的开源性能测试工具,主要用于对网站或其他系统进行负载测试和性能测试,以下是关于它的详细介绍: 特点 高可扩展性:能够轻松模拟大量用户并发访问,通过简单增加节点,可以在短时间…

DaoCloud 亮相 2025 GDC丨开源赋能 AI 更多可能

2025 年 2 月 21 日至 23 日,上海徐汇西岸,2025 全球开发者先锋大会以 “模塑全球,无限可能” 的主题,围绕云计算、机器人、元宇宙等多元领域,探讨前沿技术创新、应用场景拓展和产业生态赋能,各类专业论坛、…

Linux 环境“从零”部署 MongoDB 6.0:mongosh 安装与数据操作全攻略

前提 完成linux平台部署MongoDB【部署教程】且完成mongosh的安装 由于本人使用的是6.0版本的MongoDB,新版本 MongoDB(尤其是 6.0 及以上版本)已经不再默认捆绑传统的 mongo shell,而改用新的 MongoDB Shell(mongosh&am…

SQL注入之二次注入

1、概述 二次注入是指已存储(数据库、文件)的用户输入被读取后再次进入到 SQL 查询语句中导致的注入。 二次注入是sql注入的一种,但是比普通sql注入利用更加困难,利用门槛更高。普通注入数据直接进入到 SQL 查询中,而…

AORO M6北斗短报文终端:将“太空黑科技”转化为安全保障

在卫星导航领域,北斗系统作为我国自主研发的全球卫星导航系统,正以其独特的短报文通信功能引发全球范围内的广泛关注。这一突破性技术不仅使北斗系统在全球四大导航系统中独树一帜,具备了双向通信能力,更通过遨游通讯推出的AORO M…

xss-lab

xss XSS全称跨站脚本(Cross Site Scripting),为避免与层叠样式表(Cascading Style Sheets, CSS)的缩写混淆,故缩写为XSS。这是一种将任意 Javascript 代码插入到其他Web用户页面中执行以达到攻击目的的漏洞。攻击者利用浏览器的动态展示数据功能&#x…

服务器为什么会禁止 Ping?服务器禁止 Ping 的好处

在网络管理和服务器运维中,经常会遇到服务器禁止 Ping 的情况。为了确保网络安全和减少不必要的风险,管理员可能会选择禁止 Ping 命令,即禁止服务器响应 ICMP 请求。尽管 Ping 命令是网络诊断中常用的工具,但禁止 Ping 也有其合理…

课程2. 用PyTorch训练神经网络与梯度下降

课程2. 用PyTorch训练神经网络与梯度下降 Pytorchtorch.TensorPytorch 上的神经网络用于余弦函数逼近的全连接神经网络 训练神经网络 梯度下降最小化一个变量的函数最小化多个变量的函数使用梯度下降训练神经网络在 Pytorch 中训练神经网络从 nn.Module 类继承 将计算传输到显卡…

IP-----动态路由OSPF(2)

这只是IP的其中一块内容,IP还有更多内容可以查看IP专栏,前一章内容为动态路由OSPF ,可通过以下路径查看IP-----动态路由OSPF-CSDN博客,欢迎指正 注意!!!本部分内容较多所以分成了两部分在上一章 5.动态路…

手机打电话时如何识别对方按下的DTMF按键的字符-安卓AI电话机器人

手机打电话时如何识别对方按下的DTMF按键的字符 --安卓AI电话机器人 一、前言 前面的篇章中,使用蓝牙电话拦截手机通话的声音,并对数据加工,这个功能出来也有一段时间了。前段时间有试用的用户咨询说:有没有办法在手机上&#xff…

深入剖析:自定义实现C语言中的atoi函数

在C语言的标准库中, atoi 函数是一个非常实用的工具,它能够将字符串形式的数字转换为对应的整数。然而,当我们深入探究其实现原理时,会发现其中蕴含着许多有趣的编程技巧和细节。本文将详细讲解如何自定义实现一个类似 atoi 功能的…

PyTorch 源码学习:GPU 内存管理之它山之石——TensorFlow BFC 算法

TensorFlow 和 PyTorch 都是常用的深度学习框架,各自有一套独特但又相似的 GPU 内存管理机制(BFC 算法)。它山之石可以攻玉。了解 TensorFlow 的 BFC 算法有助于学习 PyTorch 管理 GPU 内存的精妙之处。本文重点关注 TensorFlow BFC 算法的核…