【DeepSeek】在本地计算机上部署DeepSeek-R1大模型实战(完整版)

在这里插入图片描述

【作者主页】Francek Chen
【专栏介绍】 ⌈ ⌈ 人工智能与大模型应用 ⌋ ⌋ 人工智能(AI)通过算法模拟人类智能,利用机器学习、深度学习等技术驱动医疗、金融等领域的智能化。大模型是千亿参数的深度神经网络(如ChatGPT),经海量数据训练后能完成文本生成、图像创作等复杂任务,显著提升效率,但面临算力消耗、数据偏见等挑战。当前正加速与教育、科研融合,未来需平衡技术创新与伦理风险,推动可持续发展。

文章目录

    • 前言
    • 一、为什么需要本地部署大模型
    • 二、DeepSeek R1简介
      • DeepSeek-R1 Models
      • DeepSeek-R1-Distill Models
    • 三、在本地计算机部署DeepSeek R1
      • (一)安装Ollama
      • (二)下载DeepSeek R1
      • (三)运行DeepSeek R1
      • (四)安装Python
      • (五)安装Microsoft Visual C++ Build Tools
      • (六)使用Open WebUI增强交互体验
      • (七)每次使用大模型的步骤
      • (八)取消Ollama的开机自动启动
    • 小结


前言

Homepage

2025年1月,中国春节期间,DeepSeek爆火,称为全球最炙手可热的大模型。DeepSeek一路 “狂飙”,在美国科技界和美股市场掀起惊涛骇浪,1月27日,美国三大股指开盘即暴跌,英伟达、微软、谷歌母公司Alphabet、Meta等美国主要科技股均遭遇股市地震,其中英伟达跌近17%,单日市值蒸发约6000亿美元,创美股最高纪录。

这里以DeepSeek为例介绍在自己本地计算机上部署大模型的方法。操作过程中,遇到很多错误,借助于豆包大模型,把每个错误都解决了,顺利完成了安装过程。我的笔记本电脑是Windows10操作系统。实际上,只要电脑具有8GB内存和30GB可用磁盘空间即可安装最小版本的DeepSeek R1大模型。

特别强调,在自己本地计算机上部署DeepSeek R1大模型,不需要读者具备任何计算机基础知识,也不需要掌握任何编程知识,只要会使用Windows操作系统就可以,按照本文给出的步骤,一步步执行,就可以顺利完成所有操作。

一、为什么需要本地部署大模型

一般而言,DeepSeek、文心一言、豆包、Kimi等在线的大模型,功能非常强大,完全可以很好满足我们的需求。所以,大多数情况下,我们不需要在本地部署大模型。但是,当我们需要保护个人数据隐私时,也可以考虑在本地部署大模型。

和直接使用在线大模型(豆包、Kimi等)相比,在本地部署大模型具有以下优势:

  1. 数据隐私与安全性。第一,数据本地存储:所有数据运算和存储均在本地完成,不会上传至云端,有效避免了数据在传输和云端存储过程中可能带来的隐私泄露风险。第二,完全掌控数据:用户可以完全掌控数据的使用和存储,确保数据不被未经授权的访问或用于其他目的。第三,隐私保护机制:支持访问权限控制,进一步增强数据安全性。
  2. 定制化与灵活性。第一,自定义知识库训练:用户可以根据自己的需求对模型进行自定义知识库训练,进一步提升模型在特定领域的性能。第二,灵活调整模型参数:根据业务需求灵活调整模型参数和功能,满足不同场景下的个性化需求。第三,开源灵活性:开源模型一般都允许用户无限制地进行微调或将其集成到自己的项目中。
  3. 离线与高效使用。第一,离线访问:本地部署后,无需依赖网络连接,适合旅行或网络不稳定的场景,随时随地可用。第二,避免服务器繁忙:再也不用担心“服务器繁忙”的问题,提升使用体验。
  4. 成本与资源优化。第一,成本可控:长期使用比云服务更经济,尤其适合高频调用场景。第二,硬件友好:对硬件资源要求较低,可在较少GPU或高级CPU集群上运行,资源效率显著。
  5. 避免使用限制。本地部署避免了可能出现的使用限制,不受未来商业化影响,可永久免费使用。通过本地部署开源大模型,用户不仅能够享受强大的AI功能,还能在数据隐私、定制化需求和使用成本等方面获得显著优势。

二、DeepSeek R1简介

首先需要说明的是,大模型的训练过程需要耗费大量的计算资源(比如投入上亿元构建计算机集群去训练大模型),训练成本比较昂贵,个人是无法承担的。但是,训练得到的大模型,部署到计算机上,就不需要那么高的计算资源要求。但是,即使如此,在DeepSeek出现之前,很多市场上的大模型产品都是“贵族”模型,“段位”很高,通常需要依赖高端的硬件,配置大量的GPU,普通个人计算机一般很难运行大模型。2025年1月20日,我国杭州深度求索公司的DeepSeek R1大模型正式发布,它是一个基于深度学习的推荐系统模型,通常用于处理推荐任务,如商品推荐、内容推荐等。

Deepseek R1的发布,标志着大模型产品的“平民”时代已经到来,它大大降低了对计算机硬件的要求,可以部署在普通的个人计算机上,甚至部署在手机等便携式设备中。Deepseek采用了较为简洁高效的模型架构,去除了一些不必要的复杂结构和计算,在保证模型性能的基础上,降低了对计算资源的需求,使模型在本地计算机上运行更加轻松。通过先进的量化压缩技术,Deepseek将模型的参数进行压缩存储和计算,大大减少了模型所需的存储空间和计算量。2025年1月30日,微软公司宣布支持在Win11电脑本地运行DeepSeek R1大模型。

DeepSeek R1对硬件资源比较友好,对不同硬件配置有良好的适应性,能根据用户计算机硬件配置选择合适的模型版本。入门级设备拥有4GB 存和核显就能运行1.5B(Billion,十亿,大模型参数的数量)版本;进阶设备8GB内存搭配4GB显存就能驾驭7B版本;高性能设备则可选择32B版本。而且,DeepSeek R1支持低配置电脑,即使是没有独立显卡的低配置电脑,只要有足够的空余硬盘空间,如部署最大的6710亿参数的大模型需要至少1TB的空余空间,也能完成部署。

DeepSeek R1可以满足用户的数据隐私需求,本地部署能将所有数据运算都限制在本地,数据不会上传至云端,可有效避免数据传输和存储在云端可能带来的隐私泄露风险,满足用户对数据安全和隐私保护的要求。DeepSeek R1还可以满足定制需求,用户可以根据自己的需求对模型进行自定义知识库训练,进一步提升模型在特定领域的性能。

我们介绍了我们的第一代推理模型DeepSeek-R1-zero和DeepSeek-R1。DeepSeek-R1-Zero是一个通过大规模强化学习(RL)训练的模型,没有监督微调(SFT)作为初步步骤,在推理方面表现出卓越的性能。有了强化学习,DeepSeek-R1-Zero自然就出现了许多强大而有趣的推理行为。然而,DeepSeek-R1-Zero遇到了诸如无休止的重复、可读性差和语言混合等挑战。为了解决这些问题并进一步提高推理性能,引入了DeepSeek-R1,它在强化学习之前包含了冷启动数据。DeepSeek-R1在数学、代码和推理任务方面的性能可与OpenAI-o1媲美。为了支持研究社区,目前开源了DeepSeek-R1-Zero,DeepSeek-R1,以及基于Llama和Qwen的DeepSeek-R1提炼的六个密集模型。DeepSeek-R1-Distill-Qwen-32B在各种基准测试中优于OpenAI-o1-mini,为密集模型实现了新的最先进的结果。

在这里插入图片描述

图1 AI模型在多项任务中的表现对比

DeepSeek以开源的特性和极低的成本,在数学、编程、自然语言推理等任务上表现出色,性能不亚于美国顶级AI模型。特别是DeepSeek-R1,通过创新性运用强化学习技术,以极少量标注数据实现了推理能力的跨越式提升。在数学、编程、语言理解等核心能力上,完美比肩OpenAI-o1。这一系列创新成果不仅得到了行业的广泛认可,也让世界看到了中国AI技术的崛起之势。

DeepSeek-R1 Models

Model#Total Params#Activated ParamsContext LengthDownload
DeepSeek-R1-Zero671B37B128K🤗 HuggingFace
DeepSeek-R1671B37B128K🤗 HuggingFace

DeepSeek-R1- zero和DeepSeek-R1是基于DeepSeek-V3-Base训练的。关于模型架构的更多细节,请参考DeepSeek-V3存储库。

DeepSeek-R1-Distill Models

ModelBase ModelDownload
DeepSeek-R1-Distill-Qwen-1.5BQwen2.5-Math-1.5B🤗 HuggingFace
DeepSeek-R1-Distill-Qwen-7BQwen2.5-Math-7B🤗 HuggingFace
DeepSeek-R1-Distill-Llama-8BLlama-3.1-8B🤗 HuggingFace
DeepSeek-R1-Distill-Qwen-14BQwen2.5-14B🤗 HuggingFace
DeepSeek-R1-Distill-Qwen-32BQwen2.5-32B🤗 HuggingFace
DeepSeek-R1-Distill-Llama-70BLlama-3.3-70B-Instruct🤗 HuggingFace

DeepSeek-R1-Distill模型基于开源模型进行微调,使用DeepSeek-R1生成的样本。稍微改变了它们的配置和标记器。

三、在本地计算机部署DeepSeek R1

本节将详细介绍如何通过Ollama和Open WebUI在本地计算机环境中部署DeepSeek R1大模型。本地计算机至少需要8GB内存和30GB剩余磁盘空间。

(一)安装Ollama

Ollama是一个开源的本地化大模型部署工具,旨在简化大型语言模型(LLM)的安装、运行和管理。它支持多种模型架构,并提供与OpenAI兼容的API接口,适合开发者和企业快速搭建私有化AI服务。

访问Ollama官网(https://ollama.com/), 点击“Download”(如图2所示),根据操作系统(Windows、macOS或Linux)下载自己操作系统对应的安装包(如图3所示),比如,Windows用户可以点击“Windows”图标,然后,点击“Download for Windows”下载安装包。需要注意的是,对于Windows系统,这里仅支持Windows10及其以上版本。

在这里插入图片描述

图2 Ollama官网下载

在这里插入图片描述

图3 下载Windows版本Ollama

下载完成以后,双击安装包文件“OllamaSetup.exe”完成安装。安装完成后,在Windows系统中,输入快捷键Win + R,再在弹出的对话框中输入“cmd”并回车,打开cmd命令行工具窗口,输入以下命令验证是否安装成功:

ollama --version

如果显示Ollama版本号,说明安装成功(如图4所示)。

在这里插入图片描述

图4 Ollama安装成功

(二)下载DeepSeek R1

Ollama已经在第一时间支持DeepSeek R1,模型下载地址是https://ollama.com/library/deepseek-r1。 请根据自己的显存选择对应的模型,建议选择参数较少、体积最小的1.5B版本(如果计算机的配置较高,也可以选择参数较大的版本),这里的B是英文Billion(十亿),表示参数模型的参数规模,1.5B表示大模型的参数量是15亿。

在这里插入图片描述

图5 下载DeepSeek R1

当然,我们可以不用到这个下载地址手动下载,只需要在cmd命令行窗口中执行如下命令就可以自动下载DeepSeek R1大模型:

ollama run deepseek-r1:1.5b

该命令会自动下载并加载模型,下载时间取决于网络速度和模型大小。注意,如果在下载过程中,出现长时间停滞不动,可以敲击几次回车键。下载完成后,可以使用以下命令查看模型信息:

ollama list

该命令会列出本地已下载的模型及其状态。

(三)运行DeepSeek R1

可以在cmd命令行窗口中执行如下命令启动DeepSeek R1大模型:

ollama run deepseek-r1:1.5b

启动后,模型会进入交互模式,用户可以直接输入问题并获取回答。在交互模式下,可以测试DeepSeek R1的多种功能(如图6所示),例如:

  • 智能客服:输入常见问题,如“如何学习人工智能?”。
  • 内容创作:输入“请为我撰写一篇介绍沙县小吃的宣传文案”。
  • 编程辅助:输入“用Python绘制一个柱状图”。
  • 教育辅助:输入“解释牛顿第二定律”。

在这里插入图片描述

图6 测试DeepSeek R1的功能

cmd窗口关闭以后,DeepSeek R1大模型就停止运行了。下次再次使用时,需要再次在cmd窗口中执行如下命令启动DeepSeek R1大模型:

ollama run deepseek-r1:1.5b

这种以命令行的方式与大模型进行对话,显然不太友好,因此,下面介绍如何通过浏览器来与大模型进行对话,这里就需要安装Open WebUI,由于Open WebUI依赖于Python环境,因此,在安装Open WebUI之前,需要首先安装Python环境(注意,只是需要安装Python环境,并不需要学习Python语言,读者可以完全不会Python语言,大模型的安装和使用过程完全不会用到Python语言)。如果读者没有使用浏览器与大模型对话的需求,可以不用学习下面的安装步骤。

(四)安装Python

Python(发音[ˈpaɪθən])是1989年由荷兰人吉多·范罗苏姆(Guido van Rossum)发明的一种面向对象的解释型高级编程语言。Python的第一个公开发行版于1991年发行,在2004年以后,Python的使用率呈线性增长,并获得“2021年TIOBE最佳年度语言”称号,这是Python第5次被评为“TIOBE最佳年度语言”,它也是获奖次数最多的编程语言。发展到今天,Python已经成为最受欢迎的程序设计语言之一。

Python可以用于多种平台,包括Windows、Linux和MacOS等。这里使用的Python版本是3.12.2(该版本于2024年2月6日发布),不要安装最新的3.13版本。请到Python官方网站下载(官网下载地址)与自己计算机操作系统匹配的安装包,比如,64位Windows操作系统可以下载python-3.12.2-amd64.exe。运行安装包开始安装,在安装过程中,要注意选中“Add python.exe to PATH”复选框,如图7所示,这样可以在安装过程中自动配置PATH环境变量,避免了手动配置的烦琐过程。

在这里插入图片描述

图7 下载Python安装包

然后,点击“Customize installation”继续安装,在选择安装路径时,可以自定义安装路径,比如设置为“C:\python312”,并在“Advanced Options”下方选中“Install Python 3.12 for all users”(如图8所示)。

在这里插入图片描述

图8 安装Python 3.12

安装完成以后,需要检测是否安装成功。可以打开Windows操作系统的cmd命令界面,然后执行如下命令打开Python解释器:

cd C:\python312
python

如果出现图9所示信息,则说明Python已经安装成功。

在这里插入图片描述

图9 Python 3.12安装成功

(五)安装Microsoft Visual C++ Build Tools

备注:对于不同的计算机环境,本步骤可能不是必须的,读者可以先跳到第6步继续操作,如果在下面的第6步遇到报错信息说“缺少Microsoft Visual C++ Build Tools”,可以再回到本步骤安装Microsoft Visual C++ Build Tools,然后再执行第6步的安装。

在安装Open WebUI之前,在有些计算机上可能还需要安装Microsoft Visual C++ Build Tools,否则,安装Open WebUI过程会报错。可以到如下网址下载该工具安装包vs_BuildTools.exe:https://visualstudio.microsoft.com/zh-hans/visual-cpp-build-tools/

下载完成以后,双击安装包文件vs_BuildTools.exe进行安装,在弹出的安装界面中(如图10所示),在界面左上角的“桌面应用和移动应用”下方,选中“使用C++的桌面开发”,然后,点击界面右下角的“安装”按钮,完成安装。

在这里插入图片描述

图10 安装Microsoft Visual C++ Build Tools

(六)使用Open WebUI增强交互体验

只要是支持Ollama的WebUI都可以,如Dify、AnythingLLM等。这里使用比较简单而且也是与Ollama结合比较紧密的Open WebUI。

可以在cmd命令行窗口中执行如下命令安装Open WebUI(这里使用国内清华大学的安装源镜像,这样可以加快安装速度):

pip install open-webui -i https://pypi.tuna.tsinghua.edu.cn/simple

注意,如果在下载和安装过程中,出现长时间停滞不动,可以敲击几次回车键。

可以执行如下命令启动Open WebUI服务:

open-webui serve

注意,如果启动以后,看到下面界面(如图11所示),说明还没有启动成功,需要继续等待。可以敲击几次回车。

在这里插入图片描述

图11 启动Open WebUI

在继续等待过程中,可能屏幕上会出现一些错误信息,里面会包含如下内容:

requests.exceptions.ConnectTimeout: (MaxRetryError("HTTPSConnectionPool(host='huggingface.co', port=443)

这个错误信息说明,启动过程连接Hugging Face Hub失败。Hugging Face Hub网站在国外,所以,经常会连接失败,所以,导致open-webui启动过程始终停止不动。

直到出现下面屏幕信息以后(如图12所示),才说明启动成功了。

在这里插入图片描述

图12 Open WebUI启动成功

启动后,在浏览器中访问http://localhost:8080/即可进入Open WebUI界面。如果网页显示“拒绝连接”,无法访问Open WebUI界面,一般是由于你的计算机开启了Windows防火墙,可以点击“开始”菜单按钮,在弹出的界面中,在顶部的搜索框中输入“安全中心”(如图13所示),打开“Windows安全中心”,点击左侧的“防火墙和网络保护”,在右侧的“域网络”中,关闭防火墙。

在这里插入图片描述

图13 关闭防火墙

Open WebUI支持中文界面,可以在设置中调整语言,默认是你的Windows系统当前正在使用的语言。首先,需要注册一个管理员账号(如图14所示),然后,就可以开始使用了。

在这里插入图片描述

图14 注册管理员账号

在Open WebUI界面中,选择已下载的DeepSeek R1模型,即可开始对话测试。如图15所示,可以在对话框中输入“请介绍如何学习人工智能”然后回车,页面就会给出DeepSeek R1的回答结果(如图16所示)。

在这里插入图片描述

图15 开启对话

在这里插入图片描述

图16 对话结果

(七)每次使用大模型的步骤

当我们本次使用完大模型时,只需要关闭各个cmd命令行窗口,大模型就停止运行了。下次要再次使用时,还是按照一样的步骤进行操作:

1. 启动大模型
新建一个cmd命令行窗口,在cmd命令行窗口中执行如下命令启动DeepSeek R1大模型:

ollama run deepseek-r1:1.5b

2. 启动Open WebUI

再新建一个cmd命令行窗口,在cmd命令行窗口中执行如下命令启动Open WebUI服务:

open-webui serve

3. 在浏览器中访问大模型

在浏览器中访问http://localhost:8080/即可进入Open WebUI界面,开始使用大模型。

(八)取消Ollama的开机自动启动

前面步骤已经完成了DeepSeek R1大模型的部署,但是,你会发现,每次计算机关机以后,再次启动计算机时,Ollama会开机自动启动,导致占用计算机系统资源。当我们平时不使用DeepSeek R1时,为了让Ollama不占用计算机系统资源,我们需要禁止Ollama开机自动启动。

在Windows10系统中,输入快捷键Win + R,再在弹出的对话框中输入“msconfig”并回车,进入如图17所示系统设置界面,点击“启动”选项卡,在这个选项卡中点击“打开任务管理器”,进入如图18所示的任务管理器界面,在界面中,找到“ollama.exe”,把鼠标指针放到“已启动”上面,单击鼠标右键,在弹出的菜单中点击“禁用”,然后关闭任务管理器界面。经过这样设置以后,Ollama以后就不会开机自动启动了。

在这里插入图片描述

图17 进入系统配置界面

在这里插入图片描述

图18 禁用ollama.exe

下次在使用DeepSeek时,仍然采用之前介绍的方法,在cmd命令行窗口中执行如下命令启动DeepSeek R1大模型:

ollama run deepseek-r1:1.5b

小结

本文详细介绍了如何在本地计算机上部署DeepSeek R1大模型,主要针对普通用户和开发者,提供了一个简便的安装流程,并强调了本地部署大模型的优势。首先,介绍了为什么需要本地部署大模型,包括数据隐私与安全、定制化与灵活性、离线使用、高效性、成本可控等多方面的优势。相比于在线大模型,本地部署能够有效保护用户的隐私数据,避免信息泄露,并允许用户根据实际需求对模型进行定制和调整,提升使用体验。

接着,介绍了DeepSeek R1大模型的基本概念及其发布背景。DeepSeek R1是一个具有高效、低资源消耗特性的推荐系统模型,其优化了对计算资源的要求,使得普通的个人计算机也能承载其运行。特别是DeepSeek R1支持不同硬件配置的设备,适配不同规模的用户需求。这一创新使得大规模AI模型的使用不再局限于高端硬件环境,普通用户也能在本地计算机上运行。

本文核心部分详细讲解了通过Ollama和Open WebUI等工具进行DeepSeek R1部署的步骤。从安装Ollama开始,用户只需按照简单的命令行操作,便能轻松完成模型的下载与运行。而对于更复杂的需求,如通过浏览器与模型进行互动,用户可以安装Python环境并结合Open WebUI实现更友好的操作界面。这一部分的讲解深入浅出,即便没有编程经验的用户也能轻松上手,按照步骤完成安装与配置。

此外,还提到一些可能遇到的问题及其解决方案,确保用户在遇到问题时能够找到对应的解决方法。例如,针对下载过程中可能的停滞,提供了按回车键的操作提示;对于启动失败的情况,也给出了详细的排查步骤。通过这些细致的提示,有效降低了用户操作的复杂度和失败率。

总结来说,本文为普通用户提供了一个清晰、易懂的指南,帮助他们在本地计算机上部署并运行DeepSeek R1大模型。它不仅展示了如何通过简单的工具和命令实现AI技术的本地化使用,也进一步说明了大模型应用的普及和便利性。通过这篇文章,用户可以充分理解并享受到本地部署大模型带来的数据安全、定制化、离线使用等多方面的优势,促进了AI技术的民主化。

欢迎 点赞👍 | 收藏⭐ | 评论✍ | 关注🤗

在这里插入图片描述

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.rhkb.cn/news/16235.html

如若内容造成侵权/违法违规/事实不符,请联系长河编程网进行投诉反馈email:809451989@qq.com,一经查实,立即删除!

相关文章

可编程网卡芯片在京东云网络的应用实践【BGW边界网关篇】

目录导览 文章背景 一.网关问题分析 BGW专线网关机器运维变更困难 BGW专线网关故障收敛链路复杂且长 BGW专线网关不具备异构架构下的灾备能力 BGW专线网关硬件资源成本居高不下 二.技术方案设计实现 网络拓扑规划与VIP架构升级 硬件实现与N-Tb流量平滑迁移 三.落地…

接口测试Day12-持续集成、git简介和安装、Gitee远程仓库、jenkins集成

持续集成 概念: 团队成员将自己的工作成果,持续集成到一个公共平台的过程。成员可以每天集成一次,也可以一天集成多 次。 相关工具: 本地代码管理:git远程代码管理:gitee(国内)、github(国外)、gitlib(公司…

前端快速生成接口方法

大家好,我是苏麟,今天聊一下OpenApi。 官网 : umijs/openapi - npm 安装命令 npm i --save-dev umijs/openapi 在根目录(项目目录下)创建文件 openapi.config.js import { generateService } from umijs/openapi// 自…

三角测量——用相机运动估计特征点的空间位置

引入 使用对极约束估计了相机运动后,接下来利用相机运动估计特征点的空间位置,使用的方法就是三角测量。 三角测量 和对极几何中的对极几何约束描述类似: z 2 x 2 R ( z 1 x 1 ) t z_2x_2R(z_1x_1)t z2​x2​R(z1​x1​)t 经过对极约束…

WPS计算机二级•文档的文本样式与编号

听说这是目录哦 标题级别❤️新建文本样式 快速套用格式🩷设置标题样式 自定义设置多级编号🧡使用自动编号💛取消自动编号💚设置 页面边框💙添加水印🩵排版技巧怎么分栏💜添加空白下划线&#x…

【编程实践】vscode+pyside6环境部署

1 PySide6简介 PySide6是Qt for Python的官方版本,支持Qt6,提供Python访问Qt框架的接口。优点包括官方支持、LGPL许可,便于商业应用,与Qt6同步更新,支持最新特性。缺点是相比PyQt5,社区资源较少。未来发展…

soular基础教程-使用指南

soular是TikLab DevOps工具链的统一帐号中心,今天来介绍如何使用 soular 配置你的组织、工作台,快速入门上手。  1. 账号管理 可以对账号信息进行多方面管理,包括分配不同的部门、用户组等,从而确保账号权限和职责…

访问Elasticsearch服务 curl ip 端口可以 浏览器不可以

LINUX学习 在虚拟机上面的linux上面用docker 部署Elasticsearch项目后,在linux系统内部用curl ip 端口地址的形式可以访问到Elasticsearch。可以返回数据。 但是在本机的浏览器中输入ip 端口,会报错,找不到服务。 ping 和 trelnet均不通。 …

防火墙安全综合实验

防火墙安全综合实验 一、拓扑信息 二、需求及配置 实验步骤 需求一:根据下表,完成相关配置 设备接口VLAN接口类型SW2GE0/0/2VLAN 10AccessGE0/0/3VLAN 20AccessGE0/0/1VLAN List:10 20Trunk 1、创建vlan10和vlan20 2、将接口划分到对应…

通过客户端Chatbox或OpenwebUI访问识别不到本地ollama中的模型等问题的解决

Chatbox和Open WebUI 等无法获取到 Ollama里的模型,主要是由以下原因导致: Ollama 服务未正确暴露给 Docker 容器或客户端模型未正确下载或名称不匹配网络配置或权限问题 排查以上问题的思路首先排查ollama服务是否启动,然后再看端口号 使…

vue-点击生成动态值,动态渲染回显输入框

1.前言 动态点击生成数值&#xff0c;回显输入框&#xff0c;并绑定。 2.实现 <template><div style"display:flex;align-items: center;flex-direction:row"><a-input:key"inputKey"v-model"uploadData[peo.field]"placehold…

deepseek大模型集成到idea

1 下载插件 安装CodeGPT打开 IntelliJ IDEA&#xff0c;鼠标点击左上角导航栏&#xff0c;File --> Setting 2 申请API key 3 配置deepseek 在 Settings 界面中的搜索框中&#xff0c;搜索 CodeGPT&#xff0c;路径 Tools --> CodeGPT --> Providers --> 如下一…

C++引用深度详解

C引用深度详解 前言1. 引用的本质与核心特性1.1 引用概念1.2 核心特性 2. 常引用与权限控制2.1 权限传递规则2.2 常量引用2.3 临时变量保护1. 样例2. 样例3. 测试 三、引用使用场景分析3.1 函数参数传递输出型参数避免多级指针高效传参 3.2 做函数返回值正确使用危险案例 4. 性…

npm运行Vue项目报错 error:0308010c:digital envelope routines::unsupported

大家好&#xff0c;我是 程序员码递夫。 问题 VSCode 运行Vue项目&#xff0c;提示错误&#xff1a; building 2/2 modules 0 activeError: error:0308010c:digital envelope routines::unsupported 解决方法 原因是 npm 高版本(大于17)&#xff0c;对ssl的处理做了改进&…

蓝桥杯---N字形变换(leetcode第6题)题解

文章目录 1.问题重述2.例子分析3.思路讲解4.代码分析 1.问题重述 这个题目可以是Z字形变换&#xff0c;也可以叫做N字形变换&#xff1a; 给定我们一串字符&#xff0c;我们需要把这串字符按照先往下写&#xff0c;再往右上方去写&#xff0c;再往下去写&#xff0c;再往右上…

第六篇:数字逻辑的“矩阵革命”——域控制器中的组合电路设计

副标题 &#xff1a;用卡诺图破解车身域控制器的逻辑迷宫&#xff0c;揭秘华为DriveONE的“数字特工” ▍ 开篇&#xff1a;黑客帝国世界观映射 > "Welcome to the Real World." —— Morpheus > 在数字逻辑的世界里&#xff0c;组合电路就是构建Matr…

Linux(Ubuntu)安装pyenv和pyenv-virtualenv

Ubuntu安装pyenv和pyenv-virtualenv 安装 pyenv1. 下载 pyenv2. 配置环境变量3. 重启 Shell4. 安装依赖5.检测是否安装成功 安装 pyenv-virtualenv1. 安装 pyenv-virtualenv2. 配置环境变量3. 重启 Shell pyenv 的使用1. 查看可安装的 Python 版本2. 安装指定版本的 Python3. 查…

LVS集群

特性NAT 模式DR 模式工作原理Director 修改请求/响应的 IP 地址和端口&#xff0c;流量双向经过 DirectorDirector 仅修改请求的 MAC 地址&#xff0c;响应由 Real Server 直接返回客户端性能较低&#xff08;需处理双向流量&#xff0c;易成瓶颈&#xff09;高&#xff08;仅处…

远程桌面连接提示被锁 更改帐户锁定策略

解锁&#xff1a; 从 hyper-v管理器进入 vm cmd 进入 gpedit.msc 计算机配置 -> Windows 设置 -> 安全设置 -> 帐户策略 -> 帐户锁定策略 可以把 允许管理员帐户锁定 禁用&#xff0c;也可以把 帐户锁定阈值 调大一点&#xff08;如果还会锁定 时间查看器 ->…

docker.service job docker.service/start failed with result ‘dependency‘

Bug:docker.service job docker.service/start failed with result ‘dependency’ 运行以下命令&#xff1a; sudo systemctl start docker.service出现错误&#xff1a; docker.service job docker.service/start failed with result dependency解决办法&#xff1a; 给系…