【ChatGLM】记录一次Windows部署ChatGLM-6B流程及遇到的问题

文章目录

  • 部署环境
  • 文件下载
    • 项目文件
    • 模型配置文件
    • 模型文件
  • 运行demo
  • 遇到的问题

部署环境

系统版本:Windows 10 企业版
版本号:20H2
系统类型:64 位操作系统, 基于 x64 的处理器
处理器:Intel® Core™ i7-8700 CPU @ 3.20GHz 3.19 GHz
机带 RAM:16.0 GB
显卡:NVIDIA RTX 2070(8G)
Python版本:3.10.11

文件下载

文件分为两个部分:

  • github上开源的训练、推理、以及运行demo、api的一些代码文件
  • huggingface上的语言模型相关文件,主要包含官方训练好的大语言模型文件,以及模型文件对应的一些配置文件,其中模型文件会很大,可以使用GIT LFS下载,或者直接上清华的网盘上下载,本文使用的是从网盘下载,配置文件直接clone即可,clone前设置GIT_LFS_SKIP_SMUDGE=1,可跳过大文件的下载,只下载模型文件之外的配置文件。

项目文件

git clone https://github.com/THUDM/ChatGLM-6B.git

安装依赖:

cd ChatGLM-6Bpip install -r requirements.txt

模型配置文件

GIT_LFS_SKIP_SMUDGE=1 git clone https://huggingface.co/THUDM/chatglm-6b

模型文件

chatglm-6b:(只有chatglm-6b)

https://cloud.tsinghua.edu.cn/d/fb9f16d6dc8f482596c2/

其他:(包含chatglm-6b-int4、chatglm-6b-int8…)

https://cloud.tsinghua.edu.cn/d/fb9f16d6dc8f482596c2/

按需下载,下载后替换至上一步中下载的chatglm-6b目录下。

注:下载之后,需要对比每个文件大小,如果有文件不完整,将运行失败

模型文件必须要和配置文件配套下载,否则运行不成功

文件保存位置:

D:\ChatGLM-6B\ChatGLM-6B\THUDM\chatglm-6b

下载完成之后,修改第5、6行:将参数文件路径换为本地的

运行demo

python web_demo.py

遇到的问题

  1. RuntimeError: Internal: D:\a\sentencepiece\sentencepiece\src\sentencepiece_processor.cc(1102) [model_proto->ParseFromArray(serialized.data(), serialized.size())]
Traceback (most recent call last):File "D:\ChatGLM-6B\ChatGLM-6B\web_demo.py", line 5, in <module>tokenizer = AutoTokenizer.from_pretrained("D:\\ChatGLM-6B\\ChatGLM-6B\\THUDM\\chatglm-6b", trust_remote_code=True, revision="")File "D:\python3.10\lib\site-packages\transformers\models\auto\tokenization_auto.py", line 679, in from_pretrainedreturn tokenizer_class.from_pretrained(pretrained_model_name_or_path, *inputs, **kwargs)File "D:\python3.10\lib\site-packages\transformers\tokenization_utils_base.py", line 1804, in from_pretrainedreturn cls._from_pretrained(File "D:\python3.10\lib\site-packages\transformers\tokenization_utils_base.py", line 1958, in _from_pretrainedtokenizer = cls(*init_inputs, **init_kwargs)File "C:\Users\liliang22/.cache\huggingface\modules\transformers_modules\chatglm-6b\tokenization_chatglm.py", line 221, in __init__self.sp_tokenizer = SPTokenizer(vocab_file, num_image_tokens=num_image_tokens)File "C:\Users\liliang22/.cache\huggingface\modules\transformers_modules\chatglm-6b\tokenization_chatglm.py", line 64, in __init__self.text_tokenizer = TextTokenizer(vocab_file)File "C:\Users\liliang22/.cache\huggingface\modules\transformers_modules\chatglm-6b\tokenization_chatglm.py", line 22, in __init__self.sp.Load(model_path)File "D:\python3.10\lib\site-packages\sentencepiece\__init__.py", line 905, in Loadreturn self.LoadFromFile(model_file)File "D:\python3.10\lib\site-packages\sentencepiece\__init__.py", line 310, in LoadFromFilereturn _sentencepiece.SentencePieceProcessor_LoadFromFile(self, arg)RuntimeError: Internal: D:\a\sentencepiece\sentencepiece\src\sentencepiece_processor.cc(1102) [model_proto->ParseFromArray(serialized.data(), serialized.size())]

解决:对比下载的所有配置文件,是否有不完整的文件,执行命令:GIT_LFS_SKIP_SMUDGE=1 git clone https://huggingface.co/THUDM/chatglm-6b 时,有个2mb左右的文件,没有成功下载:ice_text.model

  1. AssertionError: Torch not compiled with CUDA enabled

    原因是你试图用GPU跑,但是你安装的 Torch 不支持CUDA,是仅支持CPU的版本,执行命令:

    python -c "import torch; print(torch.cuda.is_available())"
    

    如果返回False,说明安装的PyTorch不支持CUDA。

    1. 更新显卡驱动为最新的(官方驱动 | NVIDIA)

    2. 下载安装cuda_toolkit(https://developer.nvidia.com/cuda-toolkit)<这一步尚未验证是否必须>

    3. 重启电脑

    4. 执行命令安装torch:

      pip install torch==2.0.1+cu118 -f https://download.pytorch.org/whl/torch_stable.html
      

    (第一次没有操作2、3步,没有成功,第二次安装了toolkit后重启好了,但不能确定这两步是否有效,可以先忽略这两步,不行再尝试)

​ 需要下载一个2.6G的文件,安装完成后,print(torch.cuda.is_available())为True,大功告成。

​ 可以在Previous PyTorch Versions | PyTorch 查看自己的显卡CUDA版本对应的torch版本,如果没找到,可以尝试一个最接近的比实际小的版本。

查看CUDA版本:

或者直接执行命令:nvidia-smi 查看

  1. 这个配置运行非量化的chatglm-6b,响应很慢很慢,重新下载chatglm-6b-Int4的模型文件和配置文件部署后,速度正常了。

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.rhkb.cn/news/55964.html

如若内容造成侵权/违法违规/事实不符,请联系长河编程网进行投诉反馈email:809451989@qq.com,一经查实,立即删除!

相关文章

微软将推出Win12 没想到吧?

&#x1f447;&#x1f447;关注后回复 “进群” &#xff0c;拉你进程序员交流群&#x1f447;&#x1f447; 来源丨程序员软件库 https://mp.weixin.qq.com/s/0QIEVgIvKUXu3E3PhDazyA 据知名编辑 扎克•鲍登 发布的最新消息&#xff0c;微软内部已经着手更新 Windows 路线图&…

使用Windbg过程中两个使用细节分享

我们在使用工具的过程中,一般都会遇到一些使用上的细节或者技巧,今天就来给大家分享一下最近使用Windbg过程中遇到的两个问题,以供参考。 VC++常用功能开发汇总(专栏文章列表,欢迎订阅,持续更新...)https://blog.csdn.net/chenlycly/article/details/124272585<

Instant-ngp 在 window10 上的部署

一、环境部署 1、Visual Studio 2019 安装 Visual Studio 2019 预览版发行说明 | Microsoft Docs 从上述链接下载Community 2019版并安装&#xff0c;界面如下 选择C选项&#xff0c;右侧复选框默认&#xff0c;点击安装。安装完成后重启系统。 2、CUDA-Toolkit 安装 输入…

正式向Win12过渡,微软为Win11开启一大波功能更新

距离 Win 11 正式发布已过去接近两年时间&#xff0c;为了让大家放弃老系统升级 Win 11&#xff0c;微软没少下功夫。 除了各种强制弹窗通知提醒升级外&#xff0c;微软还大刀阔斧砍掉 Win 10 功能更新&#xff0c;并已宣布其最后死期——2025 年 10 月。 然而这一套组合拳下…

Windows 12 新界面曝光:透明玻璃欲回归,任务栏大变!

作为Windows 8.x的继任者&#xff0c;Windows 10选择了“扁平化”的UI风格&#xff0c;放弃了对圆角窗口的支持&#xff0c;而在Windows 11上&#xff0c;这些因素又全部回来了。 按照之前的说法&#xff0c;下一版Windows主要更新将引入类似Windows 7 Aero效果的新体验&#…

Windows10下ChatGLM2-6B模型本地化安装部署教程图解

随着人工智能技术的不断发展&#xff0c;自然语言处理模型在研究和应用领域备受瞩目。ChatGLM2-6B模型作为其中的一员&#xff0c;以其强大的聊天和问答能力备受关注&#xff0c;并且最突出的优点是性能出色且轻量化。然而&#xff0c;通过云GPU部署安装模型可能需要支付相应的…

Win11下VS2022的emguCV4.6安装配置方法

本人做图像处理处理很多年了&#xff0c;最开始是用VC6&#xff0c;尽管有一些源码例子&#xff0c;但好多库还得自己创建&#xff0c;什么都得自己写&#xff0c;工作量巨大。VS是从2003版本开始入门的&#xff0c;这也是VS的第一个版本&#xff0c;这个版本其实是个测试版&am…

你认为微软 Win12 可以在哪些方面改进?

众所周知&#xff0c;微软正在努力开发 Windows 的下一个版本&#xff0c;为了方便理解下文就叫它“Win12”了。新版本的内部代号为“Next Valley”&#xff0c;目前仍处于早期规划和工程阶段&#xff0c;目标是在 2024 年年底上线。 距离“Win12”发布还有 2 年多时间&#xf…

windows,win10安装微调chat,alpaca.cpp,并且成功运行(保姆级别教导)

win10下安装aplaca.cpp 1.下载alpaca-cpp源码 ​ https://github.com/antimatter15/alpaca.cpp 2.下载基础模型 下载 ggml-alpaca-7b-q4.bin并将其放在与chatzip 文件中的可执行文件相同的文件夹中。 从最新版本下载与您的操作系统对应的 zip 文件。在 Windows 上下载alpa…

ChatGLM-6B的windows本地部署使用

ChartGPT最近特别火&#xff0c;但是收费&#xff0c;而且国内访问不太方便&#xff0c;所以找了个类似的进行学习使用 ChatGLM-6B&#xff0c;开源支持中英文的对话大模型&#xff0c;基于 General Language Model (GLM) 架构&#xff0c;具有62亿参数&#xff0c;简单说非常…

ChatGLM环境配置

【目的】 ChatGPT令人震撼的冲击下&#xff0c;笔者转向NLM的Transformer模型&#xff0c;ChatGLM作为清华开源的大语言模型&#xff0c;笔者尝试了其环境配置&#xff0c;为相关理论学习奠定基础。本文用于备忘与学习&#xff0c;无商业用途。 【参考】 ChatGLM的源码下载链…

马斯克最新访谈全文,信息量极大,远见令人震撼

"建设太空文明和成为多星球物种是重要的&#xff0c;如果将来发生了第三次世界大战或者类似的事情&#xff0c;或者发生了全球性热核战争&#xff0c;那个时候可能地球上所有的文明都将被毁于一旦&#xff0c;但它至少能够继续在别的地方存在。" 作者 | 六毛 来源 | …

NER实战:(命名实体识别/文本标注/Doccano工具使用/关键信息抽取/Token分类/源码解读/代码逐行解读)

精读这篇文章你就能知道什么是NER&#xff0c;并且可以学会在开发任务中使用NER 目录 1、chatGPT对NER的解释 2、NER任务 3、NER标注工具Doccano 1、chatGPT对NER的解释 命名实体识别&#xff08;Named Entity Recognition&#xff0c;NER&#xff09;是自然语言处理领域的…

Ubuntu 18.04 LTS 更换国内源(镜像)

中科大源官方帮助 官方还有其它发行版的帮助&#xff0c;在 Ubuntu 18.04 LTS 上打开软件列表可以看到“软件和更新”。

Ubuntu22.04更换国内镜像源(阿里、网易163、清华、中科大)

更换方法 Ubuntu采用apt作为软件安装工具&#xff0c;其镜像源列表记录在/etc/apt/source.list文件中。 首先将source.list复制为source.list.bak备份&#xff0c;然后将source.list内容改为需要的镜像源列表即可。 修改完成后保存source.list文件&#xff0c;执行&#xff…

比较两幅图像的相似度

现在以图搜图的功能比较火热&#xff0c;很好奇其原理。 简单的搜索学习得知&#xff0c;实现相似图片搜索的关键技术是“感知哈希算法”&#xff0c;作用是对每一张图片按照某种规律生成一个对应的指纹字符串。比较不同图片之间的指纹字符串&#xff0c;结果越接近&#xff0…

比较两个模拟信号的相似度

转载自微信公众号 原创 逸珺 嵌入式客栈 #include <stdio.h> #include <math.h>/* 返回值在区间&#xff1a; [-1,1] */ /* 如返回-10&#xff0c;则证明输入参数无效 */ #define delta 0.0001f double calculate_corss_correlation(double *s1, doub…

图像相似度对比分析软件,图像相似度算法有哪些

有没有一款软件能比对两张照片是否一样? 可以用AI软件来对比。AI人脸比对已经变成非常常用的AI场景之一。步骤如下&#xff1a;1、浏览器输入网址百度AI应用&#xff0c;AI人脸比对。2、进入人脸比对的功能演示模块。 3、点击左侧的‘本地上传’按钮&#xff0c;上传本地照片…

图像相似度对比分析软件,图像相似度计算方法

怎么对比两张图片的相似度 1、首先打开微信&#xff0c;选择底部“发现”。如图所示。2、然后在点击进入“小程序”。如图所示。3、然后输入“腾讯AI体验中心”搜索&#xff0c;点击进入。4、选择“人脸对比”。如图所示。 5、上传两张图片上去&#xff0c;点击“人脸比对”。…

使用Faiss进行海量特征的相似度匹配

点击上方“机器学习与生成对抗网络”&#xff0c;关注"星标" 获取有趣、好玩的前沿干货&#xff01; 作者丨Gemfield知乎 编辑 | 极市平台 来源丨https://zhuanlan.zhihu.com/p/210736523 导读 Faiss为稠密向量提供高效相似度搜索和聚类&#xff0c;支持十亿级别向量…