chatgpt平替,清华chatglm本地化部署教程(aigc大模型风口,校招找工作必备),包含weiui部署,api部署,对话框部署

ChatGLM-6B 是一个开源的、支持中英双语的对话语言模型,基于 General Language Model (GLM) 架构,具有 62 亿参数。结合模型量化技术,用户可以在消费级的显卡上进行本地部署(INT4 量化级别下最低只需 6GB 显存)。 ChatGLM-6B 使用了和 ChatGPT 相似的技术,针对中文问答和对话进行了优化。经过约 1T 标识符的中英双语训练,辅以监督微调、反馈自助、人类反馈强化学习等技术的加持,62 亿参数的 ChatGLM-6B 已经能生成相当符合人类偏好的回答
为了方便方便我们测试,我们需要进行本地化部署,本教程将进行linux服务器端进行部署,进行三种形式的部署,webui界面,命令行方式,api调用的方式,方便大家多种方式进行使用

网页端demo
网页端demo

在这里插入图片描述
命令行demo
在这里插入图片描述

api调用

一 .webui部署教程

1 先下载代码

git clone https://github.com/Akegarasu/ChatGLM-webui

2 使用anaconda安装虚拟环境

python版本3.10.6

pip install torch==1.13.1+cu117 torchvision==0.14.1+cu117 --extra-index-url https://download.pytorch.org/whl/cu117
pip install --upgrade -r requirements.txt

cuda版本根据自己的显卡来选择,我是使用的3090
3 启动命令

python webui.py

下面的几个参数比较重要

–model-path: chatglm6b模型的地址,建议自己下载,不要使用默认的参数,会自动吓到cache里面,多机器部署的时候很麻烦
–listen: 监听端口
–port: 访问的端口号
–share: 是否使用gradio进行部署,建议不用开启

–precision: fp32(CPU only), fp16, int4(CUDA GPU only), int8(CUDA GPU only) 使用精度,根据自己部署设备的显存来选,int4占用的显存小一点

–cpu: use cpu

启动完就可以用了

二 .命令行部署

1 下载代码

git clone https://github.com/THUDM/ChatGLM-6B.git

2 使用anaconda创建虚拟环境

使用 pip 安装依赖:pip install -r requirements.txt,其中 transformers 库版本推荐为 4.27.1,但理论上不低于 4.23.1 即可。

3 启动命令

运行仓库中 cli_demo.py:python cli_demo.py
程序会在命令行中进行交互式的对话,在命令行中输入指示并回车即可生成回复,输入 clear 可以清空对话历史,输入 stop 终止程序。

三 .api调用方式

1 下载代码

git clone https://github.com/imClumsyPanda/ChatGLM-6B-API.git

2 使用anaconda创建虚拟环境

使用 pip 安装依赖:pip install -r requirements.txt,其中 transformers 库版本推荐为 4.26.1,但理论上不低于 4.23.1 即可。
首先需要安装额外的依赖 pip install fastapi uvicorn

3 启动命令

Linux 系统请运行 chatglm_api.py

chatglm_api 脚本正常运行后,可以通过如下代码调用 ChatGLM-6B 模型来生成对话:

import requests
user_msg, history = “你好”, []
resp = requests.post(f"http://127.0.0.1:8080/predict?user_msg={user_msg}“, json=history)
if resp.status_code == 200:
response, history = resp.json()[“response”], resp.json()[“history”]
print(response)
你好👋!我是人工智能助手 ChatGLM-6B,很高兴见到你,欢迎问我任何问题。
user_msg = “晚上睡不着该怎么办”
resp = requests.post(f"http://127.0.0.1:8080/predict?user_msg={user_msg}”, json=history)
if resp.status_code == 200:
response, history = resp.json()[“response”], resp.json()[“history”]
print(response)
晚上睡不着可能会让你感到焦虑或不舒服,但以下是一些可以帮助你入睡的方法:
返回数据

  1. 制定规律的睡眠时间表:保持规律的睡眠时间表可以帮助你建立健康的睡眠习惯,使你更容易入睡。尽量在每天的相同时间上床,并在同一时间起床。
  2. 创造一个舒适的睡眠环境:确保睡眠环境舒适,安静,黑暗且温度适宜。可以使用舒适的床上用品,并保持房间通风。
  3. 放松身心:在睡前做些放松的活动,例如泡个热水澡,听些轻柔的音乐,阅读一些有趣的书籍等,有助于缓解紧张和焦虑,使你更容易入睡。
  4. 避免饮用含有咖啡因的饮料:咖啡因是一种刺激性物质,会影响你的睡眠质量。尽量避免在睡前饮用含有咖啡因的饮料,例如咖啡,茶和可乐。
  5. 避免在床上做与睡眠无关的事情:在床上做些与睡眠无关的事情,例如看电影,玩游戏或工作等,可能会干扰你的睡眠。
  6. 尝试呼吸技巧:深呼吸是一种放松技巧,可以帮助你缓解紧张和焦虑,使你更容易入睡。试着慢慢吸气,保持几秒钟,然后缓慢呼气。

如果这些方法无法帮助你入睡,你可以考虑咨询医生或睡眠专家,寻求进一步的建议。

默认部署在本地的 8000 端口,通过 POST 方法进行调用

curl -X POST "http://127.0.0.1:8000" \-H 'Content-Type: application/json' \-d '{"prompt": "你好", "history": []}'

得到的返回值为

{"response":"你好👋!我是人工智能助手 ChatGLM-6B,很高兴见到你,欢迎问我任何问题。","history":[["你好","你好👋!我是人工智能助手 ChatGLM-6B,很高兴见到你,欢迎问我任何问题。"]],"status":200,"time":"2023-03-23 21:38:40"
}

四 低成本部署
模型量化
默认情况下,模型以 FP16 精度加载,运行上述代码需要大概 13GB 显存。如果你的 GPU 显存有限,可以尝试以量化方式加载模型,使用方法如下:

# 按需修改,目前只支持 4/8 bit 量化
model = AutoModel.from_pretrained("THUDM/chatglm-6b", trust_remote_code=True).quantize(4).half().cuda()

进行 2 至 3 轮对话后,8-bit 量化下 GPU 显存占用约为 10GB,4-bit 量化下仅需 6GB 占用。随着对话轮数的增多,对应消耗显存也随之增长,由于采用了相对位置编码,理论上 ChatGLM-6B 支持无限长的 context-length,但总长度超过 2048(训练长度)后性能会逐渐下降。
如果你的内存不足的话,可以直接加载量化后的模型,仅需大概 5.2GB 的内存:

model = AutoModel.from_pretrained("THUDM/chatglm-6b-int4", trust_remote_code=True).half().cuda()

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.rhkb.cn/news/2966.html

如若内容造成侵权/违法违规/事实不符,请联系长河编程网进行投诉反馈email:809451989@qq.com,一经查实,立即删除!

相关文章

狂追ChatGPT:开源社区的“平替”热潮

目前,不少优质的类ChatGPT模型都只能通过API接入,而一些开源LLM的效果与ChatGPT相比差距不小。不过,近期开源社区开始密集发力了。 其中,Meta的LLaMA模型泄漏是开源“ChatGPT”运动的代表性事件。基于LLaMA模型,开源社…

chatGPT平替:Idea 插件Bito

Idea插件神奇Bito Bito介绍安装使用 Bito介绍 应该是基于openai的模型训练的。重点是免费、免费、免费,重要的事情说3遍。 安装 设置(setting) 选择插件市场输入Bito安装 安装成功后最idea的右边会显示Bito 使用 需要验证账号,输入邮箱会有一个…

支持 Docker 运行的 ChatGPT 平替之 Alpaca-Turbo (羊驼)

Alpaca-Turbo是一个语言模型,可以在本地运行而不需要太多的设置。它是基于LLaMA的alpaca.cpp语言模型的用户友好型Web UI,具有使其与其他实现区别开来的独特功能。目标是提供一个无缝的聊天体验,易于配置和使用,而不会牺牲速度或功…

chatgpt平替,清华chatglm本地化部署

ChatGLM-6B 是一个开源的、支持中英双语的对话语言模型,基于 General Language Model (GLM) 架构,具有 62 亿参数。因为我的cpu跑不了,在linux服务器端进行部署。前提是conda已经安装并配置好,因为我的已经搞好,就不是…

真正的ChatGPT平替产品:Claude

01 Claude ChatGPT已经流行了很长的时间了,但是ChatGPT 由于种种的限制,我们无法用上,也有很多的平替产品,但是这些平替产品也有很多的问题。 现在 Claude 出来了,没有任何的限制。 Claude 不用魔法,注…

真·ChatGPT平替:无需显卡,MacBook、树莓派就能运行LLaMA

欢迎关注“ 计算机视觉研究院 ” 计算机视觉研究院专栏 作者:Edison_G 扫描二维码 关注我们 Meta 发布的开源系列模型 LLaMA,将在开源社区的共同努力下发挥出极大的价值。 转自《机器之心》 Meta 在上个月末发布了一系列开源大模型 ——LLaMA&#xff08…

ChatGPT的平替来了?一文总结 ChatGPT 的开源平替,你值得拥有

文章目录 【AIGC精选】总结 ChatGPT 的开源平替,你值得拥有1.斯坦福发布 Alpaca 7B,性能匹敌 GPT-3.52.弥补斯坦福 Alpaca 中文短板,中文大模型 BELLE 开源3.国产AI大模型 ChatGLM-6B 开启内测4.中文 Alpaca 模型 Luotuo 开源5. ChatGPT 最强…

IntelliJ IDEA 接入ChatGPT (免费,无需注册)生产力被干爆了!

IntelliJ IDEA 接入ChatGPT 前言 : 今天给大家介绍一款好用的 IntelliJ IDEA ChatGPT 插件 可以帮助我们写代码,以及语言上的处理工作,以及解释代码。让我们的生产力大大提高! 一. ChatGPT-Plus 功能介绍 支持最新idea版本AI询问功能,写好…

不用魔法、使用原生ChatGPT、30秒注册不要绑定任何账号【AskChat.ai】

直接上链接【AskChat.ai】 http://www.askchat.ai?r124478 手机打开不登录可以直接用3次。 AskChat.ai 普通用户的使用规则 AskChat.ai 免费使用的额度 个人使用案例

【关于ChatGPT的30个问题】14、ChatGPT在中国是否被禁用了?/ By 禅与计算机程序设计艺术

14、ChatGPT在中国是否被禁用了?为什么? 目录 14、ChatGPT在中国是否被禁用了?为什么? ChatGPT是否被禁用?

ChatGPT Something went wrong 处理

一、报错提示 Something went wrong. If this issue persists please contact us through our help center at help.openai.com. 二、解决方案 一般是代理节点出现问题 ChatGPT退出登录 关闭代理并重新启动代理 切换其他节点 清除浏览器缓存 重新登录ChatGPT 问题解决&am…

让ChatGPT教你AI绘画|如何将ChatGPT与Midjourney结合使用,赶紧实践起来

转载 近期最火的人工智能应用莫过于ChatGpt了,上架短短3个月就已经有几个亿的用户了。反反复复地体验ChatGpt近一个月,感受就两个字​:牛批​! 简单介绍一下什么是Chatgpt,算了让它自己介绍自己吧 回答的还行吧​&a…

时代背景下的 ChatGPT,到底能帮助开发者做什么呢?

前言 最近脍炙人口的技术 ChatGPT,关注度非常高,网上关于它的文章也一大片,不过很多都是关于体验或者部署的,我们习惯去讨论它的技术、模型、趣味等等,但他能在开发者的工作中带给我们些什么东西呢? 我应…

【ChatGPT】科技革命促生互联网时代 ChatGPT浪潮打乱时代布局 人工智能新时代下的发展前景

目录 科技革命促生互联网时代 科技进步伴随着大国崛起 科技革命的发展 互联网时代的到来 ChatGPT浪潮来袭 资本市场当前的热潮 人工智能新时代下我们何去何从 开放注册两个月用户数破亿,ChatGPT的爆火也标志着时代的浪潮将要来袭,由科技革命促生的…

【ChatGPT】是一个危机与机遇并存的时代

ChatGPT是一个危机与机遇并存的时代 前言一、ChatGPT是什么二、ChatGPT的恐怖之处三、ChatGPT真的会取代程序员吗四、ChatGPT对未来的影响 前言 ChatGPT,横空出世,从去年12月,ChatGPT以最快速度(5天)突破百万用户。今年…

ChatGPT时代,别再折腾孩子了

今天这篇完全是从两件事儿有感而发。 昨天在文印店,在复印机上看到装订好的几页纸,我瞥了一眼,是历史知识点: 隋朝大运河分为四段,分别是___ ___ ___ ___,连接了五大河___ ___ ___ ___ ___ ___ 年&#…

前端react如何引入chatgpt实现智能客服

使用背景:react\ts\antd pro\alibaba-chatUI\openai-api 效果图: 1.引入chatUI进行页面开发 chatUI:https://chatui.io/sdk/message import Chat, { Bubble, useMessages } from chatui/core; import chatui/core/dist/index.css; import s…

ChatGPT解答:纯前端文档预览,Vue实现,无需后端,支持Word、Excel、PPT、pdf、文本、图片,附接入demo和文档

ChatGPT解答:纯前端文档预览,Vue实现,无需后端,支持Word、Excel、PPT、pdf、文本、图片,附接入demo和文档 ChatGPTDemo Based on OpenAI API (gpt-3.5-turbo). 纯前端文档预览,Vue实现,无需后…

chatgpt教你练习前端算法

今天想试试chatgpt关于代码算法这一块儿是否好用。 判断质数 上面的代码有一点小问题,当num为2时,返回的结果是错误的,我改进了一下,并优化了一点性能 // 判断是否是素数(质数) function isprime(number)…

ChatGPT发展有多快?

引语:大家好我们是权知星球,开启你独特的知识星际之旅 目录 事件的开始 取代风险清单 一、抓住机会,迎接趋势,积累财富。 二、充分利用它,可以使你的价值得到更大的提升。 三、使用它,可让你的学习和…