ChatGLM2-6B、ChatGLM-6B 模型介绍及训练自己数据集实战

介绍

ChatGLM-6B是开源的文本生成式对话模型,基于General Language Model(GLM)框架,具有62亿参数,结合模型蒸馏技术,实测在2080ti显卡训练中上(INT4)显存占用6G左右,

优点:1.较低的部署门槛: FP16 半精度下,ChatGLM-6B 需要至少 13GB 的显存进行推理,结合模型量化技术,一需求可以进一步降低到 10GB(INT8) 和 6GB(INT4), 使得 ChatGLM-6B 可以部署在消费级显卡上。
2,更长的序列长度: 相比 GLM-10B(序列长度1024),ChatGLM2-6B 序列长度达32K,支持更长对话和应用。
3,人类意图对齐训练: 使用了监督微调(Supervised Fine-Tuning)、反馈自助(Feedback Bootstrap)、人类反馈强化学习(Reinforcement Learning from Human Feedback) 等方式,使模型初具理解人类指令意图的能力。输出格式为 markdown,方便展示。目前已开源监督微调方法,

不足:1,模型容量较小: 6B 的小容量,决定了其相对较弱的模型记忆和语言能力,随着自己训练数据数量和轮次增加,会逐步丧失原来的对话能力,智谱ai于魁飞博士给的训练数据再好在1000条左右。

2,较弱的多轮对话能力:ChatGLM-6B 的上下文理解能力还不够充分,在面对长答案生成,以及多轮对话的场景时,可能会出现上下文丢失和理解错误的情况。解决方式:外挂知识库的形式,例如ChatGLM-6B 结合 langchain 实现本地知识库link

3,训练完自己的数据后,遗忘掉之前对话的能力,出现灾难性遗忘,解决办法在自己专业领域数据上可以加入通用开源的对话微调数据集一起训练,

制作不易,收藏关注哈,一起交流…

1,安装

1.1,ChatGLM2-6B官方开源的训练方式基于P-Tuning v2微调,
链接: git_link
基于QLoRA
链接: git_link

1.2,ChatGLM-6B基于P-Tuning v2微调,
链接: git_link

两个版本区别,文章末尾介绍

以下ChatGLM2-6B微调步骤

下载ChatGLM2-6B

git clone https://github.com/THUDM/ChatGLM2-6B
cd ChatGLM2-6B
pip install -r requirements.txt 
cd ptuning/
pip install rouge_chinese nltk jieba datasets

2, 使用自己数据集

2.1 构建自己的数据集

样例数据下载链接
链接: Dataset
将自己的数据集换成以下格式

{"content": "类型#上衣*版型#宽松*版型#显瘦*图案#线条*衣样式#衬衫*衣袖型#泡泡袖*衣款式#抽绳","summary": "这件衬衫的款式非常的宽松,利落的线条可以很好的隐藏身材上的小缺点,穿在身上有着很好的显瘦效果。领口装饰了一个可爱的抽绳,漂亮的绳结展现出了十足的个性,配合时尚的泡泡袖型,尽显女性甜美可爱的气息。"
}

解释:构建数据集是一个 JSON 格式文件,其中一个列表中包含多个字典
[{ “content”: “问句1”,
“summary”: "答案1“}
{ “content”: “问句1”,
“summary”: "答案1“}
{…}]
在这里插入图片描述

2.2 修改 train.sh 和 evaluate.sh

修改 train.sh 和 evaluate.sh 中的 train_file、validation_file和test_file为你自己的 JSON 格式数据集路径,并将 prompt_column 和 response_column 改为 JSON 文件中输入文本和输出文本对应的 KEY。

我修改的train.sh示例如下:
## 切记如果粘贴我的这个示例代码,请删除注释
PRE_SEQ_LEN=128
LR=2e-2
NUM_GPUS=2  # 双卡torchrun --standalone --nnodes=1 --nproc-per-node=$NUM_GPUS main.py \--do_train \--train_file di/train.json \   # 训练文件地址--validation_file di/fval.json \   # 验证文件地址--prompt_column content \       # 训练集中prompt名称--response_column summary \      # 训练集中答案明细--overwrite_cache \              # 重复训练一个训练集时候可删除--model_name_or_path THUDM/chatglm-6b \  # 加载模型文件地址,可修改为本地路径,第五章讲怎么找--output_dir output/adgen-chatglm-6b-pt-$PRE_SEQ_LEN-$LR \    # 保存训练模型文件地址--overwrite_output_dir \--max_source_length 64 \     # 最大输入文本的长度--max_target_length 128 \--per_device_train_batch_size 1 \    # batch_size 根据显存调节--per_device_eval_batch_size 1 \--gradient_accumulation_steps 16 \    --predict_with_generate \--max_steps 2000 \    # 最大保存模型的步数--logging_steps 10 \  # 打印日志间隔--save_steps 500 \    # 多少部保存一次模型--learning_rate $LR \--pre_seq_len $PRE_SEQ_LEN \--quantization_bit 4   # 可修改为int8
参数具体解释

train.sh 中的 PRE_SEQ_LEN 和 LR 分别是 soft prompt 长度和训练的学习率,可以进行调节以取得最佳的效果。

P-Tuning-v2 方法会冻结全部的模型参数,可通过调整 quantization_bit 来被原始模型的量化等级,不加此选项则为 FP16 精度加载。

在默认配置 quantization_bit=4、per_device_train_batch_size=1、gradient_accumulation_steps=16 下,INT4 的模型参数被冻结,一次训练迭代会以 1 的批处理大小进行 16 次累加的前后向传播,等效为 16 的总批处理大小,此时最低只需 6.7G 显存。若想在同等批处理大小下提升训练效率,可在二者乘积不变的情况下,加大 per_device_train_batch_size 的值,但也会带来更多的显存消耗,请根据实际情况酌情调整。

2.3,开始训练

bash train.sh

示例:两个显卡分别占用8.3G显存在这里插入图片描述请添加图片描述

3,验证模型

将 evaluate.sh 中的 CHECKPOINT 更改为训练时保存的 checkpoint 名称,运行以下指令进行模型推理和评测:

bash evaluate.sh

4,模型部署

3.1 自己验证 ,更换模型路径
将对应的demo或代码中的THUDM/chatglm2-6b换成经过 P-Tuning 微调之后 checkpoint 的地址(在示例中为 ./output/adgen-chatglm-6b-pt-8-1e-2/checkpoint-3000)。注意,目前的微调还不支持多轮数据,所以只有对话第一轮的回复是经过微调的。

在 P-tuning v2 训练时模型只保存 PrefixEncoder 部分的参数,所以在推理时需要同时加载原 ChatGLM-6B 模型以及 PrefixEncoder 的权重,因此需要指定 evaluate.sh 中的参数:

首先载入Tokenizer:

from transformers import AutoConfig, AutoModel, AutoTokenizer
# 载入Tokenizertokenizer = AutoTokenizer.from_pretrained("THUDM/chatglm2-6b", trust_remote_code=True)

如果需要加载的 P-Tuning 的 checkpoint:

config = AutoConfig.from_pretrained("THUDM/chatglm-6b", trust_remote_code=True, pre_seq_len=128)
model = AutoModel.from_pretrained("THUDM/chatglm-6b", config=config, trust_remote_code=True)
prefix_state_dict = torch.load(os.path.join(CHECKPOINT_PATH, "pytorch_model.bin"))
new_prefix_state_dict = {}
for k, v in prefix_state_dict.items():if k.startswith("transformer.prefix_encoder."):new_prefix_state_dict[k[len("transformer.prefix_encoder."):]] = v
model.transformer.prefix_encoder.load_state_dict(new_prefix_state_dict)# Comment out the following line if you don't use quantization
model = model.quantize(4) #或者8
model = model.half().cuda()
model.transformer.prefix_encoder.float()
model = model.eval()response, history = model.chat(tokenizer, "你好", history=[])

你也可以直接运行支持加载 P-Tuning v2 checkpoint 的 web demo

bash web_demo.sh

可能需要修改 web_demo.sh 的内容以符合你实际的 checkpoint 情况。

5,预训练模型地址一般存放位置在本机

本章第二步执行bash train.sh,终端会打印出模型加载的位置,找到位置后替换
在这里插入图片描述
一般存放的位置是
.cache/huggingface/hub/models–THUDM–chatglm-6b/snapshots/aa51e62ddc9c9f334858b0af44cf59b05c70148a/
查看包含这些目录
config.json configuration_chatglm.py modeling_chatglm.py pytorch_model.bin quantization.py
替换掉 demo.py 文件中THUDM/chatglm-6b为自己路径

6 如需要使用多轮对话数据对模型进行微调,可以提供聊天历史,例如以下是一个三轮对话的训练数据:

{"prompt": "长城h3风扇不转。继电器好的。保险丝好的传感器新的风扇也新的这是为什么。就是继电器缺一个信号线", "response": "用电脑能读数据流吗?水温多少", "history": []}
{"prompt": "95", "response": "上下水管温差怎么样啊?空气是不是都排干净了呢?", "history": [["长城h3风扇不转。继电器好的。保险丝好的传感器新的风扇也新的这是为什么。就是继电器缺一个信号线", "用电脑能读数据流吗?水温多少"]]}
{"prompt": "是的。上下水管都好的", "response": "那就要检查线路了,一般风扇继电器是由电脑控制吸合的,如果电路存在断路,或者电脑坏了的话会出现继电器不吸合的情况!", "history": [["长城h3风扇不转。继电器好的。保险丝好的传感器新的风扇也新的这是为什么。就是继电器缺一个信号线", "用电脑能读数据流吗?水温多少"], ["95", "上下水管温差怎么样啊?空气是不是都排干净了呢?"]]}

训练时需要指定 --history_column 为数据中聊天历史的 key(在此例子中是 history),将自动把聊天历史拼接。要注意超过输入长度 max_source_length 的内容会被截断。

可以参考以下指令:

bash train_chat.sh

7,遇到的问题和解决办法

7.1,出现一个问题了。 RuntimeError: Default process group has not been initialized, please make sure to call init_process_group.
在这里插入图片描述

训练的时候
估计transforms版本,我也遇到了,我回退到transformers==4.27.1 就可以了

7.2 ,问题:ValueError: Unable to create tensor, you should probably activate truncation and/or padding with ‘padding=True’ ‘truncation=True’ to have batched tensors with the same length. Perhaps your features 。。
ERROR:torch.distributed.elastic.multiprocessing.api:failed (exitcode: 1) local_rank: 0 (pid: 16858) of binary
torch.distributed.elastic.multiprocessing.errors.ChildFailedError:
在这里插入图片描述

解决方式
显存不够,调小batch_size显存就可以了

8,ChatGLM2-6B和ChatGLM-6B区别

ChatGLM2-6B 是开源中英双语对话模型 ChatGLM-6B 的第二代版本,在保留了初代模型对话流畅、部署门槛较低等众多优秀特性的基础之上,ChatGLM2-6B 引入了如下新特性:

更强大的性能:基于 ChatGLM 初代模型的开发经验,我们全面升级了 ChatGLM2-6B 的基座模型。ChatGLM2-6B 使用了 GLM 的混合目标函数,经过了 1.4T 中英标识符的预训练与人类偏好对齐训练,评测结果显示,相比于初代模型,ChatGLM2-6B 在 MMLU(+23%)、CEval(+33%)、GSM8K(+571%) 、BBH(+60%)等数据集上的性能取得了大幅度的提升,在同尺寸开源模型中具有较强的竞争力。

更长的上下文:基于 FlashAttention 技术,我们将基座模型的上下文长度(Context Length)由 ChatGLM-6B 的 2K 扩展到了 32K,并在对话阶段使用 8K 的上下文长度训练,允许更多轮次的对话。但当前版本的 ChatGLM2-6B 对单轮超长文档的理解能力有限,我们会在后续迭代升级中着重进行优化。
更高效的推理:基于 Multi-Query Attention 技术,ChatGLM2-6B 有更高效的推理速度和更低的显存占用:在官方的模型实现下,推理速度相比初代提升了 42%,INT4 量化下,6G 显存支持的对话长度由 1K 提升到了 8K。
更开放的协议:ChatGLM2-6B 权重对学术研究完全开放,在获得官方的书面许可后,亦允许商业使用。

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.rhkb.cn/news/38623.html

如若内容造成侵权/违法违规/事实不符,请联系长河编程网进行投诉反馈email:809451989@qq.com,一经查实,立即删除!

相关文章

羊驼系列大模型和ChatGPT差多少?详细测评后,我沉默了

来源:机器之心 本文约5100字,建议阅读10分钟一番深入测评,结果令人深思。 总的来说,该测试得出的结论是:MPT 还没有准备好在现实世界中使用,而 Vicuna 对于许多任务来说是 ChatGPT (3.5) 的可行替代品。 前…

向AI提问,我是怎么做的?

AI对话与人完全不同。 人对话过程基于情感、文化背景、现状,需要考虑对方情绪、语气、表情等非语言因素,AI对话更多基于逻辑、数据、算法,更加注重信息传递和问题解决。 尽管各家都在推崇自然语言处理技术((Natural Language Pr…

24个好用到爆的Python实用技巧

作为一名数据工作者,我们每天都在使用 Python处理大多数工作。在此过程中,我们会不断学到了一些有用的技巧和窍门。 在这里,我尝试以 A - Z 开头的格式分享这些技巧中的一些,并且在本文中简单介绍这些方法,如果你对其中…

【研究那些事】 是谁可以当律师、看梗图、写代码、看论文还有创意?

0326 ChatGPT4 3月15日凌晨,OpenAI 正式公布了它的多模态大语言模型 GPT-4。 GPT-4 是世界第一款高体验、强能力的先进AI系统。ChatGPT用的语言模型是 GPT-3.5,OpenAI 称当任务的复杂性达到足够的阈值,GPT-4对比之前的版本的优势就会非常明显…

新星计划、原力计划新动态,大波的奖牌来袭速来领取

catalogue 🌟 写在前面🌟 原力计划🌟 新星计划🌟 大波奖牌来袭🌟 微软学生开发者峰会🌟 写在最后 🌟 写在前面 哈喽,大家好,我是几何心凉,这是一份全新的专栏…

与AI相遇 | 在ChatGPT中输入“情人节”,我们会得到......?

最近ChatGPT可谓是风靡全球,大家彼此的问候从“你吃饭了吗”变成“你玩ChatGPT了吗”。 这款当今最火爆的AI语言模型,是美国人工智能研究实验室OpenAI新推出的一种人工智能技术驱动的自然语言处理工具,使用了Transformer神经网络架构&#xf…

JAVA在线考试管理系统(源代码+论文+开题报告+外文翻译+英文文献+答辩PPT)

附件5: 毕业论文(设计)外文资料译文 论文题目 在线考试系统 . 学生姓名: 年级(学号): . 二级学院: 专业: 指导教师: 职称: . 填表日期&…

计算机辅助翻译实践总结,trados计算机辅助翻译实践报告材料

trados计算机辅助翻译实践报告材料 (22页) 本资源提供全文预览,点击全文预览即可全文预览,如果喜欢文档就下载吧,查找使用更方便哦! 19.90 积分 实用文档研究生课程考核试卷(适用于课程论文、提交报告)科 目: 计算机…

热门精选!10款学习办公必备的AI笔记工具

​人工智能随着时间的推移不断发展并改变各行各业的方式令人印象深刻,chatGPT的出现让我们使用AI人工智能提高工作效率变得更简单。你是否厌倦了在会议期间手动记笔记? 在 AI 笔记工具的帮助下,我们可以通过自动识别和分类关键信息、总结文本…

vxe-table高级导出功能,导出表格样式

做为技术人员我们得感谢那么提出各种奇葩需求的人,因为他们才使我们更快成长。如果你干不掉那些提出需求的人,那么就接受吧,废话止于此。 先看下导出表格的效果 vxe-table的高级导出功能的弹窗里虽然有样式的勾选项,但是还需要你…

修改程序图标

看图!!!!!!!!!

修改应用程序图标

修改应用程序图标 众所周知,我们平常习惯用的Windows操作系统,我们可以根据个人喜好随意修改桌面图标(可修改的图标有:我的电脑、我的文档、网上邻居和回收站。当然,其它应用程序的图标也可以修改,不过不是…

Launcher修改--修改底部图标

在android2.2中&#xff0c;launcher的底部被修改成这种模式&#xff0c;有时候修改launcher的时候需要去掉电话和浏览器两项&#xff0c;我们可以在res/layout-port/文件夹中找到launcher.xml文件&#xff0c;在其中有以下代码 <RelativeLayoutandroid:id"id/all_apps…

linux修改文件图标,Gnome怎么修改应用图标icon

icon元素包括两个可选的子元素&#xff1a;small-icon子元素和large-icon子元素。文件名是Web应用归档文件(WAR)的根的相对路径。部署描述符并没有使用icon元素。下面跟着学习啦小编一起来了解一下Gnome怎么修改应用图标icon的方法吧。 Gnome怎么修改应用图标icon 我在我机器上…

Android 实现App修改应用图标

Android 实现App修改应用图标 首先上一下效果图 是在不同的android版本下运行后的效果&#xff1a; 首先是8.0以上系统 运行后图标如下&#xff1a; 然后是在API为18的4.0android系统上的运行效果&#xff1a; 其他API也是兼容的。 实现过程 第一步&#xff0c;选择你喜…

修改app图标

修改app图标 1.准备三个尺寸的.png图片 &#xff08;注&#xff1a;一定要是.png后缀的图片&#xff09;,分别命名为xx.png, xx2x.png, xx3x.png; 2.在项目中找到项目->Resource->AppLogo,把三个尺寸的图片拉入项目中&#xff0c;选择Copy items if needed、Create gr…

bat文件修改图标

A、bat命令文件是什么 它是dos下的批处理文件&#xff0c;其扩展名为.bat 或 .cmd&#xff0c;一般使用bat使用称为bat文件。 其是一种无格式的文本文件&#xff0c;含有一条或多条命令&#xff0c;可如执行.exe文件一般直接执行bat命令文件&#xff0c;从而减去使用dos窗口和击…

更改Android软件图标

1配置环境 2.解压ADT Bundle 打开eclipse. 3.创建Android程序 4.创建Android模拟器&#xff0c;在安卓模拟器上运行。 5更改软件名和图标 按照1&#xff0c;2的步骤找到程序。在3处将其改为所要修改的图标名。在4处更改软件名称。在5处将所要的图标加入&#xff08;也可以在建…

修改exe中的Icon

示例&#xff1a;SheelTool( 用于源码保护&#xff0c;为exe加壳&#xff09; 小程序技术共享 using System; using System.Collections.Generic; using System.Drawing; using System.IO; using System.Linq; using System.Runtime.InteropServices; using System.Text; using…

修改程序的图标与详细描述

利用Resource Hacker工具修改.rsrc节中的数据,达到修改程序的图标与详细描述的功能 目录 一、.rsrc节 二、修改程序图标(Resource Hacker) 二、修改程序详细描述(Resource Hacker) 总结 一、.rsrc节 .rsrc节存储着程序的图标和程序的详细描述 二、修改程序图标(Resource Hack…