《大规模语言模型从理论到实践》第一轮学习--Fine-tuning微调

第一轮学习目标:了解大模型理论体系

第二轮学习目标:进行具体实操进一步深入理解大模型

从大语言模型的训练过程来理解微调

大预言模型训练主要包含四个阶段:预训练、有监督微调、奖励建模、强化学习。

预训练(Pretraining)阶段需要利用海量的训练数据,完成深度神经网络参数训练,构建基础语言模型 (Base Model)。

有监督微调(Supervised Finetuning),也称为指令微调(Instruction Tuning),利用少量高质量数据集合,包含用户输入的提示词(Prompt)和对应的理想输出结果。用户输入包括问题、闲聊对 话、任务指令等多种形式和任务。得到有监督微调模型(SFT 模型)

奖励建模(Reward Modeling)阶段目标是构建一个文本质量对比模型,对于同一个提示词,SFT模型给出的多个不同输出结果的质量进行排序。如果 RM 模型的目标是针对 所有提示词系统所生成输出都能够高质量的进行判断,该问题所面临的难度在某种程度上与文本 生成等价,因此如何限定 RM 模型应用的泛化边界也是本阶段难点问题。

强化学习(Reinforcement Learning)阶段根据数十万用户给出的提示词,利用在前一阶段训练的 RM 模型,给出 SFT 模型对用户提示词补全结果的质量评估,并与语言模型建模目标综合得到更好的效果。使用强化学习,在 SFT 模型基础上调整参数,使得最 终生成的文本可以获得更高的奖励(Reward)。由于强化学习方法稳定性不高,并且超参数众多,使得模型收敛难度大,再叠加 RM 模型的准确率问题,使得在大规模 语言模型如何能够有效应用强化学习非常困难。

大模型微调步骤

数据准备、选择基础模型、设置微调参数(学习率、训练轮次(epochs)、批处理大小(batch size)等超参数)、微调(加载预训练的模型和权重、选择微调方法、选择合适的损失函数和优化器、训练)

一、按微调参数规模划分

1.1全参微调(Full Parameter Fine-Tuning,FPFT)

       用预训练权重作为初始化权重,在特定数据集上继续训练,全部参数都更新。

1.2低参微调(Parameter Efficient Fine-Tuning,PEFT)

       用更少的计算资源完成参数的更新,只更新部分参数,或者通过对参数进行某种结构化约束,例如稀疏化低秩近似解来降低微调的参数量。

      可以分为以下三类方法

  1. 增加额外参数(Additive)。又主要分为:类适配器(Adapter-like)方法、软提示(Soft prompts)
  2. 选取一部分参数更新(Selective)
  3. 重参数化(Reparametrization-based) 

         补充:

         稀疏化:稀疏化是指通过去除矩阵或向量中的大部分元素,将其变得稀疏(即非零元素较少)的过程。有阈值法、L1正则化、PCA主成分分析可以实现这些方法。

         低秩近似解:矩阵的秩代表了矩阵中线性无关的行(或列)的最大数量通过减少矩阵的秩来去除冗余信息,同时保留数据的主要特征,从而降低存储空间和计算量。应用于矩阵补全、数据压缩等问题中。可以通过凸或者非凸松弛方法实现。

请复习线性代数的相关知识

1.2.1LoRA

LoRA(Low-Rank Adaptation)是一种旨在微调大型预训练语言模型(如GPT-3或BERT)的技术。其核心理念在于,在模型的决定性层次中引入小型、低秩的矩阵来实现模型行为的微调,而无需对整个模型结构进行大幅度修改。

为了达到降秩且最小化目标矩阵与原矩阵差异的目的,常用的方法是对原矩阵进行奇异值分 解并裁去较小的奇异值。

这种方法的优势在于,在不显著增加额外计算负担的前提下,能够有效地微调模型,同时保留模型原有的性能水准。

LoRA的操作流程如下:

确定微调目标权重矩阵:首先在大型模型(例如GPT)中识别出需要微调的权重矩阵,这些矩阵一般位于模型的多头自注意力和前馈神经网络部分。

引入两个低秩矩阵:然后,引入两个维度较小的低秩矩阵A和B。

计算低秩更新:通过这两个低秩矩阵的乘积AB来生成一个新矩阵,其秩(即r)远小于原始权重矩阵的秩。这个乘积实际上是对原始权重矩阵的一种低秩近似调整。

结合原始权重:最终,新生成的低秩矩阵AB被叠加到原始权重矩阵上。因此,原始权重经过了微调,但大部分权重维持不变。这个过程可以用数学表达式描述为:新权重 = 原始权重 + AB。

以一个具体实例来说,假设我们手头有一个大型语言模型,它通常用于执行广泛的自然语言处理任务。现在,我们打算将其微调,使其在处理医疗健康相关的文本上更为擅长。

AdaLoRA :LoRA 算法给所有的低秩矩阵指定了唯一的秩,从而忽略了不同模块、不同层的参数对于微调 特定任务的重要性差异。因此,文献 [147] 提出了 AdaLoRA(Adaptive Budget Allocation forParameterEfficient Fine-Tuning)算法,在微调过程中根据各权重矩阵对下游任务的重要性动态调整秩的大 小,用以进一步减少可训练参数量的同时保持或提高性能。

1.2.2QLoRA

QLoRA(Quantized Low-Rank Adaptation)是一种结合了LoRA(Low-Rank Adaptation)方法与深度量化技术的高效模型微调手段。

QLoRA的核心在于量化技术:QLoRA采用创新的技术将预训练模型量化为4位。这一技术包括低精度存储数据类型(4-bit NormalFloat,简称NF4)和计算数据类型(16-bit BrainFloat)。这种做法极大地减少了模型存储需求,同时保持了模型精度的最小损失。

补充:

量化是一个将连续信号转换为离散信号的过程

1Byte=8bit

32位浮点数占用4个字节的存储空间。量化后的表示将原始的32位浮点数转换为4位,也就是0.5个字节。新的集合由16个不同的值组成(因为2^4=16)。

微调阶段:在训练期间,QLoRA先以4-bit格式加载模型,训练时将数值反量化到bf16进行训练,这样大幅减少了训练所需的显存。例如,33B的LLaMA模型可以在24 GB的显卡上进行训练。

量化过程的挑战在于设计合适的映射和量化策略,以最小化精度损失对性能的影响。在大型模型中,这种方法可以显著减少内存和计算需求,使得在资源有限的环境下部署和训练成为可能。

1.2.3适配器调整(Adapter Tuning)

适配器调整的方法是在模型的每个层或选定层之间插入小型神经网络模块,称为“适配器”。这些适配器是可训练的,而原始模型的参数则保持不变。

适配器调整的关键步骤包括:

以预训练模型为基础:初始阶段,我们拥有一个已经经过预训练的大型模型,如BERT或GPT,该模型已经学习了丰富的语言特征和模式。

插入适配器:在预训练模型的每个层或指定层中,我们插入适配器。适配器是小型的神经网络,一般包含少量层次,并且参数规模相对较小。

维持预训练参数不变:在微调过程中,原有的预训练模型参数保持不变。我们不直接调整这些参数,而是专注于适配器的参数训练。

训练适配器:适配器的参数会根据特定任务的数据进行训练,使适配器能够学习如何根据任务调整模型的行为。

针对任务的调整:通过这种方式,模型能够对每个特定任务进行微调,同时不影响模型其他部分的通用性能。适配器有助于模型更好地理解和处理与特定任务相关的特殊模式和数据。

高效与灵活:由于只有部分参数被调整,适配器调整方法相比于全模型微调更为高效,并且允许模型迅速适应新任务。

1.2.4前缀调整(Prefix Tuning)

在每一层Transformer结构的输入前都添加可训练的Token,使得模型在更深层次上能够捕捉到任务相关的信息。但这也增加了参数的数量和计算成本。

前缀实际上是一种连续可微的虚拟标记(Soft Prompt/Continuous Prompt),与离散的Token相比,它们更易于优化并且效果更佳。这种方法的优势在于不需要调整模型的所有权重,而是通过在输入中添加前缀来调整模型的行为,从而节省大量的计算资源,同时使得单一模型能够适应多种不同的任务。

在Prefix Tuning中,假设你希望模型能够更准确地翻译医学领域的句子,你可以在每一层Transformer的输入前都添加一些与医学相关的Token,如“[MEDICAL]”。然后,通过训练这些Token,模型能够更好地理解并翻译医学领域的句子。

1.2.5 提示调整(Prompt Tuning)

通过在输入层添加prompt tokens来为每个任务定制模型。这些prompt tokens可以看作是模型的一种“提示”,它们被添加到输入序列的开头或结尾,以引导模型更好地适应不同任务。

提示调整与前缀调整都涉及在输入数据中添加可学习的向量,这些向量是在输入层添加的,但两者的策略和目的不同:

提示调整主要通过引入任务指导信息来引导模型生成特定类型的输出,而前缀调整则通过提供输入数据的上下文信息来影响模型的行为。

例子:原始输入句子是:“What is the best place to visit in summer?”(夏天最好的旅游地点是哪里?)。在Prompt Tuning中,你会在输入句子前添加一些额外的Token,比如[TRAVEL],让输入变成:[TRAVEL] What is the best place to visit in summer? 这些[TRAVEL] Token是可训练的,通过训练这些Token,你可以让模型更好地理解这是一个关于旅游的问题。

1.2.6 P-Tuning

核心思想是在特定位置插入可训练的Token,使模型能够更好地理解下游任务的需求。

假设你有一个已经训练好的模型,可以生成文章。现在你希望它能够生成关于科技的文章。原始输入句子是:“Artificial intelligence is transforming the world.”(人工智能正在改变世界。)在P-Tuning中,你会在输入序列中间插入一些Token,比如[TECH],让输入变成:“Artificial intelligence [TECH] is transforming the world.” 这些[TECH] Token是可训练的,通过训练这些Token,你可以让模型更好地理解这是一个关于科技的文章。

1.2.7. P-Tuning v2

P-Tuning v2的改进在于,不仅在第一层插入连续提示,而是在多层都插入连续提示,且层与层之间的连续提示是相互独立的。

二、按训练流程划分

LLM训练流程

 2.1上下文学习(In-Context learning,ICL)

 不对 LLMs 执行任何的微调,直接将模型的输入输出拼接起来作为一个prompt,引导模型根据输入的数据结构demo,给出任务的预测结果。提示微调(Prompt Tuning)属于ICL的方式之一。

2.1.1语境学习(Incontext Learning, ICL)

是指模型可以从上下文中的几个例子中学习:向模型输入特定任务的一些具体例子(也称示例(Demonstration))以及要测试的样例,模型可以根据给定的示例续写出测试样例的答案。语境学习的关键思想是从类比中学习,整个过程并不需要对模型进行参数更新,仅执行向前的推理。

2.1.2模型上下文窗口扩展

上下文窗口(context window)是指语言模型在进行预测或生成文本时,所考虑的前一个词元(token)或文本片段的大小范围。

2.2有监督微调(Supervised Fine-Tuning,SFT)

又称指令微调,使用标记数据对预训练模型进行微调的过程

2.3RLHF(Reinforcement Learning from Human Feedback)

还没学完这部分单独写一篇文章

强化学习(Reinforcement Learning)结合人类反馈(Human Feedback)来微调大语言模型 

2.3.1强化学习基本概念

智能体在环境中获取某个状态后,会根据该状态输出一个动作,也称为决策。 动作会在环境中执行,环境会根据智能体采取的动作,给出下一个状态以及当前动作所带来的奖励。智能体的目标就是尽可能多地从环境中获取奖励。

从机器狗学习抓飞盘的深入理解强化学习的概念

机器狗扔飞盘,机器狗形成了一个智能体。它会执行动作。飞盘的轨迹、速度构成了环境。机器狗根据当前环境反馈的关于飞盘的状态来决定采取什么动作。同时,根据机器狗所执行的动作,环境随后会给出一个反馈即奖励

机器狗根据不同的环境状态采取不同的动作的过程就是学习策略的过程,同时它会根据价值函数来预测自己所采取的行为可能带来的奖励是多少。

总体来说,强化学习的目标就是让智能体通过与环境的互动,学习到一个策略,使其能够在将来获得的奖励最大化。这使得强化学习不总是关注近期奖励,而是在短期的奖励与远期奖励之间找到平衡。

动作分类:离散动作空间、连续动作空间

策略:将输入的状态变成动作。随机性策略:根据输入的状态利用概率分布采样一个动作,确定性策略:智能体直接采取最有可能的动作。

价值函数:对未来奖励的预测。

智能体分类:基于价值的智能体(Value-based Agent)显式地学习价值函数,隐式地学习策略。基于策略的智能体(Policy-based Agent)则 是直接学习策略函数。策略函数的输入为一个状态,输出为对应动作的概率。演员-评论员智能体(Actor-critic Agent)则 是把基于价值的智能体和基于策略的智能体结合起来。

在LLM中智能体是模型,动作是它输出的结果

2.3.2基于人类反馈的强化学习

步骤1:预训练语言模型+有标签数据微调

步骤2:训练奖励模型

评判模型输出的回答在人类看来是否质量不错,即输入 [提示(prompt),模型生成的回答] ,奖励模型输出一个能表示回答质量的标量数字。这些不同的排序结果会通过某种归一化的方式变成定量的数据丢给模型训练,从而获得一个奖励模型。也就是一个裁判员。

步骤3:通过强化学习微调语言模型

近端策 略优化的实施流程如下:

(1) 环境采样:策略模型基于给定输入生成一系列的回复,奖励模型则对这些回复进行打分获得奖励。

(2) 优势估计:利用评论模型预测生成回复的未来累积奖励,并借助广义优势估计(Generalized Advantage Estimation,GAE)算法来估计优势函数,能够有助于更准确地评估每次行动的 好处。

(3) 优化调整:使用优势函数来优化和调整策略模型,同时利用参考模型确保更新的策略不会有 太大的变化,从而维持模型的稳定性。

三 总结

3.1Prompt-based Learning、Prompt tuning、Prompt engineering的区别

提示学习(Prompt-based Learning)

以下图为例包括三个步骤:提示添加、答案搜索、答案映射。

  • Prompt-based Learning是一种更广泛的概念,它涵盖了利用预训练语言模型处理各种下游任务的方法,而Prompt Tuning和Prompt Engineering则是这种方法的两种具体实现。
  • Prompt Tuning侧重于通过修改输入提示来引导模型生成符合特定任务或情境的输出,而无需对模型的全量参数进行微调。它更关注于提示的修改和模型输出的引导。
  • Prompt Engineering则更侧重于对输入文本的精心设计,包括选择适当的词汇、语法结构和上下文等,以生成能够引导模型产生期望输出的提示。它更关注于提示的优化和模型表现的提升。
  • Prompt-based Learning、Prompt Tuning和Prompt Engineering都旨在利用预训练语言模型处理各种下游任务,并通过优化输入端的提示来提高模型的准确性和效率。
  • 在实际应用中,Prompt Tuning和Prompt Engineering可以相互补充。通过Prompt Tuning对输入提示进行微调,可以进一步优化Prompt Engineering中设计的提示,从而提高模型的表现。

3.2提示工程,RAG和微调

提示工程(Prompt Engineering):构建文本,然后把它输入给large language model,得出我们想要的结果。

RAG(Retrieval Augmented Generation):拿到用户的question之后,先在我们的知识库中去检索和用户的query相关的内容,再基于这些检索的结果,用它来组织prompt,提示给大模型得出我们希望能够得到的那种高质量的准确的响应。

微调(Fine-tuning):它和前两个不同的地方在于,前面两种技术,不管是提示工程还是RAG,大模型本身是没有任何的变化的,但是如果做微调,其实是要去通过一个训练的过程来修改大模型它本身的参数。

参考说明

1.【大模型微调】一文掌握7种大模型微调的方法-CSDN博客

2.大模型学习路线(4)——大模型微调_p-tuning v2是全参微调吗-CSDN博客

3.五万字综述!Prompt-Tuning:深度解读一种新的微调范式 - 知乎 (zhihu.com)

4.【大模型开发 】 一文搞懂Fine-tuning(大模型微调)_finetuning大模型-CSDN博客

5. 《大规模语言模型从理论到实践》书第5、6章

6.大语言模型上下文窗口初探(上)-CSDN博客

7.五分钟弄清楚爆火的提示工程,RAG和微调-CSDN博客

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.rhkb.cn/news/447676.html

如若内容造成侵权/违法违规/事实不符,请联系长河编程网进行投诉反馈email:809451989@qq.com,一经查实,立即删除!

相关文章

大数据-170 Elasticsearch 云服务器三节点集群搭建 测试运行

点一下关注吧!!!非常感谢!!持续更新!!! 目前已经更新到了: Hadoop(已更完)HDFS(已更完)MapReduce(已更完&am…

注意力机制2024持续发力!多尺度卷积+Attention一举拿下高分!模型准确率几乎100%

如何构建出更强大灵活的深度学习模型?或许我们可以考虑一个先进的方法:多尺度卷积注意力机制。 多尺度卷积先提供丰富的特征信息,注意力机制再从中筛选出关键信息,这样结合起来,不仅可以进一步提高模型的识别精度和效…

ubuntu中多cuda版本兼容问题

当ubuntu中已经有老版本的cuda时,按正常步骤直接下载新的cuda和cudnn,只需要注意在下载新的cuda版本时,出现“A symlink already exists at /usr/local/cuda. Update to this installation?”,选择“no”,之后按如下的…

redis与springBoot整合

前提 要实现,使用Redis存储登录状态 需要一个完整的前端后端的项目 前端项目搭建 解压脚手架 安装依赖 配置请求代理 选做: 禁用EsLint语法检查 Vue Admin Template关闭eslint校验,lintOnSave:false设置无效解决办法_lintonsave: false-CSDN博客 …

【精选】基于SpringBoot+Vue的生鲜交易系统设计与实现(源码+定制+开发)

博主介绍: ✌我是阿龙,一名专注于Java技术领域的程序员,全网拥有10W粉丝。作为CSDN特邀作者、博客专家、新星计划导师,我在计算机毕业设计开发方面积累了丰富的经验。同时,我也是掘金、华为云、阿里云、InfoQ等平台…

智能健康推荐:SpringBoot技术应用

5系统详细实现 5.1 管理员模块的实现 5.1.1 用户管理 基于智能推荐的卫生健康系统的系统管理员可以管理用户管理,可以对用户管理信息添加修改删除以及查询操作。具体界面的展示如图5.1所示。 图5.1 用户管理信息管理界面 5.1.2 科室类型管理 系统管理员可以查看对…

C++进阶——多态

目录 一、多态的概念 二、多态的实现 1.逻辑条件 2.代码层面 3.一个经典题目 4.虚函数重写的其它问题 4.1协变(了解) 4.2析构函数重写 4.3 override和final 4.4重载、重写(覆盖)和隐藏的对比 5.纯虚函数和抽象类 三、…

k8s的部署

一、K8S简介 Kubernetes中文官网:Kubernetes GitHub:github.com/kubernetes/kubernetes Kubernetes简称为K8s,是用于自动部署、扩缩和管理容器化应用程序的开源系统,起源于Google 集群管理工具Borg。 Kubernetes集群组件逻辑图…

AI核身-金融场景凭证篡改检测Baseline实践

金融领域交互式自证业务中涵盖信用成长、用户开户、商家入驻、职业认证、商户解限等多种应用场景,通常都需要用户提交一定的材料(即凭证)用于证明资产收入信息、身份信息、所有权信息、交易信息、资质信息等,而凭证的真实性一直是…

柑橘缺陷病害识别数据集YOLO 1290张,xml和txt标签都有;5类别:yolov5-v10通用 包含数据集➕模型➕可视化界面

YOLO柑橘缺陷病害识别数据集 ✓图片数量1290,xml和txt标签都有; 5类 类别:Orange-Black-Spot,Orange-Canker ,Orange-Greening,Orange-Healthy,Orange-Melanose; 数据集 YOLO柑橘缺…

微信支付商家转账到零钱审核不通过解决方法

商家转账到零钱功能通常指的是微信支付提供的一项服务,允许商家将资金转账至用户的微信零钱账户。以下是商家转账到零钱的最优申请方案总结: 一、申请条件确认 1. 主体资格: a.申请主体必须为公司性质(有限公司类型)…

Apache Doris介绍

Apache Doris 的发展 Apache Doris 是一款基于 MPP 架构的高性能、实时的分析型数据库,以高效、简单、统一的特点被人们所熟知,仅需亚秒级响应时间即可返回海量数据下的查询结果,不仅可以支持高并发的点查询场景,也能支持高吞吐的…

【LeetCode每日一题】——724.寻找数组的中心下标

文章目录 一【题目类别】二【题目难度】三【题目编号】四【题目描述】五【题目注意】六【题目示例】七【题目提示】八【解题思路】九【时间频度】十【代码实现】十一【提交结果】 一【题目类别】 前缀和 二【题目难度】 简单 三【题目编号】 724.寻找数组的中心下标 四【…

挖掘空间数据要素典型领域应用场景

空间数据要素作为数字经济的基石,正在多个领域发挥着重要作用。随着技术的发展,空间数据的应用场景不断拓展,为各行各业带来了深刻的变革。以下是几个典型的空间数据要素应用领域: 1. 城市规划与管理 空间数据在城市规划和管理中…

opencv学习:人脸识别器特征提取BPHFaceRecognizer_create算法的使用

BPHFaceRecognizer_create算法 在OpenCV中,cv2.face.LBPHFaceRecognizer_create()函数用于创建一个局部二值模式直方图(Local Binary Patterns Histograms,简称LBPH)人脸识别器。LBPH是一种用于人脸识别的特征提取方法&#xff0…

Python 入门(二、什么是 Python 的虚拟环境)

Python 入门第二课 ,Python 的虚拟环境...... by 矜辰所致前言 本来以为环境搭建好了,就直接开始敲代码了,但是一直看到一个专业词汇:虚拟环境。 对于习惯了嵌入式 C 语言开发博主来说,一开始确实有点不明白&#xf…

k8s杂记

在node节点内部使用kubectl: rootmultinode-demo-m02:/# ps aux | grep kubelet root 218 3.1 1.6 2066316 62516 ? Ssl 07:35 0:29 /var/lib/minikube/binaries/v1.30.0/kubelet --bootstrap-kubeconfig/etc/kubernetes/bootstrap-kubelet.con…

PL/SQL Developer如何连接Oracle数据库(汉化)

简介 PL/SQL Developer是一种用于Oracle数据库开发的集成开发环境(IDE)。它提供了一个可视化的界面,使开发人员能够方便地编写、调试和执行PL/SQL代码。PL/SQL Developer还具有其他功能,如数据库对象浏览器、SQL编辑器、数据导入…

JavaScript | 定时器(setInterval和clearInterval)的使用

效果图如下&#xff1a; 当用户第一次看到这个页面时&#xff0c;按钮是不可点击的&#xff0c;并显示一个5秒的倒计时。倒计时结束后&#xff0c;按钮变为可点击状态&#xff0c;并显示“同意协议”。这样做的目的是确保用户有足够的时间阅读用户协议。 <!DOCTYPE html>…

AI核身-金融场景凭证篡改检测YOLO原理

引言 YOLO (You Only Look Once) 模型是一种先进的实时目标检测算法&#xff0c;它在计算机视觉领域具有重要的地位。YOLO以其速度和准确性而闻名&#xff0c;能够快速识别图像和视频中的各种物体。这使得它在自动驾驶、安全监控、机器人技术、医学影像分析等众多领域都有着广…