政安晨的AI大模型训练实践 九 - 熟悉LLaMA Factory的详细参数含义-基本概念理解一下

政安晨的个人主页:政安晨

欢迎 👍点赞✍评论⭐收藏

希望政安晨的博客能够对您有所裨益,如有不足之处,欢迎在评论区提出指正!

小伙伴铁子们,上手先熟悉起来训练工具的每一个参数,很重要。

参照我以前的文章先把您的工具搞起来,然后开干!LLaMAFactory可以成为你启动训练的手边工具。

深度理解一下所有可能的参数:

本篇就科普了: 

1. 什么是SFT训练?

SFT(Supervised Fine-Tuning,监督微调)是大语言模型训练过程中的一种重要方法。在大语言模型的训练流程中,通常会经历预训练、微调和对齐等阶段,而SFT就是微调阶段的核心技术之一。

SFT的基本概念

在SFT阶段,已经通过大规模无标注语料库进行过预训练的语言模型会被进一步用有标注的数据集进行微调。这些数据集通常是经过人工精心挑选和标注的,包含了特定任务或领域的样本,比如问答、文本生成、情感分析等。通过在这些有标注的数据上进行监督学习,模型可以更好地理解和掌握特定任务的要求和规则,从而提高其在实际应用中的性能。

SFT的工作原理

  1. 选择合适的微调数据 :根据目标任务的特点和需求,选择与之匹配的有标注数据集。这些数据集应该能够充分覆盖任务的各种情况和变化,以帮助模型全面地学习和理解任务。

  2. 设计微调任务 :针对具体的应用场景,设计相应的微调任务。这可能包括定义输入输出格式、设定评估指标等。例如,在问答任务中,需要明确问题和答案的表示方式;在文本生成任务中,则要规定生成文本的长度、风格等要求。

  3. 执行监督学习 :利用选定的数据集和设计好的任务,对预训练模型进行监督学习。在这个过程中,模型会不断调整其参数,以最小化预测结果与真实标签之间的差异,从而逐步提升其在特定任务上的表现。

  4. 评估和迭代优化 :完成一轮微调后,需要对模型的性能进行评估,并根据评估结果进行必要的调整和优化。这可能涉及到增加更多的训练数据、修改任务设计、调整模型结构等。通过反复迭代,最终使模型达到满意的性能水平。

SFT的优势

  • 针对性强 :SFT能够使模型专注于特定任务的学习,相比仅依赖于预训练模型,更能满足实际应用场景的需求。
  • 效果显著 :通过在有标注数据上进行监督学习,SFT可以有效提升模型在特定任务上的准确性和鲁棒性。
  • 灵活性高 :SFT适用于各种不同类型的任务和领域,可以根据具体需求灵活地选择和设计微调数据及任务。

总之,SFT是大语言模型训练流程中不可或缺的一环,它通过在有标注数据上进行监督学习,使模型能够更好地适应和胜任特定任务,从而为实际应用提供更高质量的语言处理服务。

2. 什么是RM训练?

在大语言模型的训练过程中,Reward Modeling(奖励建模,简称RM) 是一种用于对齐模型输出与人类偏好的技术。它通常应用于强化学习阶段(如 RLHF,Reinforcement Learning from Human Feedback ),以帮助模型生成更符合人类期望的文本。

RM的基本概念

奖励建模的核心思想是通过构建一个奖励函数(Reward Function),来评估模型生成的文本质量,并根据该奖励信号指导模型优化其输出。奖励函数通常由一个专门的奖励模型(Reward Model)来实现,这个模型会基于人类反馈数据进行训练,从而学会预测人类对不同文本输出的偏好。

RM的工作流程

  1. 收集人类反馈数据

    • 为了训练奖励模型,首先需要收集大量的对比数据或评分数据。这些数据通常是通过人工标注的方式获得的。
    • 例如,给定同一个输入(如一个问题或提示),让模型生成多个不同的回答,然后由人类标注者对这些回答进行排序或打分,选出他们认为最好的回答。
  2. 训练奖励模型

    • 使用收集到的人类反馈数据,训练一个奖励模型。这个模型的任务是学习如何为模型生成的文本分配奖励分数。
    • 奖励模型通常是一个小型的神经网络,它的输入是模型生成的文本,输出是对该文本的奖励分数。
    • 在训练过程中,奖励模型的目标是尽量准确地预测人类对文本的偏好(例如,高分对应更好的回答,低分对应较差的回答)。
  3. 强化学习优化

    • 一旦奖励模型训练完成,它就可以被用来指导大语言模型的强化学习过程。
    • 在强化学习中,模型会根据奖励模型给出的分数调整其生成策略,逐步生成更符合人类偏好的文本。
    • 具体来说,强化学习算法(如 PPO,Proximal Policy Optimization)会利用奖励模型的反馈来更新模型参数,使得模型生成的文本能够最大化奖励分数。

RM的关键作用

  • 对齐人类偏好 :奖励建模的核心目标是让模型生成的文本更加符合人类的期望和偏好。通过引入人类反馈,模型可以避免生成不符合人类价值观的内容(如不相关、有害或低质量的文本)。

  • 提供可量化的奖励信号 :奖励模型为强化学习提供了一个明确的优化目标。相比于直接使用人类反馈,奖励模型可以更快地评估大量生成的文本,并为模型提供连续的奖励信号。

  • 提升生成质量 :通过奖励建模和强化学习的结合,模型可以在生成任务中表现出更高的质量和一致性,尤其是在复杂任务(如对话系统、代码生成等)中。

RM与其他训练方法的关系

  • 与SFT(监督微调)的区别

    • SFT 是通过有标注的数据直接对模型进行监督学习,而 RM 是通过人类反馈间接指导模型优化。
    • SFT 更适合于特定任务的微调,而 RM 则更适合于对齐模型输出与人类偏好。
  • 与RLHF的关系

    • RM 是 RLHF 的重要组成部分。RLHF 包括两个关键步骤:首先是训练奖励模型(RM),然后是使用奖励模型进行强化学习。
    • RM 提供了强化学习所需的奖励信号,而强化学习则利用这些信号优化模型的行为。

RM的优势

  1. 灵活性 :奖励建模可以根据不同的任务和应用场景定制奖励函数,适应多种需求。
  2. 高效性 :相比于直接依赖人类反馈,奖励模型可以快速评估大量生成样本,加速模型优化过程。
  3. 对齐效果好 :通过引入人类偏好,奖励建模能够显著提升模型生成内容的质量和安全性。

RM的挑战

  1. 数据需求 :奖励建模需要大量高质量的人类反馈数据,这可能会带来较高的标注成本。
  2. 奖励模型的偏差 :如果奖励模型未能准确捕捉人类的真实偏好,可能会导致模型优化方向偏离预期。
  3. 复杂性 :奖励建模和强化学习的结合增加了训练流程的复杂性,可能需要更多的计算资源和技术支持。

总结

Reward Modeling(奖励建模)是一种通过对人类反馈进行建模来优化大语言模型的技术。它是 RLHF 流程中的关键环节,能够帮助模型生成更符合人类偏好的高质量文本。通过奖励模型提供的奖励信号,模型可以在强化学习过程中逐步改进其行为,最终实现更好的对齐效果。

3.pt(pretrain)是什么?

在大语言模型的训练过程中,Pretraining(预训练,简称PT) 是指使用大规模无标注数据对模型进行初始训练的过程。这是构建强大语言模型的第一步,也是整个训练流程中最为关键和基础的部分。

预训练的基本概念

预训练的目标是让模型从海量的文本数据中学习通用的语言知识和模式,包括语法、语义、上下文关系等。这些知识为后续的微调(Fine-tuning)或其他任务提供了坚实的基础。

预训练通常采用自监督学习(Self-Supervised Learning)的方式,即不需要人工标注的数据,而是通过设计特定的学习任务(如掩码语言建模或下一句预测),让模型从原始文本中自动学习。

预训练的工作原理

  1. 数据准备

    • 预训练需要大量的无标注文本数据,通常来自互联网、书籍、文章、代码等多种来源。
    • 数据的质量和多样性对模型的表现至关重要。例如,GPT 和 BERT 等模型使用了数十亿甚至上万亿个单词的文本数据。
  2. 模型架构

    • 预训练通常基于深度神经网络架构,比如 Transformer(目前最流行的架构)。
    • Transformer 的自注意力机制(Self-Attention)使模型能够捕捉长距离依赖关系,并高效处理序列数据。
  3. 自监督学习任务

    • 预训练的核心是设计自监督学习任务,让模型从数据中学习语言规律。以下是两种常见的任务:
      • 掩码语言建模(Masked Language Modeling, MLM)
        • 例如,BERT 使用 MLM 任务,随机遮盖输入句子中的某些词,然后让模型根据上下文预测被遮盖的词。
        • 示例:输入 [I love [MASK] coffee],模型需要预测 [MASK]hot
      • 因果语言建模(Causal Language Modeling, CLM)
        • 例如,GPT 使用 CLM 任务,给定前面的词,预测下一个词。
        • 示例:输入 [I love],模型需要预测下一个词是 coffee
  4. 优化目标

    • 预训练的目标是最小化模型预测与真实值之间的差异,通常使用交叉熵损失函数(Cross-Entropy Loss)来衡量。
  5. 大规模计算资源

    • 预训练需要大量的计算资源,包括高性能 GPU 或 TPU 集群,因为模型参数量巨大(如 GPT-3 有 1750 亿参数),且训练数据规模庞大。

预训练的优势

  1. 通用性

    • 预训练模型通过学习大量文本数据,掌握了广泛的语言知识,可以应用于多种下游任务(如分类、生成、翻译等)。
  2. 迁移学习能力

    • 预训练模型可以在少量标注数据的情况下快速适应特定任务,这得益于其在预训练阶段学到的丰富语言表示。
  3. 减少标注成本

    • 预训练不需要标注数据,避免了高昂的人工标注成本。
  4. 强大的表征能力

    • 预训练模型能够捕捉到深层次的语言结构和语义信息,为后续任务提供高质量的特征表示。

预训练与其他训练阶段的关系

  1. 与微调(Fine-Tuning)的关系

    • 预训练是一个通用的学习过程,而微调则是针对特定任务的定制化训练。
    • 微调通常在预训练模型的基础上进行,利用少量标注数据调整模型参数,使其更适合特定任务。
  2. 与奖励建模(Reward Modeling)的关系

    • 预训练为奖励建模提供了初始的语言理解能力,而奖励建模则进一步对齐模型输出与人类偏好。
  3. 与强化学习(Reinforcement Learning)的关系

    • 预训练模型可以通过强化学习进一步优化,以生成更高质量的文本。

预训练的挑战

  1. 数据质量

    • 如果预训练数据中包含噪声或偏见,模型可能会学到错误的知识或产生有害的输出。
  2. 计算成本

    • 预训练需要大量的计算资源和时间,尤其是对于超大规模模型(如 GPT-3、PaLM 等)。
  3. 灾难性遗忘

    • 在微调阶段,模型可能会忘记预训练中学到的一些通用知识,导致性能下降。
  4. 泛化能力

    • 虽然预训练模型具有很强的泛化能力,但在某些特定领域(如医学、法律)可能仍需额外的领域数据进行微调。

总结

预训练是大语言模型训练的基础阶段,通过自监督学习让模型从海量无标注数据中学习通用的语言知识。它为后续的微调、奖励建模和强化学习提供了强大的起点,使得模型能够在各种任务中表现出色。预训练的成功依赖于高质量的数据、强大的模型架构和充足的计算资源,同时也面临着数据偏差、计算成本等挑战。

4.PPO是什么?

在大语言模型的训练中,PPO(Proximal Policy Optimization,近端策略优化) 是一种强化学习算法,广泛用于通过人类反馈(RLHF, Reinforcement Learning from Human Feedback)来微调模型。PPO 的目标是通过优化策略(即模型的行为),使模型生成更符合人类期望的文本。

PPO的基本概念

PPO 是一种基于策略梯度(Policy Gradient)的强化学习方法,旨在解决传统策略梯度方法中的一些问题,例如训练不稳定性和样本效率低下。它通过对策略更新进行约束,确保每次更新不会偏离当前策略太远,从而实现稳定且高效的优化。

在大语言模型的上下文中,PPO 通常用于以下场景:

  • 奖励建模后的强化学习 :在训练奖励模型(Reward Model)后,使用 PPO 算法根据奖励信号优化模型。
  • 对齐模型输出与人类偏好 :通过奖励信号指导模型生成更高质量、更符合人类偏好的文本。

PPO的优势

  1. 稳定性

    PPO 通过裁剪目标限制策略更新的幅度,避免了传统策略梯度方法中的剧烈波动,从而提高了训练的稳定性。
  2. 高效性

    PPO 使用小批量数据进行多次更新,显著提高了样本效率,减少了对大量标注数据的需求。
  3. 灵活性

    PPO 可以应用于各种任务和场景,尤其是在需要对齐模型输出与人类偏好的情况下表现优异。
  4. 简单性

    相较于其他强化学习算法(如 TRPO),PPO 的实现更为简单,同时性能也相当出色。

PPO在大语言模型中的应用

在大语言模型的训练流程中,PPO 通常用于 RLHF 的第二阶段(强化学习阶段),其主要步骤如下:

  1. 预训练模型

    • 首先通过大规模无标注数据进行预训练,得到一个具备通用语言能力的基础模型。
  2. 监督微调(SFT)

    • 使用少量标注数据对模型进行微调,使其初步适应特定任务。
  3. 奖励建模(RM)

    • 收集人类反馈数据,训练奖励模型,用于评估模型生成文本的质量。
  4. PPO 强化学习

    • 使用 PPO 算法根据奖励模型提供的奖励信号进一步优化模型。
    • 在这个阶段,模型会生成大量文本样本,并根据奖励分数调整其生成策略,逐步提高生成质量。

总结

PPO 是一种强大的强化学习算法,广泛应用于大语言模型的训练中,特别是在 RLHF 流程中。通过结合奖励模型和 PPO 算法,可以有效地对齐模型输出与人类偏好,提升生成文本的质量和安全性。尽管 PPO 存在一些挑战,但其稳定性、高效性和灵活性使其成为当前大语言模型训练的重要工具之一。

5.DPO是什么?

在大语言模型的训练中,DPO(Direct Preference Optimization,直接偏好优化) 是一种新兴的方法,用于通过人类反馈来对齐模型输出与人类偏好。与传统的 RLHF(Reinforcement Learning from Human Feedback) 方法不同,DPO 不依赖于显式的奖励建模或强化学习(如 PPO),而是直接优化模型以生成更符合人类偏好的文本。

DPO的基本概念

DPO 的核心思想是将人类偏好直接嵌入到模型的训练目标中,而无需显式地构建奖励模型或使用复杂的强化学习算法。这种方法简化了训练流程,同时避免了奖励建模和策略优化中的潜在问题。

在 DPO 中,人类偏好通常以成对比较的形式提供:给定同一个输入,标注者会比较两个不同的模型输出,并选择他们更喜欢的一个。DPO 利用这些偏好数据,直接调整模型参数,使得模型生成更符合人类期望的文本。

DPO的优势

  1. 简化训练流程

    DPO 不需要构建奖励模型或使用强化学习算法(如 PPO),从而显著简化了训练流程。
  2. 减少误差累积

    在传统 RLHF 中,奖励模型的误差可能会传递到强化学习阶段,影响最终模型的表现。DPO 避免了这一问题,因为它直接基于人类偏好进行优化。
  3. 高效性

    DPO 可以直接利用现有的预训练模型,只需少量的偏好数据即可实现显著改进。
  4. 更好的对齐效果

    DPO 更加专注于人类偏好本身,避免了奖励建模可能引入的偏差。

DPO与其他方法的对比

  1. 与RLHF的对比

    • RLHF :需要先训练奖励模型,然后使用强化学习(如 PPO)优化策略。流程复杂,计算成本高。
    • DPO :直接基于偏好数据优化模型,无需奖励建模或强化学习,流程更简单。
  2. 与PPO的对比

    • PPO :依赖于奖励信号和策略梯度更新,可能存在训练不稳定性和样本效率低的问题。
    • DPO :通过直接优化模型参数,避免了策略更新的复杂性。
  3. 与SFT的对比

    • SFT(监督微调) :基于明确的标注数据进行监督学习,但无法充分捕捉人类偏好。
    • DPO :利用成对比较数据,能够更好地反映人类的主观偏好。

总结

DPO 是一种创新的大语言模型训练方法,通过直接优化模型以对齐人类偏好,避免了传统 RLHF 方法中的复杂性和潜在问题。它简化了训练流程,减少了误差累积,并能够更高效地利用人类反馈数据。尽管 DPO 仍面临一些挑战(如偏好数据需求和超参数调整),但它为大语言模型的对齐问题提供了一种简洁而有效的解决方案。

6.KTO是什么?

在大语言模型的训练中,KTO(Knowledge Transfer Optimization,知识迁移优化) 是一种用于提升模型性能的技术,特别是在多任务学习或跨领域应用中。KTO 的核心思想是通过将一个模型(或多个模型)的知识迁移到目标模型中,从而提高目标模型的学习效率和泛化能力。

尽管 KTO 并不是一个广泛标准化的术语,但它可以用来描述一系列与知识迁移相关的技术,例如 知识蒸馏(Knowledge Distillation) 迁移学习(Transfer Learning) 多任务学习(Multi-Task Learning) 等。以下是对这些相关概念的详细解释。

KTO的基本概念

  1. 知识迁移

    • 知识迁移是指将一个已经训练好的模型(通常称为“教师模型”)的知识传递给另一个模型(通常称为“学生模型”)。
    • 目标是让学生模型在较少的数据或计算资源下,达到接近教师模型的性能。
  2. 应用场景

    • 跨领域迁移 :将一个领域的知识迁移到另一个领域(如从通用语言模型迁移到特定领域模型)。
    • 模型压缩 :将大型模型的知识迁移到小型模型,以降低推理成本。
    • 多任务学习 :通过共享知识,提升模型在多个任务上的表现。

KTO的优势

  1. 提升模型性能

    • 通过知识迁移,目标模型可以从教师模型或相关任务中受益,从而更快地学习并达到更高的性能。
  2. 减少数据需求

    • 知识迁移可以显著减少对标注数据的需求,尤其是在目标任务数据稀缺的情况下。
  3. 降低计算成本

    • 模型压缩技术(如知识蒸馏)可以将大型模型的知识迁移到小型模型,从而降低推理成本。
  4. 增强泛化能力

    • 知识迁移可以帮助模型更好地泛化到未见过的数据或领域。

总结

KTO 是一种通过知识迁移优化大语言模型的技术,涵盖了知识蒸馏、迁移学习和多任务学习等多种方法。它能够有效提升模型性能、减少数据需求、降低计算成本,并增强模型的泛化能力。然而,KTO 也面临知识匹配、负迁移等挑战,需要根据具体任务和场景进行调整和优化。

在实际应用中,KTO 可以与其他训练方法(如 SFT、RLHF、DPO 等)结合使用,进一步提升大语言模型的表现。

7.ORPO是什么?

在大语言模型的训练中,ORPO(Outcome-Regularized Policy Optimization,结果正则化策略优化) 是一种新兴的方法,用于通过强化学习对齐模型输出与人类偏好。与传统的 RLHF(Reinforcement Learning from Human Feedback) 方法相比,ORPO 引入了一种新的优化目标,将生成文本的结果(Outcome)直接纳入策略优化过程中,从而提高训练效率和生成质量。

ORPO的基本概念

ORPO 的核心思想是将生成文本的结果(如最终的人类评分或任务完成度)作为优化目标的一部分,而不仅仅依赖于中间奖励信号(Reward Signal)。这种方法可以更直接地优化模型生成的最终效果,减少奖励建模中的偏差和误差。

在 ORPO 中,模型的目标不仅是最大化即时奖励,还需要考虑生成文本的长期结果。这使得 ORPO 更适合处理复杂的生成任务,例如对话系统、故事生成等。

ORPO的优势

  1. 更直接的优化目标

    • ORPO 将生成文本的最终结果纳入优化目标中,能够更直接地提升模型的实际表现。
  2. 减少奖励建模的偏差

    • 传统 RLHF 方法依赖于奖励模型,可能会引入偏差。ORPO 通过结合最终结果,减少了这种偏差的影响。
  3. 高效性

    • ORPO 可以直接利用现有的预训练模型,只需少量的偏好数据即可实现显著改进。
  4. 更好的对齐效果

    • ORPO 更加专注于生成文本的实际效果,能够更好地对齐模型输出与人类偏好。

ORPO与其他方法的对比

  1. 与RLHF的对比

    • RLHF :需要先训练奖励模型,然后使用强化学习(如 PPO)优化策略。流程复杂,计算成本高。
    • ORPO :直接基于最终结果进行优化,无需显式的奖励建模或复杂的强化学习算法。
  2. 与PPO的对比

    • PPO :依赖于即时奖励信号和策略梯度更新,可能存在训练不稳定性和样本效率低的问题。
    • ORPO :通过引入结果正则化,能够更直接地优化生成文本的最终效果。
  3. 与DPO的对比

    • DPO :基于偏好数据直接优化模型,但主要关注即时奖励。
    • ORPO :不仅关注即时奖励,还结合生成文本的最终结果,优化目标更加全面。

总结

ORPO 是一种创新的大语言模型训练方法,通过将生成文本的最终结果纳入优化目标中,直接对齐模型输出与人类偏好。它简化了传统 RLHF 方法中的复杂流程,减少了奖励建模的偏差,并能够更高效地利用人类反馈数据。尽管 ORPO 仍面临一些挑战(如最终结果数据的需求和正则化权重的选择),但它为大语言模型的对齐问题提供了一种简洁而有效的解决方案。

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.rhkb.cn/news/23675.html

如若内容造成侵权/违法违规/事实不符,请联系长河编程网进行投诉反馈email:809451989@qq.com,一经查实,立即删除!

相关文章

【Rust中级教程】2.8. API设计原则之灵活性(flexible) Pt.4:显式析构函数的问题及3种解决方案

喜欢的话别忘了点赞、收藏加关注哦(加关注即可阅读全文),对接下来的教程有兴趣的可以关注专栏。谢谢喵!(・ω・) 说句题外话,这篇文章一共5721个字,是我截至目前写的最长的一篇文章&a…

git 克隆及拉取github项目到本地微信开发者工具,微信开发者工具通过git commit、git push上传代码到github仓库

git 克隆及拉取github项目到本地微信开发者工具,微信开发者工具通过git commit、git push上传代码到github仓库 git 克隆及拉取github项目到本地 先在自己的用户文件夹新建一个项目文件夹,取名为项目名 例如这样 C:\Users\HP\yzj-再打开一个终端页面&…

gitlab初次登录为什么登不上去

今天又写了一次gitlab安装后,第一次登录的问题。 gitlab工作笔记_gitlab默认用户名密码-CSDN博客 因为又掉这个坑里了。 # 为什么第一次登录这么难? 第一是因为gitlab启动的时间很长,有时候以为装错了。 第二是初始密码,如果…

华为认证考试证书下载步骤(纸质+电子版)

华为考试证书可以通过官方渠道下载相应的电子证书,部分高级认证如HCIE还支持申请纸质证书。 一、华为电子版证书申请步骤如下: ①访问华为培训与认证网站 打开浏览器,登录华为培训与认证官方网站 ②登录个人账号 在网站首页,点…

【UCB CS 61B SP24】Lecture 11 - Inheritance 4: Iterators, Object Methods学习笔记

本文内容为集合(Set)的介绍与使用,并通过数组手动实现集合,接着介绍了迭代器,使用迭代器我们能够更方便地遍历集合中的元素。 1. Set 1.1 Set介绍与Java实现类的使用 集合(Set)是一种常见的数…

sessionStorage问题的思考和解决

通过前端访问成功,直接访问后端接口失败。思考的过程、问题的解决Session和sessionStorage 通过前端访问成功,直接访问后端接口失败。 做黑马点评的使用Redis代替Session实现短信登录的功能时,遇到了一个问题: 就是我设计好代码后…

YOLO11改进-模块-引入混合结构模块Mix Structure Block 提高多尺度、小目标

在图像去雾领域,传统的基于卷积神经网络(CNN)和 Transformer 的方法存在局限性。CNN 方法大多存在感受野不足的问题,限制了单个像素在神经网络中的参考范围,部分考虑大感受野的 CNN 方法又忽略了图像的多尺度特性&…

MySQL主从架构

MySQL主从架构 MySQL REPLICATION 在实际生产环境中,如果对数据库的读和写都在一个数据库服务器中操作。无论是在安全性、高可用性,还是高并发等各个方面都是完全不能满足实际需求的,因此,一般来说都是通过主从复制(…

6层高速PCB设计入门第1~10讲

第一讲 课程介绍 无痛入门!6层高速PCB设计!_哔哩哔哩_bilibili 第二讲 逻辑派原理图分析 开发板资料文档:https://wiki.lckfb.com/zh-hans/fpga-ljpi/ 最需要注意的信号就是FPGA与DDR3、HDMI交互的信号,其次是GD32读写TF Card的…

Mesh自组网技术及应用

前言: Mesh自组网随着无线技术发展,在消费领域最近比较有热度。当然应用的场景不限于普通消费领域,在工业、军事领域被也是越来越重要。 一、什么是无线Mesh技术 1.1 无线自组网概念 无线Mesh是一种智能、自组织、多跳、移动、对等、去中心…

Python游戏编程之赛车游戏6-3

1 “敌人”汽车类的创建 在创建玩家汽车类之后,接下来创建“敌人”汽车类。“敌人”汽车类与玩家类一样,也是包含两个方法,一个是__init__(),另一个是move()。 1.1 __init__()方法 “敌人”汽车类的__init__()方法代码如图1所示…

垂类大模型微调(二):使用LLaMA-Factory

上一篇博文和大家一起安装了LLaMA-Factory工具,并下载了大模型在上面进行了简单的加载和推理,今天尝试通过LoRa技术对大模型进行微调; 一、训练集准备 1.1 介绍训练集结构 这里演示对Qwen2.5-0.5B-Instruct-GPTQ-Int4模型进行LoRA微调, 大家可以根据垂类大模型微调(一)…

什么是MySql的主从复制(主从同步)?

主页还有其他面试题总结,有需要的可以去看一下,喜欢的就留个三连再走吧~ 1.什么是MySql的主从复制原理? 主从复制的核心就是二进制binlog(DDL(数据定义语言)语句和DML(数据操纵语言&#xff09…

坐标变换及视图变换和透视变换(相机透视模型)

文章目录 2D transformationScaleReflectionShear(切变)Rotation around originTranslationReverse变换顺序复杂变换的分解 齐次坐标(Homogenous Coordinates)3D transformationScale&TranslationRotation Viewing / Camera t…

文字语音相互转换

目录 1.介绍 2.思路 3.安装python包 3.程序: 4.运行结果 1.介绍 当我们使用一些本地部署的语言模型的时候,往往只能进行文字对话,这一片博客教大家如何实现语音转文字和文字转语音,之后接入ollama的模型就能进行语音对话了。…

Unity Shader 学习13:屏幕后处理 - 使用高斯模糊的Bloom辉光效果

目录 一、基本的后处理流程 - 以将画面转化为灰度图为例 1. C#调用shader 2. Shader实现效果 二、Bloom辉光效果 1. 主要变量 2. Shader效果 (1)提取较亮区域 - pass1 (2)高斯模糊 - pass2&3 (3&#xff…

PING命令TTL解析

在 ping 命令中,TTL(Time to Live,生存时间) 是 IP 数据包的核心字段之一,用于控制数据包在网络中的生命周期。以下是针对 TTL 的简明解析: 1. TTL 的核心作用 防循环机制:TTL 是一个计数器&a…

Linux 第三次脚本作业

源码编译安装httpd 2.4,提供系统服务管理脚本并测试(建议两种方法实现) 一、第一种方法 1、把 httpd-2.4.63.tar.gz 这个安装包上传到你的试验机上 2、 安装编译工具 (俺之前已经装好了) 3、解压httpd包 4、解压后的httpd包的文…

(七)趣学设计模式 之 适配器模式!

目录 一、 啥是适配器模式?二、 为什么要用适配器模式?三、 适配器模式的实现方式1. 类适配器模式(继承插座 👨‍👩‍👧‍👦)2. 对象适配器模式(插座转换器 &#x1f50c…

【NLP】注意力机制

目录 一、认识注意力机制 1.1 常见注意力计算规则 1.2 注意力机制的作用 1.3 注意力机制代码实现 二、注意力机制原理 2.1 attention计算过程 2.2 attention的计算逻辑 2.3 有无attention模型对比 2.3.1 无attention机制的模型 2.3.2 有attention机制的模型 三、Se…