Deepseek技术浅析(二):大语言模型

DeepSeek 作为一家致力于人工智能技术研发的公司,其大语言模型(LLM)在架构创新、参数规模扩展以及训练方法优化等方面都达到了行业领先水平。

一、基于 Transformer 架构的创新

1.1 基础架构:Transformer 的回顾

Transformer 架构是当前最先进的大语言模型架构,其核心机制是自注意力机制(Self-Attention Mechanism),能够有效捕捉序列中长距离的依赖关系。以下是 Transformer 的主要组件及其工作原理:

(1) 编码器(Encoder)

  • 多头自注意力机制(Multi-Head Self-Attention):

    • 目的: 捕捉输入序列中不同位置之间的依赖关系。
    • 工作原理:
      • 将输入向量 xx 分别线性变换为查询(Query, Q)、键(Key, K)和值(Value, V)矩阵:

        其中,W_{Q},W_{K},W_{V}​ 是可训练的权重矩阵。
      • 计算注意力权重:

        其中,d_{k}​ 是键的维度,用于缩放注意力权重,防止梯度消失。
      • 多头机制: 将输入向量分割成多个头(head),每个头独立计算注意力,然后将多个头的输出拼接起来,并通过线性变换得到最终输出。
  • 前馈神经网络(Feed-Forward Neural Network, FFN):

    • 对每个位置的表示进行非线性变换。
    • 通常由两个线性变换和一个激活函数(如 ReLU)组成:

      其中,W_{1},W_{2},b_{1},b_{2}​ 是可训练的参数。

(2) 解码器(Decoder)

  • 除了多头自注意力机制和前馈神经网络外,解码器还包含一个编码器-解码器注意力机制(Encoder-Decoder Attention),用于捕捉编码器输出与解码器输入之间的关系。
  • 在训练过程中,使用**掩码(Masking)**机制,防止模型在预测当前词时看到未来的词。
1.2 DeepSeek 的创新与改进

DeepSeek 在 Transformer 基础上进行了多项创新和改进,以提升模型性能、效率和可扩展性。

(1) 稀疏注意力机制(Sparse Attention Mechanisms)

  • 问题: 传统的自注意力机制计算复杂度为 O(n2)O(n2),其中 nn 是序列长度。当处理长序列时,计算量和内存需求会急剧增加。
  • 解决方案:

    • 局部注意力(Local Attention):

      • 原理: 只计算相邻位置的注意力权重,例如只计算每个位置与前后 kk 个位置的注意力。
      • 公式表示:

        其中,K_{local},V_{local} 是局部键和值矩阵。
      • 优点: 降低计算复杂度,适用于局部依赖性强的任务。
      • 缺点: 无法捕捉长距离依赖关系。
    • 块状注意力(Blockwise Attention):

      • 原理: 将序列划分为多个块,只计算块内和块间部分位置的注意力权重。
      • 优点: 在一定程度上保留长距离依赖关系,同时降低计算复杂度。
      • 缺点: 块间信息传递效率较低。
    • 随机注意力(Random Attention):

      • 原理: 随机选择部分位置计算注意力权重。
      • 优点: 增加模型的多样性,可能捕捉到一些意想不到的依赖关系。
      • 缺点: 随机性可能导致模型不稳定。
    • 组合策略:

      • DeepSeek 采用多种稀疏注意力机制的组合,例如:
        • 局部 + 块状: 先使用局部注意力捕捉局部依赖关系,再使用块状注意力捕捉长距离依赖关系。
        • 局部 + 随机: 在局部注意力的基础上,添加随机注意力,增加模型的多样性。
  • 优势:

    • 显著降低计算复杂度和内存需求。
    • 在保持模型性能的同时,提高训练和推理效率。

(2) 混合专家模型(Mixture of Experts, MoE)

  • 问题: 大规模模型参数数量庞大,但并非所有参数在所有任务或输入上都发挥作用,导致计算资源浪费。
  • 解决方案:

    • 专家网络(Expert Networks):

      • DeepSeek 将模型划分为多个专家子模型,每个专家网络是一个独立的神经网络,可以是前馈神经网络、注意力机制等。
      • 每个专家网络可以专注于不同的任务或领域,例如:
        • 语言专家: 处理语言相关的任务。
        • 知识专家: 存储和利用知识库信息。
        • 推理专家: 执行推理任务。
    • 门控网络(Gating Network):

      • 根据输入内容,动态选择激活哪些专家网络。
      • 公式表示:

        其中,W_{g},b_{g}​ 是门控网络的参数。
      • 作用: 根据输入的不同,分配不同的计算资源给不同的专家网络。
    • 输出组合:

      • 将激活的专家网络的输出进行加权组合,得到最终输出。
      • 公式表示:

        其中,N 是专家网络的数量,\textrm{Expert}_{i}\left ( x \right )是第 i 个专家网络的输出。
  • 优势:

    • 提高模型的参数利用率和计算效率。
    • 允许模型根据不同的输入动态调整其行为,提高模型的灵活性和适应性。

(3) 多头潜在注意力(Multi-Head Latent Attention, MLA)

  • 问题: 在推理过程中,注意力机制的计算量仍然较大,尤其是当模型规模较大时。
  • 解决方案:

    • 低秩分解:

      • 将键和值矩阵分解为低秩矩阵,从而减少存储和计算需求。
      • 公式表示:

        其中,U_{K},U_{V}​ 是低秩矩阵,S_{K},S_{V}​ 是压缩矩阵。
    • 联合压缩:

      • 对压缩后的键和值矩阵进行联合压缩,进一步减少存储需求。
    • 潜在注意力计算:

      • 在压缩后的表示上进行注意力计算。
      • 公式表示:

  • 优势:

    • 显著降低推理过程中的内存占用。
    • 保持模型性能的同时,提高推理效率。

二、更大规模的参数

2.1 参数规模

DeepSeek 的 LLM 拥有数百亿到数千亿参数,例如:

  • DeepSeek-V3: 拥有 6710 亿参数。
  • DeepSeek-LLM: 在 2 万亿 token 的数据集上进行训练。
  • DeepSeek-V2: 在 8.1 万亿 token 的多样化语料库上预训练。
2.2 关键技术

(1) 分布式训练

  • 数据并行:

    • 将训练数据分配到多个计算节点上,每个节点独立计算梯度,最后进行梯度聚合和参数更新。
    • 优点: 提高数据吞吐量,加快训练速度。
  • 模型并行:

    • 将模型参数分配到多个计算节点上,每个节点负责计算模型的一部分参数。
    • 优点: 解决单个节点的显存限制问题,支持训练更大规模的模型。
  • 流水线并行:

    • 将模型的不同层分配到不同的计算节点上,实现流水线式的并行计算。
    • 优点: 提高计算资源利用率,减少计算等待时间。

(2) 混合精度训练

  • 半精度浮点数:

    • 使用半精度(FP16)浮点数表示模型参数和梯度。
    • 优点: 减少显存占用和计算量。
  • 损失缩放:

    • 对损失值进行缩放,以避免梯度消失。
    • 原理: 半精度浮点数表示范围有限,损失缩放可以防止梯度值过小,导致梯度消失。

(3) 混合专家模型(MoE)

  • 作用: 通过 MoE 架构,DeepSeek 可以有效管理大规模参数,避免计算资源浪费。
  • 具体实现:
    • 每个 token 仅激活部分专家网络,而不是所有专家网络。
    • 例如,DeepSeek-V3 的每个 token 仅激活 370 亿参数,而不是全部 6710 亿参数。

(4) 模型压缩与剪枝

  • 权重共享(Weight Sharing):

    • 共享模型参数,例如在 Transformer 中共享参数矩阵。
    • 优点: 减少参数数量,降低存储和计算需求。
  • 剪枝(Pruning):

    • 删除模型中不重要的参数或神经元,例如:
      • 权重剪枝: 删除权重值较小的参数。
      • 神经元剪枝: 删除激活值较低的神经元。
    • 优点: 进一步减少参数数量,提高模型效率。

三、过程模型公式

3.1 稀疏注意力机制
  • 局部注意力:

  • 块状注意力:

  • 随机注意力:

  • 组合策略:

    其中,\alpha ,\beta ,\gamma 是权重系数。

3.2 混合专家模型(MoE)
  • 门控网络:

  • 专家网络输出:

  • 最终输出:

3.3 多头潜在注意力(MLA)
  • 低秩分解:

  • 潜在注意力计算:

四、训练方法

4.1 预训练
  • 目标: 让模型学习语言的通用表示和知识。
  • 方法: 使用海量的文本数据进行训练,模型通过预测文本序列中的下一个词或字符来学习语言模式。
  • 数据: 包含互联网上的各种文本数据,如书籍、文章、网页等。
  • 训练目标: 例如,**掩码语言模型(Masked Language Model, MLM)**任务,即随机遮蔽文本中的部分词,让模型预测被遮蔽的词。
4.2 监督微调
  • 目标: 针对特定任务或应用场景,对预训练模型进行微调。
  • 方法: 使用特定任务的数据集对模型进行训练,例如:
    • 文本分类: 对文本进行分类,例如情感分析、主题分类等。
    • 问答系统: 根据用户的问题生成相应的答案。
    • 机器翻译: 将一种语言翻译成另一种语言。
  • 训练目标: 根据具体任务设计相应的损失函数,例如交叉熵损失(Cross-Entropy Loss)。
4.3 人类反馈的强化学习
  • 目标: 利用人类反馈信息,进一步优化模型输出。
  • 方法: 将人类对模型输出的反馈作为奖励信号,使用强化学习算法调整模型参数。
  • 优势: 使模型生成的结果更符合人类的期望和需求,提高模型的质量和实用性。

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.rhkb.cn/news/10133.html

如若内容造成侵权/违法违规/事实不符,请联系长河编程网进行投诉反馈email:809451989@qq.com,一经查实,立即删除!

相关文章

leetcode——对称二叉树(java)

给你一个二叉树的根节点 root , 检查它是否轴对称。 示例 1: 输入:root [1,2,2,3,4,4,3] 输出:true 示例 2: 输入:root [1,2,2,null,3,null,3] 输出:false 解题方法:&#xff08…

Spring Boot 日志:项目的“行车记录仪”

一、什么是Spring Boot日志 (一)日志引入 在正式介绍日志之前,我们先来看看上篇文章中(Spring Boot 配置文件)中的验证码功能的一个代码片段: 这是一段校验用户输入的验证码是否正确的后端代码&#xff0c…

android 圆形弹窗摄像头开发踩坑——源码————未来之窗跨平台操作

一、飘窗刷脸&#xff0c;拍照采用飘窗 刷脸认证安卓接口采用飘窗具有在不干扰用户主要操作的前提下以醒目方式引导用户完成认证&#xff0c;且能灵活定制样式以提升用户体验和认证效率的优点 二、踩坑只有一个扇形 <?xml version"1.0" encoding"utf-8&quo…

DeepSeek的崛起与全球科技市场的震荡

引言 近年来&#xff0c;人工智能&#xff08;AI&#xff09;技术的快速发展不断重塑全球科技格局。 近日&#xff0c;中国初创企业DeepSeek推出了一款据称成本极低且性能强大的AI模型&#xff0c;引发全球市场的剧烈反应。NVIDIA、台积电等半导体和AI科技巨头股价大幅下跌&am…

单机伪分布Hadoop详细配置

目录 1. 引言2. 配置单机Hadoop2.1 下载并解压JDK1.8、Hadoop3.3.62.2 配置环境变量2.3 验证JDK、Hadoop配置 3. 伪分布Hadoop3.1 配置ssh免密码登录3.2 配置伪分布Hadoop3.2.1 修改hadoop-env.sh3.2.2 修改core-site.xml3.2.3 修改hdfs-site.xml3.2.4 修改yarn-site.xml3.2.5 …

大数据相关职位 职业进阶路径

大数据相关职位 & 职业进阶路径 &#x1f4cc; 大数据相关职位 & 职业进阶路径 大数据领域涵盖多个方向&#xff0c;包括数据工程、数据分析、数据治理、数据科学等&#xff0c;每个方向的进阶路径有所不同。以下是大数据相关职位的详细解析及其职业进阶关系。 &#…

《大语言模型》综述学习笔记

《A Survey of Large Language Models》英文版综述最近出了中文版书——《大语言模型》&#xff0c;本博客作为阅读笔记记录一下&#xff0c;综述主页&#xff1a;https://github.com/RUCAIBox/LLMSurvey 关于LLM的一些概述和理解 记录一些有启发性的说法&#xff1a; 1、当前…

供应链系统设计-供应链中台系统设计(十二)- 清结算中心设计篇(一)

概述 在之前的文章中&#xff0c;我们通过之前的两篇文章中&#xff0c;如下所示&#xff1a; 供应链系统设计-供应链中台系统设计&#xff08;十&#xff09;- 清结算中心概念片篇 供应链系统设计-供应链中台系统设计&#xff08;十一&#xff09;- 清结算中心概念片篇 说…

MySQL查询优化(三):深度解读 MySQL客户端和服务端协议

如果需要从 MySQL 服务端获得很高的性能&#xff0c;最佳的方式就是花时间研究 MySQL 优化和执行查询的机制。一旦理解了这些&#xff0c;大部分的查询优化是有据可循的&#xff0c;从而使得整个查询优化的过程更有逻辑性。下图展示了 MySQL 执行查询的过程&#xff1a; 客户端…

【Numpy核心编程攻略:Python数据处理、分析详解与科学计算】1.26 统计圣殿:从描述统计到推断检验

1.26 统计圣殿&#xff1a;从描述统计到推断检验 目录 #mermaid-svg-3nz11PRr47fVfGWZ {font-family:"trebuchet ms",verdana,arial,sans-serif;font-size:16px;fill:#333;}#mermaid-svg-3nz11PRr47fVfGWZ .error-icon{fill:#552222;}#mermaid-svg-3nz11PRr47fVfGWZ…

如何用 Groq API 免费使用 DeepSeek-R1 70B,并通过 Deno 实现国内访问

这几天都被Deepseek刷屏了&#xff0c;而且Deepseek由于异常访问量&#xff0c;这几天都不能愉快的和它玩耍了&#xff0c; 我发现Groq新增了一个Deepseek的70b参数的模型&#xff0c; DeepSeek-R1 70B 作为一款强大的开源模型&#xff0c;提供了卓越的推理能力&#xff0c;而 …

物联网智能项目之——智能家居项目的实现!

成长路上不孤单&#x1f60a;&#x1f60a;&#x1f60a;&#x1f60a;&#x1f60a;&#x1f60a; 【14后&#x1f60a;///计算机爱好者&#x1f60a;///持续分享所学&#x1f60a;///如有需要欢迎收藏转发///&#x1f60a;】 今日分享关于物联网智能项目之——智能家居项目…

Linux《基础指令》

在之前的Linux《Linux简介与环境的搭建》当中我们已经初步了解了Linux的由来和如何搭建Linux环境&#xff0c;那么接下来在本篇当中我们就要来学习Linux的基础指令。在此我们的学习是包括两个部分&#xff0c;即指令和关于Linux的基础知识&#xff1b;因此本篇指令和基础知识的…

Addressable学习

AssetsBundle是Unity的资源管理机制,将资源打包到AssetsBundle资源包并提供接口能从ab包里面加载资源出来。有了这个机制以后&#xff0c;我们要做资源管理&#xff0c;还需要做: a: 根据项目需求,编写编辑器扩展,提供指定资源打入对应bundle包工具策略; b: 根据项目的需求,资源…

详解u3d之AssetBundle

一.AssetBundle的概念 “AssetBundle”可以指两种不同但相关的东西。 1.1 AssetBundle指的是u3d在磁盘上生成的存放资源的目录 目录包含两种类型文件(下文简称AB包)&#xff1a; 一个序列化文件&#xff0c;其中包含分解为各个对象并写入此单个文件的资源。资源文件&#x…

【Block总结】OutlookAttention注意力,捕捉细节和局部特征|即插即用

论文信息 标题: VOLO: Vision Outlooker for Visual Recognition作者: Li Yuan, Qibin Hou, Zihang Jiang, Jiashi Feng, Shuicheng Yan代码链接: https://github.com/sail-sg/volo论文链接: https://arxiv.org/pdf/2106.13112 创新点 前景注意力机制: VOLO引入了一种称为“…

后端token校验流程

获取用户信息 前端中只有 await userStore.getInfo() 表示从后端获取数据 在页面中找到info对应的url地址&#xff0c;在IDEA中查找 这里是getInfo函数的声明&#xff0c;我们要找到这个函数的使用&#xff0c;所以点getInfo() Override public JSONObject getInfo() {JSO…

一文讲解Java中的异常处理机制

Java中的异常处理机制用于处理程序运行过程中可能发生的各种异常情况&#xff0c;通常通过try-catch-finally语句和throw关键字来实现 Throwable是Java语言中所有错误和异常的父类。它有两个主要的子类&#xff1a;Error和Exception&#xff1b;Error类代表那些严重的错误&am…

论文速读|Matrix-SSL:Matrix Information Theory for Self-Supervised Learning.ICML24

论文地址&#xff1a;Matrix Information Theory for Self-Supervised Learning 代码地址&#xff1a;https://github.com/yifanzhang-pro/matrix-ssl bib引用&#xff1a; article{zhang2023matrix,title{Matrix Information Theory for Self-Supervised Learning},author{Zh…

SpringCloud系列教程:微服务的未来(十八)雪崩问题、服务保护方案、Sentinel快速入门

前言 在分布式系统中&#xff0c;雪崩效应&#xff08;Avalanche Effect&#xff09;是一种常见的故障现象&#xff0c;通常发生在系统中某个组件出现故障时&#xff0c;导致其他组件级联失败&#xff0c;最终引发整个系统的崩溃。为了有效应对雪崩效应&#xff0c;服务保护方…