机器学习笔记——常用损失函数

大家好,这里是好评笔记,公主号:Goodnote,专栏文章私信限时Free。本笔记介绍机器学习中常见的损失函数和代价函数,各函数的使用场景。

在这里插入图片描述

热门专栏

机器学习

机器学习笔记合集

深度学习

深度学习笔记合集

文章目录

  • 热门专栏
    • 机器学习
    • 深度学习
  • 损失函数
    • 一、回归问题中的损失函数
      • 1. 均方误差(Mean Squared Error, MSE)
      • 2. 平均绝对误差(Mean Absolute Error, MAE)
      • 3. 对数余弦损失(Log-Cosh Loss)
      • 4. Huber 损失(Huber Loss)
      • 5. 平均平方对数误差(Mean Squared Logarithmic Error, MSLE)
      • 总结
    • 二、分类问题中的损失函数
      • 1. 0-1 损失(0-1 Loss)
      • 2. 对数损失(Log Loss)或交叉熵损失(Cross-Entropy Loss)
        • 二分类问题
        • 多分类问题
      • 3. Focal 损失(Focal Loss)
      • 4. Hinge 损失(合页损失)
      • 5. Kullback-Leibler 散度(KL Divergence)
      • 总结

损失函数

一、回归问题中的损失函数

1. 均方误差(Mean Squared Error, MSE)

定义

MSE = 1 n ∑ i = 1 n ( y i − y ^ i ) 2 \text{MSE} = \frac{1}{n} \sum_{i=1}^{n} (y_i - \hat{y}_i)^2 MSE=n1i=1n(yiy^i)2

  • 描述:MSE 衡量的是预测值和真实值之间的平方误差的平均值。对较大的误差会进行更大的惩罚,因此它对异常值(outliers)非常敏感。
  • 应用场景:线性回归、岭回归等模型的损失函数。
  • 优点:简单易于理解,容易求导和计算。
  • 缺点对异常值敏感,可能导致模型被少数异常样本主导。

2. 平均绝对误差(Mean Absolute Error, MAE)

定义
MAE = 1 n ∑ i = 1 n ∣ y i − y ^ i ∣ \text{MAE} = \frac{1}{n} \sum_{i=1}^{n} |y_i - \hat{y}_i| MAE=n1i=1nyiy^i

  • 描述:MAE 衡量的是预测值和真实值之间的绝对误差的平均值。它对每个误差的惩罚是线性的,因此对异常值的惩罚不如 MSE 严重。
  • 应用场景:在对异常值不敏感的回归任务中使用。
  • 优点对异常值不敏感,能够更加稳定地反映模型性能。
  • 缺点:在优化过程中,绝对值函数不可导,求解困难。

3. 对数余弦损失(Log-Cosh Loss)

定义
Log-Cosh Loss = 1 n ∑ i = 1 n log ⁡ ( cosh ⁡ ( y i − y ^ i ) ) \text{Log-Cosh Loss} = \frac{1}{n} \sum_{i=1}^{n} \log\left(\cosh\left(y_i - \hat{y}_i\right)\right) Log-Cosh Loss=n1i=1nlog(cosh(yiy^i))

说明: cosh ⁡ ( x ) \cosh(x) cosh(x): 双曲余弦函数,公式为 cosh ⁡ ( x ) = e x + e − x 2 \cosh(x) = \frac{e^x + e^{-x}}{2} cosh(x)=2ex+ex

  • 描述:对数余弦损失是Huber 损失的变体,它的行为类似于 MAE,同时对大误差有更小的增长率。
  • 应用场景:适用于异常值影响较大的回归任务。
  • 优点:具有平滑性,易于求导对小误差敏感对大误差鲁棒
  • 缺点:相比其他损失函数计算复杂度较高。

4. Huber 损失(Huber Loss)

定义
L ( y i , y ^ i ) = { 1 2 ( y i − y ^ i ) 2 if  ∣ y i − y ^ i ∣ ≤ δ , δ ⋅ ∣ y i − y ^ i ∣ − 1 2 δ 2 if  ∣ y i − y ^ i ∣ > δ . L(y_i, \hat{y}_i) = \begin{cases} \frac{1}{2} (y_i - \hat{y}_i)^2 & \text{if } |y_i - \hat{y}_i| \leq \delta, \\ \delta \cdot |y_i - \hat{y}_i| - \frac{1}{2} \delta^2 & \text{if } |y_i - \hat{y}_i| > \delta. \end{cases} L(yi,y^i)={21(yiy^i)2δyiy^i21δ2if yiy^iδ,if yiy^i>δ.

  • δ \delta δ: 超参数,定义切换 MSE 和 MAE 的阈值。
  • ∣ y i − y ^ i ∣ |y_i - \hat{y}_i| yiy^i: 误差的绝对值。
  • 描述:Huber 损失是MSE 和 MAE 的折中。对于小误差,使用 MSE;对于大误差,使用 MAE,从而对异常值有一定的鲁棒性。
  • 应用场景:回归问题中存在异常值,但又不希望过于忽略异常值的场景。
  • 优点对小误差敏感,同时对大误差具有一定的抗干扰性
  • 缺点:参数 ( δ \delta δ) 需要手动调节,不同数据集效果不同。

5. 平均平方对数误差(Mean Squared Logarithmic Error, MSLE)

定义
MSLE = 1 n ∑ i = 1 n ( log ⁡ ( 1 + y i ) − log ⁡ ( 1 + y ^ i ) ) 2 \text{MSLE} = \frac{1}{n} \sum_{i=1}^{n} \left( \log(1 + y_i) - \log(1 + \hat{y}_i) \right)^2 MSLE=n1i=1n(log(1+yi)log(1+y^i))2

  • n n n: 数据点的总数。
  • y i y_i yi: 第 i i i 个真实值(必须为非负数)。
  • y ^ i \hat{y}_i y^i: 第 i i i 个预测值(必须为非负数)。
  • log ⁡ ( 1 + x ) \log(1 + x) log(1+x): 对 x x x 加 1 后取自然对数,用于平滑较小的值和避免对 0 的对数操作。
  • 描述:MSLE 用于处理目标值差异较大有显著指数增长趋势的情况。它更关注相对误差,而非绝对误差。
  • 应用场景:如人口增长预测、市场销量预测等场景。
  • 优点:对大数值的预测更稳定,对目标值的比例关系有更好的衡量。
  • 缺点:当目标值非常小时,惩罚效果不明显。

总结

损失函数描述应用场景优点缺点
均方误差 (MSE)衡量预测值和真实值之间平方误差的平均值,对较大误差进行更大惩罚。线性回归、岭回归等简单易于理解,容易求导。对异常值敏感
平均绝对误差 (MAE)衡量预测值和真实值之间绝对误差的平均值对异常值不敏感的回归任务对异常值不敏感,反映模型性能更稳定。优化困难,绝对值函数不可导
对数余弦损失 (Log-Cosh)Huber 损失的变体,既能捕捉小误差,也对大误差有更小的增长率异常值影响较大的回归任务平滑性好,易于求导,适应大误差和小误差。计算复杂度高。
Huber 损失 (Huber Loss)结合MSE和MAE,小误差时使用 MSE,大误差时使用 MAE,平衡异常值的影响。存在异常值但不希望完全忽略的场景对小误差敏感,对大误差有抗干扰性。需调节参数 (delta)。
平均平方对数误差 (MSLE)衡量目标值差异大且有指数增长趋势的情况,关注相对误差而非绝对误差。人口增长预测、市场销量预测等对大数值预测更稳定,适应有比例关系的数据对极小值目标效果不佳。

二、分类问题中的损失函数

1. 0-1 损失(0-1 Loss)

定义

L ( y , y ^ ) = { 0 , if  y = y ^ , 1 , if  y ≠ y ^ . L_(y, \hat{y}) = \begin{cases} 0, & \text{if } y = \hat{y}, \\ 1, & \text{if } y \neq \hat{y}. \end{cases} L(y,y^)={0,1,if y=y^,if y=y^.

  • 描述:0-1 损失表示分类是否正确0 为正确分类,1 为错误分类。它无法直接用于模型优化,只能用于评价模型性能。
  • 应用场景:模型性能的评估,如准确率(Accuracy)的计算。
  • 优点:简单直观,能够清晰判断分类是否正确。
  • 缺点不可导,无法用于梯度优化

2. 对数损失(Log Loss)或交叉熵损失(Cross-Entropy Loss)

  • 描述:交叉熵损失衡量的是预测分布和真实分布之间的距离。在二分类与 Sigmoid 函数结合;在多分类与 Softmax 函数结合
  • 应用场景:广泛用于逻辑回归、神经网络等分类任务。
  • 优点:能够很好地度量概率分布之间的差异,梯度计算简单。
  • 缺点对数据不平衡较为敏感
二分类问题

在二分类问题中,交叉熵损失衡量真实标签 ( y y y ) 和预测概率 ( y ^ \hat{y} y^ ) 之间的差异。公式为:

L ( y , y ^ ) = − [ y log ⁡ ( y ^ ) + ( 1 − y ) log ⁡ ( 1 − y ^ ) ] L(y, \hat{y}) = - \left[ y \log(\hat{y}) + (1 - y) \log(1 - \hat{y}) \right] L(y,y^)=[ylog(y^)+(1y)log(1y^)]
符号说明

  • y ∈ { 0 , 1 } y \in \{0, 1\} y{0,1}:真实标签(0 表示负类,1 表示正类)。
  • y ^ ∈ [ 0 , 1 ] \hat{y} \in [0, 1] y^[0,1]:预测为正类的概率。
多分类问题

对于 k k k 个类别的多分类问题,交叉熵损失扩展为多个输出类的加权损失,公式为:

L ( y , y ^ ) = − ∑ i = 1 k y i log ⁡ ( y ^ i ) L(y, \hat{y}) = - \sum_{i=1}^{k} y_i \log(\hat{y}_i) L(y,y^)=i=1kyilog(y^i)

符号说明

  • k k k:类别数量。
  • y i ∈ { 0 , 1 } y_i \in \{0, 1\} yi{0,1}:第 i i i 类的真实标签,使用独热编码表示(只有一个值为 1,其余为 0)。
  • y ^ i ∈ [ 0 , 1 ] \hat{y}_i \in [0, 1] y^i[0,1]:模型预测的第 i i i 类的概率,通常通过 softmax 函数获得。

Sigmoid 函数:

  • 公式:
    σ ( z ) = 1 1 + e − z \sigma(z)=\frac1{1+e^{-z}} σ(z)=1+ez1
  • 其中, z z z 是模型的线性输出,即预测值。
  • Sigmoid 函数将模型的线性输出 z z z转化为一个介于 0 和 1 之间的值,表示属于类别 1 的概率。

交叉熵损失:

  • 在二分类任务中,真实标签 y y y通常取 0(负类)或1(正类)。
  • 交叉熵损失的公式为 L o s s = − [ y ⋅ log ⁡ ( p ) + ( 1 − y ) ⋅ log ⁡ ( 1 − p ) ] \mathrm{Loss}=-\left[y\cdot\log(p)+(1-y)\cdot\log(1-p)\right] Loss=[ylog(p)+(1y)log(1p)]
    • 其中, p = σ ( z ) p=\sigma(z) p=σ(z)是经过 Sigmoid 函数后模型预测属于类别 1 的概率。

Softmax 函数:

  • 公式: S o f t m a x ( z i ) = e z i ∑ j e z j \mathrm{Softmax}(z_i) = \frac{e^{z_i}}{\sum_j e^{z_j}} Softmax(zi)=jezjezi
  • 其中, z i z_i zi 是第 i i i 个类别的得分, ∑ j e z j \sum_j e^{z_j} jezj 是所有类别的得分的指数和。
  • Softmax 函数将每个类别的得分 z i z_i zi 转化为一个概率 p i p_i pi,即样本属于第 i i i 个类别的概率。

交叉熵损失:

  • 在多分类任务中,真实标签 y y y 是一个 one-hot 编码向量,即样本的真实类别的概率是 1,其他类别的概率是 0。
  • 交叉熵损失的公式: Loss = − ∑ i y i ⋅ log ⁡ ( p i ) \text{Loss} = -\sum_i y_i \cdot \log(p_i) Loss=iyilog(pi)
    • 其中, p i p_i pi 是 Softmax 函数输出的属于类别 i i i 的概率, y i y_i yi 是真实的类别标签,通常为 0 或 1。

3. Focal 损失(Focal Loss)

定义
Focal Loss = − α t ( 1 − p ^ t ) γ log ⁡ ( p ^ t ) \text{Focal Loss} = -\alpha_t (1 - \hat{p}_t)^\gamma \log(\hat{p}_t) Focal Loss=αt(1p^t)γlog(p^t)

  • 其中:
    • p ^ t \hat{p}_t p^t 是模型对正确类别的预测概率。
    • α t \alpha_t αt 是类别平衡权重,用来调整类别不平衡问题, α t ∈ [ 0 , 1 ] \alpha_t \in [0, 1] αt[0,1],通常用于为不同类别分配不同的权重。
    • γ \gamma γ 是调节因子,控制模型对难分类样本的关注程度,常取值为 0 到 5 之间,通常选取 γ = 2 \gamma = 2 γ=2 效果较好。

注:t 是该样本的真实类别标签

  1. p ^ t \hat{p}_{t} p^t: 这是模型对样本真实类别 t t t 的预测概率。假设样本属于类别 t t t,则 p ^ t \hat{p}_{t} p^t 就是模型对类别 t t t 的预测概率。如果是二分类任务, t t t 为 1 代表正类,为 0 代表负类;如果是多分类任务, t t t 是类别的索引。
  2. α t \alpha_{t} αt: 这是类别 t t t 的权重系数。通过 t t t,可以为当前样本所属类别 t t t 分配一个权重 α t \alpha_{t} αt。对于不平衡数据集来说, α t \alpha_{t} αt 通常设置为少数类的权重大,主要用来调整损失函数对不同类别样本的关注程度。
  • 描述:Focal 损失是对交叉熵损失的改进,用于解决类别不平衡问题。通过调节参数 ( γ \gamma γ ) 和 ( α \alpha α ),它增加了对困难样本的关注,降低了对易分类样本的影响。
  • 应用场景:目标检测中的单阶段检测器(如 RetinaNet),以及其他类别不平衡的分类问题。
  • 优点:有效解决类别不平衡问题,增强模型对困难样本的关注。
  • 缺点:参数选择复杂,训练时间较长。

4. Hinge 损失(合页损失)

定义:对于二分类问题:
L ( y , y ^ ) = max ⁡ ( 0 , 1 − y ⋅ y ^ ) L(y, \hat{y}) = \max(0, 1 - y \cdot \hat{y}) L(y,y^)=max(0,1yy^)

其中, y ∈ { − 1 , 1 } y \in \{ -1, 1 \} y{1,1} y ^ \hat{y} y^是模型的预测输出。

  • 描述:Hinge 损失用于支持向量机(SVM)中。它在样本被正确分类且间隔大于 1 时,损失为 0;否则损失为 1。旨在最大化样本的分类间隔。
  • 应用场景:线性支持向量机、核支持向量机等。
  • 优点:有助于最大化分类间隔,提高模型的泛化能力。
  • 缺点:对于误差大的样本损失增长过快。

5. Kullback-Leibler 散度(KL Divergence)

定义
K L ( p ∥ q ) = ∑ i p ( x i ) log ⁡ p ( x i ) q ( x i ) KL(p \parallel q) = \sum_i p(x_i) \log \frac{p(x_i)}{q(x_i)} KL(pq)=ip(xi)logq(xi)p(xi)

  • 描述:KL 散度衡量两个概率分布之间的差异,常用于无监督学习中的聚类分析
  • 应用场景:概率模型的优化,如变分自编码器(VAE)、生成对抗网络(GAN)中的判别模型。
  • 优点:对概率分布之间的微小差异非常敏感
  • 缺点:对稀疏分布的概率模型不稳定

总结

损失函数描述应用场景优点缺点
0-1 损失 (0-1 Loss)分类正确为 0,错误为 1,用于衡量分类是否正确。准确率等分类性能评估简单直观。不可导,无法用于优化
交叉熵损失 (Cross-Entropy)衡量预测分布和真实分布之间的距离,二分类结合 Sigmoid,多分类结合 Softmax。逻辑回归、神经网络等分类任务很好地衡量概率分布差异,梯度计算简单。对数据不平衡敏感
Focal 损失 (Focal Loss)交叉熵的改进,通过调节 ( gamma ) 和 ( alpha ),增加对困难样本的关注,减少易分类样本影响,解决类别不平衡问题。类别不平衡问题,如目标检测 (RetinaNet)增强对困难样本的关注,解决类别不平衡参数选择复杂,训练时间较长。
Hinge 损失 (合页损失)用于 SVM,正确分类且间隔大于 1 时损失为 0,旨在最大化分类间隔。线性 SVM、核 SVM提高泛化能力,有助于最大化分类间隔对误差大的样本损失增长快。
KL 散度 (KL Divergence)衡量两个概率分布的差异,常用于无监督学习中的聚类分析。概率模型优化,如 VAE、GAN概率分布的差异敏感稀疏分布不稳定

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.rhkb.cn/news/21429.html

如若内容造成侵权/违法违规/事实不符,请联系长河编程网进行投诉反馈email:809451989@qq.com,一经查实,立即删除!

相关文章

Ubuntu 服务器Llama Factory 搭建DeepSeek-R1微调训练环境

1.首先了解一下什么是LLM微调 LLM 微调指的是在已经预训练好的大型语言模型基础上,使用特定的任务数据或领域数据,通过进一步的训练来调整模型的参数,使其在特定任务或领域上能够表现得更好。简单来说,就是对一个已经具备了丰富语…

环境变量与本地变量

目录 本地变量的创建 环境变量VS本地变量 认识完了环境变量我们来认识一下本地变量。 本地变量的创建 我们如果直接env是看不到本地变量的,因为本地变量和环境变量都具有独立性,环境变量是系统提供的具有全局属性的变量,都存在bash进程的…

智慧农业新生态 | 农业数字化服务平台——让土地生金,让服务无忧

一部手机管农事,从播种到丰收,全链路数字化赋能! 面向农户、农机手、农服商、农资商打造的一站式农业产业互联网平台,打通农资交易、农机调度、农服管理、技术指导全场景闭环,助力乡村振兴提效增收。 三大核心场景&am…

【运维自动化-作业平台】如何创建执行方案和作业模板

蓝鲸智云作业平台,以下简称作业平台或JOB平台作业模板和执行方案:将运维操作场景中涉及到的多个脚本执行或文件分发步骤组合成一个作业模板,这个作业模板尽可能把场景相关的共性逻辑都包含进去,然后再根据实际使用场景衍生出相应的…

广度优先搜索--之重生之我是蒟蒻,从入坟到入坑式讲解

广度优先搜索 1.什么是广度优先搜索? 广度优先搜索(Breadth-First Search,简称BFS)是一种遍历或搜索树和图的算法,也称为宽度优先搜索,BFS算法从图的某个节点开始,依次对其所有相邻节点进行探索和遍历&am…

CSDN文章质量分查询系统【赠python爬虫、提分攻略】

CSDN文章质量分查询系统 https://www.csdn.net/qc 点击链接-----> CSDN文章质量分查询系统 <------点击链接 点击链接-----> https://www.csdn.net/qc <------点击链接 点击链接-----> CSDN文章质量分查询系统 <------点击链接 点击链…

为AI聊天工具添加一个知识系统 之113 详细设计之54 Chance:偶然和适配 之2

本文要点 要点 祖传代码中的”槽“ &#xff08;占位符变量&#xff09; 和 它在实操中的三种槽&#xff08;占据槽&#xff0c;请求槽和填充槽&#xff0c; 实时数据库&#xff08;source&#xff09;中数据(流入 ETL的一个正序流程 行列并发 靶向整形 绑定变量 &#xff09…

微信小程序实现拉卡拉支付

功能需求&#xff1a;拉卡拉支付&#xff08;通过跳转拉卡拉平台进行支付&#xff09;&#xff0c;他人支付&#xff08;通过链接进行平台跳转支付&#xff09; 1.支付操作 //支付 const onCanStartPay async (obj) > {uni.showLoading({mask: true})// 支付接口获取需要传…

Spring框架基本使用(Maven详解)

前言&#xff1a; 当我们创建项目的时候&#xff0c;第一步少不了搭建环境的相关准备工作。 那么如果想让我们的项目做起来方便快捷&#xff0c;应该引入更多的管理工具&#xff0c;帮我们管理。 Maven的出现帮我们大大解决了管理的难题&#xff01;&#xff01; Maven&#xf…

unity学习46:反向动力学IK

目录 1 正向动力学和反向动力学 1.1 正向动力学 1.2 反向动力学 1.3 实现目标 2 实现反向动力 2.1 先定义一个目标 2.2 动画层layer&#xff0c;需要加 IK pass 2.3 增加头部朝向代码 2.3.1 专门的IK方法 OnAnimatorIK(int layerIndex){} 2.3.2 增加朝向代码 2.4 …

力扣hot100——螺旋矩阵 超简单易懂的模拟搜索方法

给你一个 m 行 n 列的矩阵 matrix &#xff0c;请按照 顺时针螺旋顺序 &#xff0c;返回矩阵中的所有元素。 解法思路&#xff1a; // 模拟螺旋搜索设定四个边界// left right// top |————————————————|// | |// |…

格瑞普推出革命性半固态电池,为行业无人机续航注入未来动力

引言&#xff1a;行业痛点与解决方案 在行业无人机快速发展的今天&#xff0c;续航时间短、安全性不足以及效率低下等问题始终是行业难题。无论是物流运输、电力巡检&#xff0c;还是农业植保&#xff0c;用户对更持久、更安全、更高效的电池技术充满期待。 今天&#xff0c;…

C++【多态】

通俗来说&#xff0c;多态就是指同一个操作或者行为在不同的对象上可以有不同的表现形式或实现方式。举个例子&#xff1a;以 “吃” 这个行为为例&#xff0c;不同的动物有不同的 “吃” 的方式和内容。比如&#xff0c;猫吃鱼、狗吃肉、兔子吃草&#xff0c;虽然都是 “吃” …

《道德经的启示:人际关系交往的智慧》

第二章:人际关系交往的智慧 🤝 引言:现代人际关系的困境 🌟 时代背景:超连接时代的人际迷思 🌐 在这个前所未有的超连接时代,我们似乎比任何时候都更"在线"、更"联系",但真正的人际连接却越发稀缺。你是否也有过这样的困扰: 🏢 职场上愈是…

一个前端,如何同时联调多个后端

文章目录 场景解决方案思路实现步骤创建项目目标前端配置安装cross-env配置vue.config.js配置package.json 测试 场景 一个前端&#xff0c;需要同时和N个后端联调 一个需求里有若干个模块&#xff0c;分别给不同的后端开发&#xff0c;前端需要和N个后端联调 本地开启一个端…

HTML5+CSS多层级ol标签序号样式问题

在CSS中&#xff0c;ol标签用于创建有序列表&#xff0c;而多层级的ol标签可以通过CSS实现不同的序号样式。以下是一些常见的问题和解决方案&#xff1a; 1. 多层级ol的序号格式问题 默认情况下&#xff0c;多层级的ol标签会自动继承父级的序号格式&#xff0c;但有时我们可能…

DeepSeek全栈技术体系解密:从算法源码到企业级智能体开发实战

在AGI技术加速演进的时代背景下&#xff0c;DeepSeek作为行业级大模型的代表&#xff0c;正在重塑智能系统的开发范式。本课程体系首次系统性披露DeepSeek技术栈的完整实现细节&#xff0c;涵盖从底层算法创新、工程架构设计到企业级落地的全链条知识体系。 课程核心价值矩阵 …

CTA 血管重建,三维重建,血管三维重建

CT检查在临床中应用十分广泛&#xff0c;CT以其扫描速度快&#xff0c;对骨头及钙化敏感而具有部分优势。 CTA是CT血管成像&#xff0c;是CT临床应用中一个非常重要的部分&#xff0c;由于血管及其背景软组织自然对比差&#xff0c;常规CT平扫往往难以显示血管。在行CTA检查的时…

基础排序算法

冒泡排序 冒泡排序&#xff08;Bubble Sort&#xff09;一种交换排序&#xff0c;它的基本思想是&#xff1a;两两比较相邻记录的关键字&#xff0c;如果反序则交换&#xff0c;直到没有反序的记录为止。 以下代码是改进的冒泡算法&#xff0c;在排序好了之后可以直接跳出循环…

什么是神经网络?

0 前言 神经网络是一种人工智能方法&#xff0c;用于教计算机以受人脑启发的方式处理数据。这是一种机器学习过程&#xff0c;称为深度学习&#xff0c;它使用类似于人脑的分层结构中的互连节点或神经元。它可以创建自适应系统&#xff0c;计算机使用该系统来从错误中进行学习…