单个神经元

先来看一下单个神经元网络模型:

其中 xi 表示输入,wi 和 b 表示参数。图中下方的公式是 1 函数的模型,嗯,就是一个线性模型。那么就这么一个简单的线性模型怎么仿真出人类神经元那么复杂的玩意儿呢?一个线性模型当然满足不了,这不就有了函数 2。函数 2 这类的函数我们常称之为 激活函数 或者 激励函数。那么有人又问了你怎么知道图中那一大堆 wi 和 b 参数到底取值是什么,别急,网络模型的训练就是为了找出这些值,这就引出了网络模型训练过程中的 损失函数 和 梯度下降 (或者其他优化方式) 用于求解这些值。上面讲的只是一个神经元,要解决更加复杂的问题,就需要很多这种神经元组成的一层或多层神经网络结构。下面会对出现的概念做一个简单的介绍。

1)正向传播

      数据从输入到输出的流向传递过程为正向传播。它是在一个假设由合适的w和b的基础上,才可以实现对现实环境的正确拟合。但是在实际过程中,我们无法得知w和b的值具体是多少才算是正常的。于是加入了一个训练过程,通过反向误差传递的方法让模型自动来修正,最终产生一个合适的权重。 

2)反向传播

 

      反向传播的意义–告诉模型我们需要将w和b调整到多少。在刚开始没有得到合适的权重时,正向传播生成的结果与实际的标签是有误差的,反向传播就是要把这个误差传递给权重,让权重做适当的调整来达到一个合适的输出。

      如何将输出的权重误差转化为权重误差,使用的是BP算法,又称“误差反向传播算法”。

     反向传播的核心思想:让正向传播的输出结果与标签间的误差最小化。 

      为了让损失值(将输出值与标签直接相减,或是做平方差等运算)变得最小,我们运用数学知识,选择一个损失值的表达式,也就是损失函数,让这个函数有最小值,接着通过求导的方式,找到最小值处函数切线斜率(也就是梯度) , 从而让w和b的值沿着这个梯度来调整。 
      至于每次调整多少,我们引入一个叫做“学习率”的参数,这样通过不断的迭代,使误差逐步接近最小值,最终达到我们的目标。

3)激活函数

      激活函数的主要作用就是用来加入非线性因素的,以解决线性模型表达能力不足的缺陷,在整个神经网络里起到至关重要的作用。 
      因为神经网络的数学基础是处处可微的,所以选取的激活函数要能保证数据输入与输出也是可微的。 

 1) sigmoid 函数 或者叫做 Logistic 函数

公式:

图形:

特点:从图像可以看出当 x 趋近于正负无穷时,y 值趋近于 1 或 -1,这种情况就是饱和状态。一旦达到这种状态意味着再增大 x 值,y 值基本就不会变化了,这也就会导致了向底层传递的梯度也变得非常小,网络参数很难得到有效训练,这种现象就是梯度消失。此外,sigmoid函数的输出均大于0,使得输出均值不是0,这称为偏移现象,这会导致后一层的神经元将得到上一层输出的非0均值的信号作为输入。

 2)tanh 函数

公式:

tanh(x) = 2sigmoid(2x) - 1

图形:

特点:tanh可以说是sigmoid函数的升级版。与sigmoid相比,它的输出均值是0,使得其收敛速度要比sigmoid               快,减少迭代次数。然而,tanh一样具有饱和状态,从而造成梯度消失。

 3)relu 函数  Rectified Linear Units

公式:  f(x) = max(0, x)

图形:

特点:当x<0时,relu硬饱和,而当x>0时,则不存在饱和问题。所以,relu 能够在x>0时保持梯度不衰减,从而缓解梯度消失问题,然而,随着训练的推进,部分输入会落入硬饱和区,导致对应权重无法更新。这种现象称为“神经元死亡”。与sigmoid类似,relu的输出均值也大于0,偏移现象和神经元死亡会共同影响网络的收敛性。

        图中还显示了一个softplus函数,其更加平滑,但是计算量很大。公式如下:

                                                              

relu的一些演化函数:

Noisy relus: 为max中的 x 添加一个高斯分布的噪声   

                        

Leaky relus:让 x 为负值时乘以 0.01 ,使其对负值不是一味的拒绝,而是缩小

                      

进一步让0.01变成一个可调的数值:   f(x) = max(0, ax)

对 x 小于0时做更复杂的变化:

                      

4)损失函数

    用于描述模型预测值与真实值的差距大小,一般常见的有两种算法----均值平方差(MSE) 和 交叉熵。

    1)均值平方差(Mean Squared Error),也成为'均方误差'。在神经网络中表达预测值与真实值之间的差异,在数理统计中,是指参数估计值与参数真值之差平方的期望。

                                          

        f(xi)为预测值,yi为真值。

    2)交叉熵

        一般用在分类问题上,表达的意思为预测输入样本属于某一类的概率。

        y代表真实值的分类,a代表预测值。                   

                      

     损失算法的选取:

         损失函数的选取取决于输入标签数据的类型,如果输入的是实数、无界值,损失函数使用平方差,如果输入标签是矢量(分类标志),使用交叉熵会更合适。          

5)梯度下降

      梯度下降是一个最优化算法,通常也称为最速下降法,常用于机器学习和人工智能中递归性地逼近最小偏差模型,梯度下降地方向也就是用负梯度方向为搜索方向,沿着梯度下降地方向求极小值。 
在训练过程中,每次的正向传播后都会得到输出值与真实值的损失值,这个损失值越小,代表模型越好,于是梯度下降的算法就用在这里,帮助寻找最小的那个损失值,从而可以反推出对应的学习参数w和b,达到优化模型的效果。 
      常用的梯度下降方法可以分为:批量梯度下降、随机梯度下降和小批量梯度下降。 

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.rhkb.cn/news/73153.html

如若内容造成侵权/违法违规/事实不符,请联系长河编程网进行投诉反馈email:809451989@qq.com,一经查实,立即删除!

相关文章

人工神经元模型及常见激活函数

人工神经元模型 生物学上神经元通常由细胞体&#xff0c;细胞核&#xff0c;树突和轴突构成。 树突用来接收其他神经元传导过来的信号&#xff0c;一个神经元有多个树突&#xff1b; 细胞核是神经元中的核心模块&#xff0c;用来处理所有的传入信号&#xff1b; 轴突是输出信…

神经元是个啥子

空间平面的方程 这是一个似曾相识的方程&#x1f447; b ∑ n 1 N x n θ n i n 0 b\sum_{n1}^Nx_n\theta_n\bm{i}_n0 bn1∑N​xn​θn​in​0 没错&#xff0c;它描述了空间中的一个平面。其关于每一个坐标轴都有斜率 θ i \theta_i θi​&#xff0c;而 i n 为 这 个 轴…

神经网络的神经元个数,神经网络每层单元数

1、请问如何确定神经网络控制中网络层数和每层神经元个数 你使用的什么神经网络&#xff1f;如果是RBF神经网络&#xff0c;那么只有3层&#xff0c;输入层&#xff0c;隐含层和输出层。确定神经元个数的方法有K-means,ROLS等算法。 谷歌人工智能写作项目&#xff1a;小发猫 …

LSTM中神经元的个数

在初学RNN\LSTM时&#xff0c;经常将其与CNN进行类比&#xff0c;从而会思考LSTM中的神经元的个数。 然而循环神经网络与卷积神经网络差异很大&#xff0c;个人建议不进行类比&#xff0c;概念容易混淆。 其次来解释RNN\LSTM中神经元的个数。 这张在RNN中广为流传的神图&…

一个神经网络有多少个神经元?

引言 神经网络是机器学习的一个迷人的领域&#xff0c;但是它们有时很难优化和解释。事实上&#xff0c;它们有几个超参数。要优化的最常见的超参数是隐藏层中的神经元数量。让我们看看如何为我们的数据集找到一个神经网络的最佳神经元数量。 什么是神经网络&#xff1f; 神经网…

人体中数量最多的神经元,人体内有多少个神经元

人体的神经细胞到底有多少个&#xff1f; 谷歌人工智能写作项目&#xff1a;神经网络伪原创 人体内平均有多少神经元&#xff1f; 写作猫。 约含有140亿个神经元胞体虽然神经元形态与功能多种多样&#xff0c;但结构上大致都可分成胞体&#xff08;cellbody,orsoma&#xff…

人体的神经元有多少个,人体的神经元有多少支

人体内平均有多少神经元&#xff1f; 。 约含有140亿个神经元胞体虽然神经元形态与功能多种多样&#xff0c;但结构上大致都可分成胞体&#xff08;cellbody,orsoma&#xff09;和突起&#xff08;neurite&#xff09;两部分.突起又分树突&#xff08;dendrite&#xff09;和…

HICE第四天笔记 12月8日

第四天 12月8号 TCP和UDP 的区别 1&#xff0c;TCP是面向连接的协议&#xff0c;UDP是无连接的协议 2&#xff0c;TCP协议传输是可靠的&#xff0c;UDP协议传输“尽力而为” 3&#xff0c;TCP可以进行流控&#xff0c;UDP不行 4&#xff0c;TCP可以进行分段&#xff0c;UDP不行…

微信每日早安推送 Windows版

应诸多网友要求&#xff0c;这次上一个windows版的。 使用方法就是双击打开&#xff0c;立即就会推送一次。需要定时执行&#xff0c;可以使用windows的 任务计划程序 实现。帮大家百度好了 windows如何定时运行程序https://jingyan.baidu.com/article/7c6fb428334a49c1642c90e…

AutoGPT太火了,无需人类插手自主完成任务,GitHub2.7万星!

机器之心报道 编辑&#xff1a;杜伟、陈萍 OpenAI 的 Andrej Karpathy 都大力宣传&#xff0c;认为 AutoGPT 是 prompt 工程的下一个前沿。 近日&#xff0c;AI 界貌似出现了一种新的趋势&#xff1a;自主人工智能。 这不是空穴来风&#xff0c;最近一个名为 AutoGPT 的研究开始…

【人工智能】大模型平台新贵——文心千帆

个人主页&#xff1a;【&#x1f60a;个人主页】 &#x1f31e;热爱编程&#xff0c;热爱生活&#x1f31e; 文章目录 前言大模型平台文心千帆发布会推理能力模型微调 作用 前言 在不久的之前我们曾讨论过在ChatGPT爆火的大环境下&#xff0c;百度推出的“中国版ChatGPT”—文…

你如何看待百度的文心一言ERNIE Bot?心有所系,言出必行。

心有所系&#xff0c;言出必行。 排队中。。。 文心一言 百度全新一代知识增强大语言模型&#xff0c;文心大模型家族的新成员&#xff0c;能够与人对话互动&#xff0c;回答问题&#xff0c;协助创作&#xff0c;高效便捷地帮助人们获取信息、知识和灵感。 文心一言&#x…

post请求发送几次?

http请求这个问题在面试中可谓是三天两头的出现&#xff0c;好多人对这道题都是屡试不爽&#xff0c;倒背如流的就可以将get和post的区别如数家珍的娓娓道来! 如下图 上图来自 w3schools 我相信当面试官问这道题的时候你心里肯定是乐开花了&#xff0c;正中下怀的感觉&…

一个页面同时请求多个接口,超过6个请求之后,stallled时间过长

Network Timing 使用Chrome浏览器请求多个接口时发现前面的请求Network Timing中stalled时间明显较短&#xff0c;到第四个请求时stalled时间开始加长&#xff0c;超过6个请求之后&#xff0c;stallled时间过长&#xff0c;导致接口整体请求时间变长&#xff0c;页面渲染变慢。…

Chrome浏览器发送两次请求

Chrome浏览器在请求时会调用两次Servlet 但在FireFox上却没这个问题&#xff0c;发现大家说的都是插件问题。经过一一排查&#xff0c;发现了罪魁祸首。 在开启这个插件的时候会请求两次&#xff0c;将这个插件的权限改为点击时即可解决。

ChatGPT对于普通人有哪些用处

以程序员为例&#xff0c;让ChatGPT可以模拟面试&#xff1a;刷题、预测面试&#xff08;从面试官角度出题、评分&#xff09;、修改简历……ChatGPT简直太香了&#xff01; 但很可惜的是&#xff0c;很多人还不知道怎么用ChatGPT。看这里&#xff01;&#xff01;&#xff01…

实验十七 VLAN间的三层通信

实验十七 VLAN间的三层通信 配置要求&#xff1a; 通过三层交换机实现VLAN间互通 通过单臂路由实现VLAN间互通 网络拓扑图&#xff1a; 操作步骤&#xff1a; 一、 通过三层交换机实现VLAN间互通 1、配置交换机LSW1的接口为trunk接口&#xff0c;g0/0/1口允许vlan 10通过&#…

chatgpt赋能python:Python能干什么?——一份详细的介绍

Python 能干什么&#xff1f;——一份详细的介绍 Python 作为一种高级编程语言&#xff0c;拥有着强大的功能和广泛的应用场景&#xff0c;不愧是当前最受欢迎的语言之一。本文将介绍 Python 可以做什么&#xff0c;包括但不限于&#xff1a; Web 开发 Python 的 web 框架能…

大家身边极度聪明的人是什么样子?

阅读本文大概需要3分钟。 前段时间分享了去年抄底特斯拉和b站的收益&#xff0c;加上最近股市的火热导致很多读者朋友总是私聊让我推荐股票。 更无语的是有一些朋友连怎么开户都跑过来问&#xff0c;说实话这种问题真心不想回复&#xff0c;这些朋友无非是看见其他人赚钱了&…