Z状结肠激活函数,在隐藏层中,在输出层,因为用逻辑回归建立神经网络,创造了大量的逻辑回归单元,但是如果你使用其他激活函数,神经网络可以变得更加强大。
以需求预测为例,给定价格,航运,成本,营销材料,预测某样东西是否实惠,如果有很好的意识和很高的感知质量,在此基础上,试着预测它是不是最畅销的,但这一假设意识可能是二元的,是人们知道还是不知道,但这似乎是可能的程度,买家知道你卖的T恤可能不是二进制的,他们可以稍微意识到而不是将意识建模为二进制数0或1,试图估计意识的概率或者不是建模意识只是零到一之间的一个数字,也许意识应该是任何非负数,因为它们可以是意识的任何非负值,从零到非常非常大的数字,所以说,以前我们用这个方程来计算第二个隐藏单元的激活,在g为Z状结肠函数的情况下估计意识,因此在0和1之间,如果你想让一个,两个可能会有更大的积极价值,我们可以交换一个不同的激活函数,事实证明,在神经网络中,激活函数的一个非常常见的选择是这个函数,如果z是这个,则g(z)在零的左边,那么g(z)=0,然后就是这条直线,所以当z大于等于0时,g(z)在零的右边,那么g(z)=z,这个激活函数有一个名称,它的名字叫Relu,它代表一个整流的线性单位。
有时我们会使用不同于Z状结肠激活函数的选择,最常用的激活函数是Z状结肠激活函数,激活功能还有一个功能,称为线性激活函数,也就是g(z)=z,有时如果你使用线性激活函数,人们会说我们没有使用任何激活功能,所以当你使用线性激活函数时,有人会说,我们没有使用任何激活函数,使用线性激活函数而不是没有激活函数,但如果听到别人用这个术语,只是指线性激活函数,这三个可能是迄今为止神经网络中最常用的激活函数。分别是Z状结肠激活函数,relu激活函数,线性激活函数。