修正线性单元(Rectified linear unit, ReLU)
在人工神经网络中,rectifier 激活函数的定义为:
其中x为神经元输入。它的特点被认为更加符合神经元信号激励原理,一个平滑近似
被称之为softplus 函数。它的导函数
为logistic函数
变体
Noisy ReLUs
其中
在人工神经网络中,rectifier 激活函数的定义为:
其中x为神经元输入。它的特点被认为更加符合神经元信号激励原理,一个平滑近似
被称之为softplus 函数。它的导函数
为logistic函数
其中