修正线性单元(Rectified linear unit, ReLU)

在人工神经网络中,rectifier 激活函数的定义为:

其中x为神经元输入。它的特点被认为更加符合神经元信号激励原理,一个平滑近似

被称之为softplus 函数。它的导函数

为logistic函数

变体

Noisy ReLUs

其中

Leaky ReLUs

ELUs