线性修正单元 ReLU 是一种人工神经网络中常用的激活函数,其又被称为线性整流函数,通常指以斜坡函数及其变种为代表的非线性函数。
线性修正单元的特点
常用线性修正单元有斜坡函数 f ( x ) = max ( 0 , x ) 及带泄露整流函数 Leaky ReLU,其中 x 表示神经元的输入。
线性整流被认为具有一定的生物学原理,由于实践中通常有比其他常用激活函数更好的效果,因此被深度神经网络广泛使用,其中包括图像识别等计算机视觉领域。
作为神经网络中常用的激活函数,ReLU 保留了 Step 函数的生物学启发,当输入为正时导数不为零,从而允许基于梯度的学习;当输入为负时,ReLU 的学习速度可能会变慢,甚至使神经元直接失效,因为此时输入小于零且梯度为零,这样会导致权重无法得到更新,剩下的训练过程中会保持静默。
相关词:激活函数
子级词:斜坡韩式、泄露整流函数