活性化関数 (Activation function)

入力に対して、どのような出力をするのかを各レイヤーで最終的に決める関数。一般的には、『ある閾値を超えたところから急に出力が増える』ものが多い。

yi=φ(i=1mωixi+b)y_i = \varphi \left( \sum^{m}_{i = 1} \omega_i x_i + b \right)

$ \varphi $ は活性化関数。

ReLU(ランプ関数)

φ(x)={0,x<0x,x0 \varphi (x) = \left\{ \begin{array}{ll} 0, & x < 0 \\ x, & x \geq 0 \\ \end{array} \right.

シグモイド関数

φ(x)=11+ex=tanh(x/2)+12\begin{aligned} \varphi (x) & = \frac{1}{1 + e^{-x}} \\ & = \frac{\tanh (x/2) + 1}{2} \end{aligned}