Leaky ReLU関数:勾配消失問題への対策
機械学習の分野において、特に深層学習と呼ばれる手法は目覚ましい成果を上げてきました。深層学習の中核を担うのが、人間の脳の神経回路を模倣したニューラルネットワークです。このニューラルネットワークにおいて、活性化関数は重要な役割を担っています。
活性化関数は、ニューロンが入力信号を受け取った後、どのように出力するかを決定する関数です。
入力信号をそのまま出力するのではなく、活性化関数を通して非線形変換を行うことで、ニューラルネットワークは複雑なパターンを学習できるようになります。
しかし、活性化関数の選択によっては、学習がうまく進まない場合があります。その一つが勾配消失問題です。
勾配消失問題は、ニューラルネットワークの層が深くなるにつれて、誤差逆伝播によって伝わる勾配が徐々に小さくなり、学習が停滞してしまう現象です。
これは、従来の活性化関数の一部に、入力値が大きくなるにつれて勾配が消失してしまう特性があったことが原因です。
勾配消失問題を克服するために、近年では、勾配消失問題が起こりにくい活性化関数が開発され、より深いニューラルネットワークの学習が可能になりました。