<<展開

RRelu活性化関数

概要

PReluでは傾きを学習していたが、RReluではある幅の中で傾きをランダムにしている. Randomized Leaky Relu活性化関数と呼ばれる.
Facebookシェア Twitterツイート LINEで送る このエントリーをはてなブックマークに追加
この章を学ぶ前に必要な知識
0
効果
  • 学習精度が上がると言われている
ポイント
  • あまりメジャーなRelu系活性化関数ではない

解 説

Leaky Relu活性化関数において負の傾きをランダムな値にした活性化関数.
LeakyRelu活性化関数
RReluの元論文へのリンクを貼っておく
この章を学んで新たに学べる
Comments

Reasons
>>隠す

知識: LeakyRelu活性化関数
Reluでxが負の場合を改良したLeakyRelu活性化関数.