<<展開

RRelu活性化関数

Facebookシェア Twitterツイート LINEで送る Googleシェア このエントリーをはてなブックマークに追加
この章を学ぶ前に必要な知識
Up
0
Down

要約

概要

PReluでは傾きを学習していたが、RReluではある幅の中で傾きをランダムにしている. Randomized Leaky Relu活性化関数と呼ばれる.
ー 効果 ー
  • 学習精度が上がると言われている
ーポイントー
  • あまりメジャーなRelu系活性化関数ではない

解  説

Leaky Relu活性化関数において負の傾きをランダムな値にした活性化関数.
LeakyRelu活性化関数
RReluの元論文へのリンクを貼っておく
この章を学んで新たに学べる
Comments

Reasons
>>隠す

知識: LeakyRelu活性化関数
Reluでxが負の場合を改良したLeakyRelu活性化関数.