<<展開

WGAN

Facebookシェア Twitterツイート LINEで送る Googleシェア このエントリーをはてなブックマークに追加
この章を学ぶ前に必要な知識
Up
0
Down

要約

概要

正式名はWasserstein GAN.GANの学習の不安定さを数学的に改善した。WGANを改良したWGAN-GPが近年用いられることが多い。
ー 条件 ー
  • 重みをClipする操作が必要
ー 効果 ー
  • GANより学習が安定しやすくなる
  • mode collapse問題にならない
ーポイントー
  • WGAN-GPがこれをさらに改善
  • 目的関数を改良することで安定化
  • 勾配消失が起きやすいJS距離よりW距離を使うことで改善

解  説

WGANは二つの分布の距離を計算するWasserstein距離を用いることで、GANで学習が安定しなかった問題を改善することができたGANの一種。 WGANの重みのクリッピング作業には課題がありWGAN-GPの方が一般的に用いられる。
GANとは
WGANは元々のGANの目的関数を変更することで実現できる。 ・logを誤差関数から除去 等のみ
WGAN実装
この章を学んで新たに学べる
Comments

Reasons
>>隠す

知識: GANとは
近年注目されている画像等を生成するニューラルネットワークを用いた学習手法.二つのニューラルネットワークを使って片方の識別能力をあげる点が特徴.既にGANの改良系が数十種類提案されている.