-
Notifications
You must be signed in to change notification settings - Fork 0
Commit
This commit does not belong to any branch on this repository, and may belong to a fork outside of the repository.
#3 Which Training Methods for GANs do actually Converge?
- Loading branch information
1 parent
3da9d80
commit a9ec7cf
Showing
1 changed file
with
29 additions
and
0 deletions.
There are no files selected for viewing
29 changes: 29 additions & 0 deletions
29
Which_Training_Methods_for_GANs_do_actually_Converge?(ICML2018).md
This file contains bidirectional Unicode text that may be interpreted or compiled differently than what appears below. To review, open the file in an editor that reveals hidden Unicode characters.
Learn more about bidirectional Unicode characters
Original file line number | Diff line number | Diff line change |
---|---|---|
@@ -0,0 +1,29 @@ | ||
# [Which Training Methods for GANs do actually Converge?](http://proceedings.mlr.press/v80/mescheder18a/mescheder18a.pdf) | ||
|
||
#### Context | ||
* GANの課題 | ||
収束しねえ | ||
|
||
* 既存研究での収束問題に対する取り組み | ||
1 GANのより良い学習アルゴリズムの模索 | ||
2学習のダイナミズムの理解(学習内部でどういうことが起こっているかの理解) | ||
→まだ完全には解明されていない | ||
Meschederet al. (2017) and Nagarajan & Kolter (2017)ではヤコビアン行列の固有値の実部分が全て負であるなら、十分低い学習率を設定すれば収束するとされたし、Nagarajan& Kolter (2017)では、絶対連続なデータかつ絶対連続なジェネレータの分布(absolutely continuous data and generator distributions)であれば、ヤコビアン行列の固有値の実部分が全て負であると示された。 | ||
しかし、現実に絶対連続なデータは稀である。 | ||
|
||
#### Correctness | ||
証明のappendixもあるためただしそう | ||
|
||
#### Contributions | ||
* 例を用いながら、(unreguralized)GANは常に収束するわけではないことを示す。 | ||
* 最近のstandalization GAN のテクニックが例において局所的収束にどのように影響を与えるかを考察する。 | ||
→Wasserstein GANs (WGANs) (Arjovskyet al., 2017) ・ Wasserstein GANs with GradientPenalty (WGAN-GP) (Gulrajani et al., 2017) ・ DRAGAN(Kodali et al., 2017) はジェネレーターのアップデートごとに固定の数のディスクリミネーターのアップデートでは収束しなかった。 | ||
→一方で, instance noise (Sønderbyet al., 2016; Arjovsky & Bottou, 2017)・ zero-centered gradientpenalties (Roth et al., 2017) ・ consensus optimization(Mescheder et al., 2017) の3つは収束した。 | ||
* simplified gradient penalties でGANは収束する!? | ||
|
||
#### Clarity | ||
難しい | ||
|
||
#### コメント | ||
とても良さそうな論文なので、GANを深掘りしたら戻ってくる。 | ||
GANとinstance noise (Sønderbyet al., 2016; Arjovsky & Bottou, 2017)・ zero-centered gradientpenalties (Roth et al., 2017) ・ consensus optimization(Mescheder et al., 2017) は読もうと思う。 |