The Math Behind GANs
9 months ago
- #deep-learning
- #generative-models
- #machine-learning
- GANs包含一个生成器和一个判别器,它们相互竞争以建模数据分布。
- 判别器的损失函数旨在正确分类真实数据与生成数据。
- 生成器的损失函数试图通过生成逼真数据来欺骗判别器。
- 二元交叉熵通常被用作两种模型的损失函数。
- 当判别器能平衡检测真实数据与生成数据时,其性能达到最优。
- 训练生成器可最小化真实数据分布与生成数据分布之间的Jensen-Shannon散度。
- 原始GAN框架将训练表述为一个极小极大优化问题。
- 实际训练中会交替更新判别器和生成器的参数。
- Wasserstein GAN和CycleGAN等先进GAN变体都基于这些基础概念发展而来。