Hasty Briefsbeta

双语

Rethinking Losses for Diffusion Bridge Samplers

a year ago
  • #Optimization
  • #Machine Learning
  • #Diffusion Bridges
  • 扩散桥是一种用于从非归一化分布中采样的深度学习方法。
  • 使用重参数化技巧时,对数方差(LV)损失优于反向Kullback-Leibler(rKL)损失。
  • 对于扩散桥或学习扩散系数的情况,LV损失无法保持与rKL损失的等价性。
  • 采用对数导数技巧的rKL损失(rKL-LD)避免了概念性问题,且性能优于LV损失。
  • 实验结果表明,rKL-LD损失在扩散桥中能带来更好的性能。
  • rKL-LD需要更少的超参数优化,并能提供更稳定的训练过程。