Training bidirectional generative adversarial networks with hints
- Global styles
- Apa
- Bibtex
- Chicago Fullnote
- Help
Abstract
Çekişmeli üretici ağlar (ÇÜA), eğitim kümesindeki `gerçek` örnekler ile üretici ağ tarafından üretilen `sahte` örnekleri birbirinden ayırmak için eğitilen bir ayırıcı ağ yardımıyla üretken bir model öğrenen bir derin öğrenme mimarisidir. ÇÜA'nın üretici ağı düşük boyutlu bir saklı uzay vektörünü girdi olarak alıp bu vektöre karşılık gelen bir örnek üretir. Yakın zamanda öne sürülen çift yönlü ÇÜA'da (ÇYÇÜA) ise ek bir kodlayıcı ağ yardımıyla ters yöne gidilerek girdi olarak verilen bir örnekten saklı uzay vektörü elde edilir. Bu tezdeki ilk katkımız, yine yakın zamanda önerilen Wasserstein ÇÜA'da kullanılan Wasserstein yitiminin ÇYÇÜA'ya uyarlanmasıdır. ÇYÇÜA'ya eklenen kodlayıcı ağ aynı zamanda ipucu niteliğinde yardımcı geri çatma yitimleri tanımlanmasını ve böylece daha iyi eğitilmesini sağlayabilir. Bu tezdeki ikinci katkımız da bu yardımcı geri çatma yitimlerinin tanımlanması ve uygulanmasıdır. Resim içerikli beş farklı veri kümesinde deneyler yapılarak Wasserstein ÇYÇÜA'nın ipuçları eklenmiş halinin resim üretim kalitesi ve çeşitliliği açısından daha iyi üretici ağlar öğrendiği gösterilmiştir. Bu sonuçlara hem üretilen resimlerin görsel analizi, hem de üretilen resimlerle veri kümesinde bulunan gerçek resimler arasında yapılan en-yakın-bir-komşu sınaması sonucu elde edilen nicel verilerin analizi ile varılmıştır. The generative adversarial network (GAN) is a deep learning architecture that learns a generative model by training a later discriminator to best differentiate `fake` examples generated by the generator from the `true` examples sampled from the training set. The generator of GAN takes a low-dimensional latent space vector as input and learns to generate the corresponding input example. The aim of the generator is to generate examples that can not be separated from the true examples by the discriminator. The aim of the discriminator is to maximize the separability of the generated examples from the true examples. A recent extension is the bidirectional GAN (BiGAN) where an encoder is also trained in the inverse direction to generate the latent space vector for a given training example. Recently, Wasserstein GAN has been proposed for GAN and our first contribution is to adapt Wasserstein loss to BiGANs. The added encoder of the BiGAN also allows us to define auxiliary reconstruction losses as hints to learn a better generator, and this is our second contribution. Through experiments on five image data sets, namely, MNIST, UT-Zap50K, GTSRB, Cifar10, and CelebA, we show that Wasserstein BiGANs, augmented with hints, learn better generators in terms of image generation quality and diversity, as measured visually by analyzing the generated samples, and numerically by the 1-nearest-neighbor test.
Collections