Q regression neural network
- Global styles
- Apa
- Bibtex
- Chicago Fullnote
- Help
Abstract
Q öğrenme yöntemi takviyeli öğrenme için önemli bir gelişme olmuştur. Ancak gerçek dünya problemlerinin sahip olduğu devasa büyüklükteki durum-aksiyon sayısı Q öğrenme yöntemini uygulanamaz hale getirmektedir. Bu durum sadece durum-aksiyon uzayını genellemeyecek, aynı zamanda da öğrenmeyi hızlandıracak etkili bir regresyon metodunu gerekmektedir. Bu tezde Q regresyon yapay sinir ağı adında Q değer fonksiyonunun genelleştirilmesi ile GRNN formunda bir yapı kullanılması sonucu elde edilen yeni bir eğiticisiz yapay sinir ağı önerilmiştir. QRNN Q ajanının ürettiği veriler üzerinde çalışır. Önerilen metot popüler takviyeli öğrenme çalışma ortamları üzerinde test edilmiş, Q öğrenme yöntemi ve diğer regresyon yöntemleri ile karşılaştırılmıştır. Test sonucunda öğrenme hızının karşılaştırılan yöntemlere göre oldukça yüksek olduğu gözlenmiştir. Anahtar Kelimeler: Takviyeli Öğrenme, Q öğrenme yöntemi, Q değer fonksiyonu genelleme, GRNN Q Learning was an important novelty for reinforcement learning. However Q learning becomes inapplicable due to the gigantic size of solution spaces of real world problems. Therefore, an efficient regression method is required not only to generalize the state, action space but also accelerate speed of the learning algorithm.In this thesis, Q regression neural network suggested is a novel regression method obtained as a result of a GRNN form structure used for generalization Q-value function. QRNN works with data generated by Q-Agent. It is tested with popular reinforcement learning benchmarks and its performance is compared with that of both Q-Learning and the other regression methods. Test results show that, QRNN learning efficiency is much higher than the compared methods. Key Words: Reinforcement Learning, Q Learning, Q value function generalization, GRNN
Collections