TD-Gammon revisited: integrating invalid actions and dice factor in continuous action and observation space
dc.contributor.advisor | Alpaslan, Ferda Nur | |
dc.contributor.author | Usta, Engin Deniz | |
dc.date.accessioned | 2020-12-10T09:37:26Z | |
dc.date.available | 2020-12-10T09:37:26Z | |
dc.date.submitted | 2018 | |
dc.date.issued | 2018-12-03 | |
dc.identifier.uri | https://acikbilim.yok.gov.tr/handle/20.500.12812/237688 | |
dc.description.abstract | TD-Gammon'un 1991'deki başarısından sonra, oyun oynyabilen etmenlere olan ilgi bir hayli artmış durumda. Derin Öğrenme ve eski oyunların emülatörlerindeki gelişmelerden sonra, Atari oyunları için insan seviyesinde oynayabilen etmenler ortaya çıktı, ve Derin Takviyeli Öğrenme kendi başarısını kanıtladı. Ancak, Derin Takviyeli Öğrenme'nin atası olan TD-Gammon, ve ounu Tavla, arka planda kaldı. Bunun sebepleri ise, Tavla'nın aksiyonlarının diğer Atari oyunlarına göre çok daha kompleks olması (genelde çoğu Atari oyununda 2 veya 4 farklı aksiyon alınabilir), aksiyon alanında çok fazla geçersiz aksiyon olması, ve zar faktörünün getirdiği rastgelelik olarak görülüyor. Son sebep olarak ise, Tavla'da uzun süre önce profesyonel seviyede oynayabilen etmenlerin varlığı olduğunu söyleyebiliriz. Bu tezde, son çıkan Derin Takviyeli Öğrenme yöntemleri, onların atası olan oyuna, Tavla'ya karşı test edilecektir. Bu sırada ek olarak, etmenlerimiz zar faktörünü de hesaba katarak geçerli hamleleri bulmaya çalışacaktır. | |
dc.description.abstract | After TD-Gammon's success in 1991, the interest in game-playing agents has risen significantly. With the developments in Deep Learning and emulations for older games have been created, human-level control for Atari games has been achieved and Deep Reinforcement Learning has proven itself to be a success. However, the ancestor of DRL, TD-Gammon, and its game Backgammon got out of sight, because of the fact that Backgammon's actions are much more complex than other games (most of the Atari games has 2 or 4 different actions), the huge action space has much invalid actions, and there is a dice factor which involves stochasticity. Last but not least, the professional level in Backgammon has been achieved a long time ago. In this thesis, the latest methods in DRL will be tested against its ancestor game, Backgammon, while trying to teach how to select valid moves and considering the dice factor. | en_US |
dc.language | English | |
dc.language.iso | en | |
dc.rights | info:eu-repo/semantics/openAccess | |
dc.rights | Attribution 4.0 United States | tr_TR |
dc.rights.uri | https://creativecommons.org/licenses/by/4.0/ | |
dc.subject | Bilgisayar Mühendisliği Bilimleri-Bilgisayar ve Kontrol | tr_TR |
dc.subject | Computer Engineering and Computer Science and Control | en_US |
dc.title | TD-Gammon revisited: integrating invalid actions and dice factor in continuous action and observation space | |
dc.title.alternative | TD-Gammon'a yeniden bakış: tavla'da sürekli aksiyon ve gözlem alanı içine geçersiz hamleleri ve zar faktörünü dahil etmek | |
dc.type | masterThesis | |
dc.date.updated | 2018-12-03 | |
dc.contributor.department | Bilgisayar Mühendisliği Anabilim Dalı | |
dc.identifier.yokid | 10212089 | |
dc.publisher.institute | Fen Bilimleri Enstitüsü | |
dc.publisher.university | ORTA DOĞU TEKNİK ÜNİVERSİTESİ | |
dc.identifier.thesisid | 521398 | |
dc.description.pages | 57 | |
dc.publisher.discipline | Diğer |