Show simple item record

dc.contributor.advisorTümer, Mustafa Borahan
dc.contributor.authorGöncü, Burak Muhammed
dc.date.accessioned2020-12-10T09:04:20Z
dc.date.available2020-12-10T09:04:20Z
dc.date.submitted2017
dc.date.issued2018-08-06
dc.identifier.urihttps://acikbilim.yok.gov.tr/handle/20.500.12812/223290
dc.description.abstractGeleneksel pekiştirmeli öğrenme (PÖ) yöntemleri ortamın veya hedefindeğişkenlik gösterdiği durumlarda öğrenme sağlayamamaktadırlar. Bunun sebebi, PÖbiriminin hali hazırda öğrenmiş olduğu ortamı sil baştan yeniden öğrenememesidir. Busorunu çözmek amacıyla yavaş değişen ortamlarda, PÖ biriminin en son yaptığı eylemiyapmasının teşvik edildiği sezgisel yaklaşımlar olsada [Sutton And Barto (1998),Chapter9, Example9.3, p236-238], bunlar PÖ birimiyle aynı hızda hareket eden hedefleriçin yeterince hızlı sonuç vermemektedirler. Bu yazıda, yukarda belirtilen hareketlihedefler ve rekabet ortamını olduğu durumlar için yeni bir yöntem tartışacağız. Busorunun çözümü için hedefin konum-zaman bilgisi kullanılarak hazırlanan Stokastiksüreç, PÖ döngüsünde PÖ biriminin ödüllendirme mekanizmasına iliştirilip sorununçözümü için modüler bir yaklaşım sağlamış olacağız. Ayriyetten bu çalışmamızdayöntemimizin uygulanabilirliği ve performansını farklı problemler ile ölçüp AtariMs.Pacman oyunu ile değerlendireceğiz. Son olarak yazıda belirtilen yöntemin testleribaşarıyla tamamlayıp, hedef noktalarının başaralı bir şekilde tahminini sağladığını vegerekli stratejileri (pusu kurma, önünü kesme, hedefin amaçlarını anlama) uyguladığınıgörmüş olacağız.
dc.description.abstractTraditional reinforcement learning (RL) approaches fail to learn a policy to attaina dynamic or non-stationary goal. The reason for this is that the RL agent cannot startlearning the changed environment from scratch once it has converged to a policy beforethe environment has changed. While heuristic solutions where the RL agent is encouragedto use least recently attempted actions are successful for slowly changing environments[Sutton And Barto (1998), Chapter9, Example9.3, p236-238], they do not form asufficiently fast solution to follow a non-stationary goal state that moves with the samevelocity of the RL agent. In this paper, we will discuss a new approach to the problemwhere there is an adversarial relation present between the dynamic goal and the RL agent.To tackle this, the spatio-temporal information of the dynamic goal state is incorporated,in terms of stochastic processes, as the rewards of the RL agent into the environmentmodel thus enabling a modular solution to the problem. In addition, in this paper wepresent the method's robustness using different mazes where we assess the performanceof our method and also test our algorithm with the Atari Ms.Pacman game for somecomplex problem solving. Finally, the results of the experiments show that our methodsuccessfully predicts the rival agent's behavior and points of interest in which the rivalagent will pass through and ambush it at key positions.en_US
dc.languageEnglish
dc.language.isoen
dc.rightsinfo:eu-repo/semantics/openAccess
dc.rightsAttribution 4.0 United Statestr_TR
dc.rights.urihttps://creativecommons.org/licenses/by/4.0/
dc.subjectBilgisayar Mühendisliği Bilimleri-Bilgisayar ve Kontroltr_TR
dc.subjectComputer Engineering and Computer Science and Controlen_US
dc.titleReinforcement learning in non-stationary environments using spatiotemporal analysis
dc.title.alternativeDurağan olmayan ortamlarda konum-zaman analizi yapılarak pekiştirmeli öğrenme sağlamak
dc.typemasterThesis
dc.date.updated2018-08-06
dc.contributor.departmentBilgisayar Mühendisliği Anabilim Dalı
dc.subject.ytmArtificial neural networks
dc.subject.ytmReinforced learning
dc.subject.ytmArtificial intelligence
dc.identifier.yokid10166062
dc.publisher.instituteFen Bilimleri Enstitüsü
dc.publisher.universityMARMARA ÜNİVERSİTESİ
dc.identifier.thesisid479532
dc.description.pages45
dc.publisher.disciplineDiğer


Files in this item

Thumbnail

This item appears in the following Collection(s)

Show simple item record

info:eu-repo/semantics/openAccess
Except where otherwise noted, this item's license is described as info:eu-repo/semantics/openAccess