Show simple item record

dc.contributor.advisorUçar, Ayşegül
dc.contributor.authorKaymak, Çağrı
dc.date.accessioned2023-09-22T12:27:28Z
dc.date.available2023-09-22T12:27:28Z
dc.date.submitted2023-07-19
dc.date.issued2023
dc.identifier.urihttps://acikbilim.yok.gov.tr/handle/20.500.12812/740611
dc.description.abstractİnsansı robotlar için sağlam bir hareket geliştirmek, onlarca yıldır araştırılan zorlu bir problemdir. Çeşitli yürüme yaklaşımları önerilmiş ve yürüme performansı önemli ölçüde geliştirilmiş olsa da, kararlılık konusunda hala beklentilerin gerisinde kalmaktadır. Pekiştirmeli öğrenme yaklaşımları için düşük yakınsama ve eğitim verimliliği, uygulamaları sınırlandırmaktadır. Bu sınırlamaların üstesinden gelmek için bu tez çalışmasında, Robotis-OP2 insansı robotuna dayalı olarak geleneksel yörünge üreteci kontrolör ve Derin Pekiştirmeli Öğrenme (DPÖ) ile birleştirilmiş etkili bir çerçeve önerilmiştir. Bu çerçeve, oluşturulan yürüyüş yörüngesi parametrelerinin optimizasyonu ve duruş dengeleme sisteminden oluşmaktadır. Webots simülatöründe DPÖ algoritmalarından Düello Çift Derin Q Ağı (Düello ÇDQA) kullanılarak yürüyüş parametreleri optimize edilmiştir. Duruş dengeleme sistemi için kalça stratejisi benimsenmiştir. Önerilen çerçeve ve Robotis-OP2 insansı robotunun kendi yürüme algoritması ile hem simülasyon hem de gerçek ortamda deneysel çalışmalar gerçekleştirilmiştir. Deneysel sonuçlar, robotun önerilen çerçeve ile robotun kendi yürüme algoritmasına göre düz yürüme görevinin daha kararlı bir şekilde gerçekleştirildiğini göstermiştir. Tez çalışması kapsamında daha sonra, robotun eğimli yüzeylerde kararlı bir şekilde yürüyebilmesi için PID kontrolör ve DPÖ kontrolörden oluşan iki ayrı yürüyüş dengeleme çerçevesi önerilmiştir. DPÖ kontrolör olarak DDPG (Derin Deterministik Politika Gradyanı) algoritması tercih edilmiştir. PID kontrolör ile gerçekleştirilen deneysel çalışmalarda robotun duruşu gerçek zamanlı olarak ayarlanarak gövde yunuslama açısının istenilen referans değerde olması sağlanmıştır. DDPG kontrolör ile robotun eğimli yüzeylerde dengeli yürüyüşünün sağlanabilmesi için robotun gövde yunuslama açısının sıralı hareket dizisi öğrenilmiştir. Deneysel sonuçlar, DPÖ kontrolörün PID kontrolöre göre daha kullanışlı olduğunu ve daha kararlı bir yürüme sağladığını göstermiştir.
dc.description.abstractDeveloping robust locomotion for humanoid robots is a challenging problem that has been researched for decades. Although various walking approaches have been proposed and walking performance has been significantly improved, it still falls short of expectations in stability. Low convergence and training efficiency for reinforcement learning approaches limit their applications. To overcome such limitations, an effective framework based on Robotis-OP2 humanoid robot combined with traditional trajectory generator controller and Deep Reinforcement Learning (DRL) is proposed in this thesis. This framework consists of the optimization of the gait trajectory parameters and the posture stabilization system. In the Webots simulator, gait parameters are optimized using the Dueling Double Deep Q Network (D3QN), one of the DRL algorithms. The hip strategy is adopted for the posture balancing system. Experimental studies are carried out in both simulation and real environment with the proposed framework and the Robotis-OP2 humanoid robot's own walking algorithm. Experimental results show that the robot performs the task of straight walking with the proposed framework more stable than the own algorithm of the robot. Later, within the scope of the thesis, two separate gait stabilization frameworks, consisting of a PID controller and a DRL controller, are proposed for the robot to walk stably on sloped surfaces. The DDPG (Deep Deterministic Policy Gradient) algorithm is preferred as the DRL controller. In the experimental studies performed with the PID controller, the posture of the robot was adjusted in real-time to ensure that the body pitch angle is at the desired reference value. With the DDPG controller, the sequential movement sequence of the robot's body pitch angle is learned in order to ensure the robot's balanced walking on inclined surfaces. Experimental results show that the DRL controller is more useful than the PID controller and provides a more stable gait.en_US
dc.languageTurkish
dc.language.isotr
dc.rightsinfo:eu-repo/semantics/openAccess
dc.rightsAttribution 4.0 United Statestr_TR
dc.rights.urihttps://creativecommons.org/licenses/by/4.0/
dc.subjectBilgisayar Mühendisliği Bilimleri-Bilgisayar ve Kontroltr_TR
dc.subjectComputer Engineering and Computer Science and Controlen_US
dc.subjectElektrik ve Elektronik Mühendisliğitr_TR
dc.subjectElectrical and Electronics Engineeringen_US
dc.subjectMekatronik Mühendisliğitr_TR
dc.subjectMechatronics Engineeringen_US
dc.titleİnsansı robotların yürüme becerilerinin derin pekiştirmeli öğrenme algoritmalarıyla geliştirilmesi
dc.title.alternativeDeveloping walking skills of humanoid robots with deep reinforcement learning algorithms
dc.typedoctoralThesis
dc.date.updated2023-07-19
dc.contributor.departmentMekatronik Mühendisliği Ana Bilim Dalı
dc.subject.ytmMobile robots
dc.subject.ytmMachine learning methods
dc.subject.ytmHumanoid robot
dc.identifier.yokid10326154
dc.publisher.instituteFen Bilimleri Enstitüsü
dc.publisher.universityFIRAT ÜNİVERSİTESİ
dc.identifier.thesisid793914
dc.description.pages258
dc.publisher.disciplineMekatronik Mühendisliği Bilim Dalı


Files in this item

FilesSizeFormatView

There are no files associated with this item.

This item appears in the following Collection(s)

Show simple item record

info:eu-repo/semantics/openAccess
Except where otherwise noted, this item's license is described as info:eu-repo/semantics/openAccess