Show simple item record

dc.contributor.advisorİmal, Erkan
dc.contributor.advisorHakkoymaz, Veli
dc.contributor.authorÖztürk, Ceyda Nur
dc.date.accessioned2021-05-07T11:39:12Z
dc.date.available2021-05-07T11:39:12Z
dc.date.submitted2012
dc.date.issued2018-08-06
dc.identifier.urihttps://acikbilim.yok.gov.tr/handle/20.500.12812/615856
dc.description.abstractSon 20 yılda gezgin robot navigasyonu amaçlı bilgisayarlı görme sahasında birçok araştırma yapılmıştır. Gerektirdiği hesaplama yüküne ve sonar ya da lazerli mesafe algılayıcılarla karştırıldığında ortamın geometrisini dolaylı bir şekilde içeriyor olmasının sonucunda daha fazla hataya açık olmasına rağmen, kameralar az yer kapladığı, ortamla etkileşmediği, sık ve ucuz bulunduğu, bilgi dolu olduğu ve insana ait görme sistemine benzediği için rahat anlaşılabildiğinden gelecek vaadetmektedir.Bu tezde, sağlam öznitelik çıkarma ve görmeye bağlı eşzamanlı konumlandırma ve haritalandırma (SLAM) çalışmalarına vurgu yapılarak görme tabanlı navigasyon üzerine yazın taranmaktadır. Elde edilen bulgulara binaen benzer bir tek kameralı SLAM sistemi önerilmektedir. Sistemin uygulaması için, gezgin bir robot sağlanan bir yörüngeye göre hareket ederken, robotun kamera çerçevelerinden ortamı algılayabilmek için ortamdaki işaretlere ait bazı sağlam öznitelikler çıkarılmakta ve çerçeveler boyunca takip edilmektedir. Bu sağlam öznitelikleri çıkarabilmek için bazı popüler algoritmalar uyarlanmaktadır. Öznitelikleri kamera çerçeveleri arasında eşleyerek, 3B dünyadaki işaretlerin izafi koordinatları evvelki bir kalibrasyon işlemi sayesinde yaklaşık olarak elde edilebilir. Genişletilmiş Kalman filitresinde (EKF) robotun odometresine bağlı robot konumu tahminleri, işaretlerin koordinat tahminleriyle bir araya getirilerek robotun ve ortamdaki işaretlerin konumları bir miktar belirsizlikle hesaplanabilir. Bu eşzamanlı olarak temsili bir ortam haritası inşasına olanak sağlamaktadır. Böylece, bilinmeyen ortamlarda çalışabilecek, öğrenen ve rastgele davranışlı bir gezgin robot için de temel olabilecek tekgözlü SLAM sistemi araştırılmaktadır.
dc.description.abstractDuring past 20 years, much of the research work has been in the area of computer vision for mobile robot navigation. Despite of being computationally more expensive and less accurate compared to sonar or laser range sensors due to their indirect storage of the world?s geometry, visionary sensors are promising since they are compact, noninvasive, ubiquitous, cheap, full of information and well-understood because of their similarity to humanoid vision systems.In this thesis, literature on vision-based naviagation is reviewed by emphasizing the robust feature extraction and visionary simultaneous localization and mapping (SLAM) studies. Based on the findings obtained, a similar SLAM system using single camera is proposed. For the implementation of the system, while a mobile robot navigates according to a provided trajectory, some robust features belonging to natural landmarks in the environment are extracted from the camera frames of the robot and tracked through the frames to perceive the environment. In order to extract those robust features, some popular algorithms are adapted. By matching the features between camera frames, relative coordinates of the landmarks in 3D world can be obtained approximately by depending on a prior calibration process. Integrating the robot position estimates based on odometry of robot with landmark coordinate estimates in extended Kalman filter (EKF), relative positions of the robot and the environment landmarks can be computed with some amount of uncertainty. This enables the building of a representative map of the environment simultaneously. Thus, a monocular SLAM system has been investigated, which may also be the basis for a learning mobile robot with stochastic actions that is capable of operating in unknown environments.en_US
dc.languageEnglish
dc.language.isoen
dc.rightsinfo:eu-repo/semantics/openAccess
dc.rightsAttribution 4.0 United Statestr_TR
dc.rights.urihttps://creativecommons.org/licenses/by/4.0/
dc.subjectBilgisayar Mühendisliği Bilimleri-Bilgisayar ve Kontroltr_TR
dc.subjectComputer Engineering and Computer Science and Controlen_US
dc.subjectMühendislik Bilimleritr_TR
dc.subjectEngineering Sciencesen_US
dc.titleVision-based autonomous navigator
dc.title.alternativeGörüntü tabanlı otonom navigatör
dc.typemasterThesis
dc.date.updated2018-08-06
dc.contributor.departmentBilgisayar Mühendisliği Ana Bilim Dalı
dc.subject.ytmLocalization
dc.subject.ytmMapping
dc.subject.ytmMobile robots
dc.subject.ytmFeature
dc.subject.ytmFeature projections
dc.subject.ytmCamera
dc.subject.ytmVision-monocular
dc.subject.ytmParameter estimation
dc.subject.ytmFeature extraction
dc.identifier.yokid440631
dc.publisher.instituteFen Bilimleri Enstitüsü
dc.publisher.universityFATİH ÜNİVERSİTESİ
dc.identifier.thesisid318593
dc.description.pages110
dc.publisher.disciplineDiğer


Files in this item

Thumbnail

This item appears in the following Collection(s)

Show simple item record

info:eu-repo/semantics/openAccess
Except where otherwise noted, this item's license is described as info:eu-repo/semantics/openAccess