Vision-based autonomous navigator
dc.contributor.advisor | İmal, Erkan | |
dc.contributor.advisor | Hakkoymaz, Veli | |
dc.contributor.author | Öztürk, Ceyda Nur | |
dc.date.accessioned | 2021-05-07T11:39:12Z | |
dc.date.available | 2021-05-07T11:39:12Z | |
dc.date.submitted | 2012 | |
dc.date.issued | 2018-08-06 | |
dc.identifier.uri | https://acikbilim.yok.gov.tr/handle/20.500.12812/615856 | |
dc.description.abstract | Son 20 yılda gezgin robot navigasyonu amaçlı bilgisayarlı görme sahasında birçok araştırma yapılmıştır. Gerektirdiği hesaplama yüküne ve sonar ya da lazerli mesafe algılayıcılarla karştırıldığında ortamın geometrisini dolaylı bir şekilde içeriyor olmasının sonucunda daha fazla hataya açık olmasına rağmen, kameralar az yer kapladığı, ortamla etkileşmediği, sık ve ucuz bulunduğu, bilgi dolu olduğu ve insana ait görme sistemine benzediği için rahat anlaşılabildiğinden gelecek vaadetmektedir.Bu tezde, sağlam öznitelik çıkarma ve görmeye bağlı eşzamanlı konumlandırma ve haritalandırma (SLAM) çalışmalarına vurgu yapılarak görme tabanlı navigasyon üzerine yazın taranmaktadır. Elde edilen bulgulara binaen benzer bir tek kameralı SLAM sistemi önerilmektedir. Sistemin uygulaması için, gezgin bir robot sağlanan bir yörüngeye göre hareket ederken, robotun kamera çerçevelerinden ortamı algılayabilmek için ortamdaki işaretlere ait bazı sağlam öznitelikler çıkarılmakta ve çerçeveler boyunca takip edilmektedir. Bu sağlam öznitelikleri çıkarabilmek için bazı popüler algoritmalar uyarlanmaktadır. Öznitelikleri kamera çerçeveleri arasında eşleyerek, 3B dünyadaki işaretlerin izafi koordinatları evvelki bir kalibrasyon işlemi sayesinde yaklaşık olarak elde edilebilir. Genişletilmiş Kalman filitresinde (EKF) robotun odometresine bağlı robot konumu tahminleri, işaretlerin koordinat tahminleriyle bir araya getirilerek robotun ve ortamdaki işaretlerin konumları bir miktar belirsizlikle hesaplanabilir. Bu eşzamanlı olarak temsili bir ortam haritası inşasına olanak sağlamaktadır. Böylece, bilinmeyen ortamlarda çalışabilecek, öğrenen ve rastgele davranışlı bir gezgin robot için de temel olabilecek tekgözlü SLAM sistemi araştırılmaktadır. | |
dc.description.abstract | During past 20 years, much of the research work has been in the area of computer vision for mobile robot navigation. Despite of being computationally more expensive and less accurate compared to sonar or laser range sensors due to their indirect storage of the world?s geometry, visionary sensors are promising since they are compact, noninvasive, ubiquitous, cheap, full of information and well-understood because of their similarity to humanoid vision systems.In this thesis, literature on vision-based naviagation is reviewed by emphasizing the robust feature extraction and visionary simultaneous localization and mapping (SLAM) studies. Based on the findings obtained, a similar SLAM system using single camera is proposed. For the implementation of the system, while a mobile robot navigates according to a provided trajectory, some robust features belonging to natural landmarks in the environment are extracted from the camera frames of the robot and tracked through the frames to perceive the environment. In order to extract those robust features, some popular algorithms are adapted. By matching the features between camera frames, relative coordinates of the landmarks in 3D world can be obtained approximately by depending on a prior calibration process. Integrating the robot position estimates based on odometry of robot with landmark coordinate estimates in extended Kalman filter (EKF), relative positions of the robot and the environment landmarks can be computed with some amount of uncertainty. This enables the building of a representative map of the environment simultaneously. Thus, a monocular SLAM system has been investigated, which may also be the basis for a learning mobile robot with stochastic actions that is capable of operating in unknown environments. | en_US |
dc.language | English | |
dc.language.iso | en | |
dc.rights | info:eu-repo/semantics/openAccess | |
dc.rights | Attribution 4.0 United States | tr_TR |
dc.rights.uri | https://creativecommons.org/licenses/by/4.0/ | |
dc.subject | Bilgisayar Mühendisliği Bilimleri-Bilgisayar ve Kontrol | tr_TR |
dc.subject | Computer Engineering and Computer Science and Control | en_US |
dc.subject | Mühendislik Bilimleri | tr_TR |
dc.subject | Engineering Sciences | en_US |
dc.title | Vision-based autonomous navigator | |
dc.title.alternative | Görüntü tabanlı otonom navigatör | |
dc.type | masterThesis | |
dc.date.updated | 2018-08-06 | |
dc.contributor.department | Bilgisayar Mühendisliği Ana Bilim Dalı | |
dc.subject.ytm | Localization | |
dc.subject.ytm | Mapping | |
dc.subject.ytm | Mobile robots | |
dc.subject.ytm | Feature | |
dc.subject.ytm | Feature projections | |
dc.subject.ytm | Camera | |
dc.subject.ytm | Vision-monocular | |
dc.subject.ytm | Parameter estimation | |
dc.subject.ytm | Feature extraction | |
dc.identifier.yokid | 440631 | |
dc.publisher.institute | Fen Bilimleri Enstitüsü | |
dc.publisher.university | FATİH ÜNİVERSİTESİ | |
dc.identifier.thesisid | 318593 | |
dc.description.pages | 110 | |
dc.publisher.discipline | Diğer |