Building an autonomous wheeled tracking robot and location positioning
- Global styles
- Apa
- Bibtex
- Chicago Fullnote
- Help
Abstract
Bu tez kapsamında, otomom takip robotu gerçekleştirilmiştir. Robot, birbirine bağımlı üç bileşenden oluşmaktadır: video kamera, işleme birimi, şase ve hareket bölümleri.?Logitech? Quickcam Pro for Notebook? video kamera kaynak aygıt olarak kullanılmıştır. Kameranın Linux işletim sisteminde çalışması için uvc sürücüsü yüklenmiş ve aygıttan görüntü almak, işlemek için V4L2 Linux çekirdek API arayüzü kullanılmıştır. Takip algoritmaları V4L2 API arayüzü ile alınan görüntü üzerinde uygulanmış ve takip sonuçlarına göre sistem hareket birimlerine takip edilecek nesneye doğru hareket için gerekli komutları göndermiştir.Takip algoritması takip edilecek nesne olarak kırmızı renkli bir daireyi kullanmıştır. Sistemin çalışması sırasında ilk olarak nesne kameraya yakın bir bölgede tutulmuştur. Böylece robot nesnenin yerini tayin etmiştir. Daha sonra nesne, sağa, sola, ileri hakeret ettirilmiş, hakeret esnasında ise durma işlemi gerçekleştirmiştir. Bu şartlar altında, robot nesneyi kamera görüntüsü üzerinde kullandığı takip penceresinin parametreleri ? pencerenin görüntüdeki x-y koordinatları, pencerenin boyutu - yardımıyla takip etmiştir.Takip penceresi bütün görüntü içerisinde nesnenin yerini işaretlemek için kullanılan mavi renkli bir karedir. Kaynak aygıttan ? video kamera ? görüntüler geldikçe, görüntü üzerindeki her pikselin RGB renk bileşenleri nesnenin yerini tespit etmek için kullanılmıştır. Gerçekleştirim sırasında, kabul edilebilir kırmızı pikseller ( RGB değerleri oranları ile kırmızı olduğu kabul edilen) takip penceresinin yeri, boyunu hesaplamada dikkate alınmıştır.Hedef nesne belirli bir yöne hareket ettikçe, sistem hareket birimleri nesneyi görüntü üzerinde sabit bir yerde tutmak için hareket birimlerine komutlar gönderir. Örneğin nesne çok ileri gitmişse, bu takip penceresinin küçüldüğü anlamına geliyor, boyutu büyütmek için ileri doğru hareket komutları verilir. In the scope of this thesis, autonomous tracking robot has been realized. The robot consists of three dependent components, video streaming camera, processing unit, and chassis and moving parts.?Logitech? Quickcam Pro for Notebook? video camera has been implemented as video streaming input device. USB device driver for Linux operating system, named uvc, has been loaded, and V4L2 kernel API interface for video devices on Linux operating system has been used to query frame buffers and process by applying tracking algorithms and depending on the result of tracking operations, chassis including wheels and motors have been instructed to track the target object.Tracking algorithm has used a red colored circle as target object. The object has been held close to the robot (video device part) at first step to help tracker locate the target object in the frame buffer. Then, the object moved forward, left, right and stopped. Under these circumstances, tracker followed the object depending on the parameters - which are, size, x-y position within the frame buffer - of the tracking window.Tracking window is a blue painted square on the output screen to locate the target object within a single frame. As the frames are grabbed from the input device, RGB components of each pixel in the frame are used to extract red circle object. To do so, accepted red pixels (whose redness rate is above a predefined threshold value) are taken into consideration to construct new tracking window?s width, height and x-y location.As the target moves in front of the robot, the tracking window will move in the same direction to locate the object. In case of tracking window passes some limit values in height, width or x-y coordinate, algorithm will instruct robot movement motors to satisfy the parameters of the tracking window to reside within the desired values. Thus, autonomous tracking is fulfilled.
Collections