Hadoop tabanlı büyük ölçekli görüntü işleme altyapısı
dc.contributor.advisor | Sayar, Ahmet | |
dc.contributor.author | Demir, İlginç | |
dc.date.accessioned | 2020-12-29T13:01:34Z | |
dc.date.available | 2020-12-29T13:01:34Z | |
dc.date.submitted | 2012 | |
dc.date.issued | 2018-08-06 | |
dc.identifier.uri | https://acikbilim.yok.gov.tr/handle/20.500.12812/417781 | |
dc.description.abstract | Hadoop Dağıtık Dosya Sistemi (Hadoop Distributed File System (HDFS)) büyük boyutlu veriyi saklama ve işlemede yaygın olarak kullanılmaktadır. HDFS paralel işleme için MapReduce programlama modelini kullanır.Bu tez ile sunulan çalışma kapsamında MapReduce modeli ile görüntü dosyalarının işlenebilmesi için yeni bir Hadoop eklentisi (plugin) geliştirilmiştir. Eklenti, görüntü ile ilgili girdi ve çıktı dosya formatları ve girdi dosyalarından kayıtları oluşturan yeni sınıfları içerir. HDFS özellikle az sayıda büyük boyutlu dosyalarla çalışması için tasarlanmıştır. Dolayısıyla, önerilen teknik, HDFS'de büyük miktarda küçük boyutlu görüntü dosyası kullanımından kaynaklanan performans kayıplarını önlemek için, imgelerin birleştirilerek büyük boyutlu dosyalara dönüştürülmesini temel almıştır. Böylelikle, her bir işleyici çok sayıda imgeyi tek çalışma döngüsünde işleyebilir hale gelir.Önerilen tekniğin etkinliği dağıtık görüntü dosyaları üzerinde yüz saptama (face detection) uygulama senaryosu ile kanıtlanmıştır. Başarısı kanıtlanmış olan bu teknikler araştırmacılar ve uygulama geliştiriciler için bu konuda referans olma niteliği taşımaktadır. | |
dc.description.abstract | Hadoop Distributed File System (HDFS) is widely used in large-scale data storage and processing. HDFS uses MapReduce programming model for parallel processing.A novel Hadoop plugin to process image files with MapReduce model is developed in the work presented in this thesis. The plugin introduces image related I/O formats and novel classes for creating records from input files. HDFS is especially designed to work with small number of large size files. Therefore, the proposed technique is based on merging multiple small size files into one large file to prevent the performance loss stemming from working with large number of small size files. In that way, each task becomes capable of processing multiple images in a single run cycle.The effectiveness of the proposed technique is proven by an application scenario for face detection on distributed image files. This successfull technique and developed plugin may become a reference for researchers and developers in this field. | en_US |
dc.language | Turkish | |
dc.language.iso | tr | |
dc.rights | info:eu-repo/semantics/openAccess | |
dc.rights | Attribution 4.0 United States | tr_TR |
dc.rights.uri | https://creativecommons.org/licenses/by/4.0/ | |
dc.subject | Bilgisayar Mühendisliği Bilimleri-Bilgisayar ve Kontrol | tr_TR |
dc.subject | Computer Engineering and Computer Science and Control | en_US |
dc.title | Hadoop tabanlı büyük ölçekli görüntü işleme altyapısı | |
dc.title.alternative | Hadoop based large scale image processing infrastructure | |
dc.type | masterThesis | |
dc.date.updated | 2018-08-06 | |
dc.contributor.department | Bilgisayar Mühendisliği Anabilim Dalı | |
dc.subject.ytm | Image processing | |
dc.subject.ytm | Distributed file system | |
dc.subject.ytm | Distributed systems | |
dc.subject.ytm | Face detection | |
dc.identifier.yokid | 438652 | |
dc.publisher.institute | Fen Bilimleri Enstitüsü | |
dc.publisher.university | KOCAELİ ÜNİVERSİTESİ | |
dc.identifier.thesisid | 315729 | |
dc.description.pages | 87 | |
dc.publisher.discipline | Diğer |