Show simple item record

dc.contributor.advisorVarlı, Songül
dc.contributor.authorAltun, Oğuz
dc.date.accessioned2020-12-29T09:54:14Z
dc.date.available2020-12-29T09:54:14Z
dc.date.submitted2010
dc.date.issued2018-08-06
dc.identifier.urihttps://acikbilim.yok.gov.tr/handle/20.500.12812/388162
dc.description.abstractTürk İşaret Dili Alfabesi harf işaretleri görüntüler üzerinden tanınmıştır.Bu amaçla birinci aşamada yönelim açısını kullanarak el nesnelerini hizalayan yeni bir hizalama yöntemi geliştirilmiştir.Hizalanan el işaretleri kullanılarak yapılan sınıflayıcı karşılaştırmasında en iyi sınıflamanın 1NN ve SVM sınıflayıcıları ile sağlandığı görülmüştür.İkinci aşamada Genelleştirilmiş Hough Transformu, ilgi bölgeleri (interest regions) ve yerel tanımlayıcılar (local descriptors) kullanan bir tanıma sistemi gerçeklenmiştir.Üçüncü aşamada ilgi bölgesi belirleyicilerinin (interest region detector) bir karşılaştırması yapılmış ve EdgeLap (Mikolajczyk vd., 2003) bölgelerinin en iyi tanıma başarısını sağladığı gözlemlenmiştir. İlgi bölgelerinin kalitesini sayısallaştırılmak amacı ile yeni bir ayırt edicilik istatistiği geliştirilmiş ve bu istatistik açısından bakıldığında SURF (Bay vd., 2008) ve DoG (Lowe, 2004)belirleyicilerinin öne çıktığı görülmüştür.Geliştirilen ayırt edicilik istatistiği ilgi bölgesi belirleyicisinin bölgelerinin başarısını rastgele üretilen bölgelerin başarısı ile kıyaslamaktadır. Bu amaçla yeni bir rastgele bölge üreticisi, ExpRand, geliştirilmiştir. Yapılan denemelerde ExpRand üreticisinin en iyi belirleyici ile eş tanıma başarısı verdiği ve ilgi bölgesi belirleyicilerinin birçoğundan daha ayırt edici olduğu gözlemlenmiştir.
dc.description.abstractThe recognition of Turkish Sign Language Alphabet finger spelling signs from images is inspected.In the first stage of the thesis the hand regions are aligned with a novel alignment method based on the orientation angle between axis of least inertia and the y axis. 1NN and SVM come up as the best classifiers in the classification evaluation for aligned hand regions.In the second stage a recognition system based on Generalized Hough Transform, interest regions and local descriptors are implemented.In the third stage an evaluation of the interest regions is performed. EdgeLap regions get the best recognition results. In order to quantify the discriminating power of the interest region detectors a novel discriminancy measure is introduced. SURF (Bay vd., 2008) and DoG (Lowe, 2004) regions have the best discriminancy scores. The discriminancy measure introduced compares the recognition success of a region detector with the recognition success of a random region generator. A new random region generator, ExpRand is introduced for this purpose. Regions generated by ExpRand get success rate on par with the best detector and they have more discriminating power than regions of most detectors.en_US
dc.languageTurkish
dc.language.isotr
dc.rightsinfo:eu-repo/semantics/openAccess
dc.rightsAttribution 4.0 United Statestr_TR
dc.rights.urihttps://creativecommons.org/licenses/by/4.0/
dc.subjectBilgisayar Mühendisliği Bilimleri-Bilgisayar ve Kontroltr_TR
dc.subjectComputer Engineering and Computer Science and Controlen_US
dc.titleİlgi bölgeleri ve yerel tanımlayıcılar ile genelleştirilmiş Hough dönüşümü ve en az eylemsizlik ekseni tabanlı hizalama yaklaşımı ile Türk işaret dili tanıma sistemi
dc.title.alternativeTurkish sign language recognition using generalized Hough transform with interest regions and local descriptors, and using axis of least inertia based alignment
dc.typedoctoralThesis
dc.date.updated2018-08-06
dc.contributor.departmentBilgisayar Mühendisliği Anabilim Dalı
dc.subject.ytmRadial basis functions
dc.identifier.yokid394225
dc.publisher.instituteFen Bilimleri Enstitüsü
dc.publisher.universityYILDIZ TEKNİK ÜNİVERSİTESİ
dc.identifier.thesisid295643
dc.description.pages86
dc.publisher.disciplineDiğer


Files in this item

Thumbnail

This item appears in the following Collection(s)

Show simple item record

info:eu-repo/semantics/openAccess
Except where otherwise noted, this item's license is described as info:eu-repo/semantics/openAccess