Show simple item record

dc.contributor.advisorEşmelioğlu, Sadık
dc.contributor.authorWais, Yasir Mustafa
dc.date.accessioned2020-12-04T11:21:43Z
dc.date.available2020-12-04T11:21:43Z
dc.date.submitted2015
dc.date.issued2018-08-06
dc.identifier.urihttps://acikbilim.yok.gov.tr/handle/20.500.12812/78208
dc.description.abstractYüz ifadesi insan vücudunun evrensel dillerinden biridir ve bir çok bilgi iletmi için kullanılan sessiz iletişimin aktif bir yolu olarak görülür. Bu bilgi sayesinde insanın duygusal durumunu, niyetini ve sosyal iletişimini anlamak mümkündür. Bu nedenle, bu çalışmada yüz ifadesini analiz edip, statik görüntülerden herhangi bir kişinin duygusal durumunu tespit etmek için kullanılabilir bilgileri çıkarmak için yapılmıştır. Çalışmamız yeni önerilen iki yöntemi içerir : İlk yöntem bir giriş yüzü görüntüsünün varolan ve tanımlanmış dört şablonun (Mutlu, Korkmuş, Şaşırmış ve Normal) arasında kendine en uygun olanı bulur. İkinci yöntem tespit edilen yüzün iki bölgesinde (ağız ve burun) dört özellik noktasını bularak üç duygusal ifadeyi (Mutlu, Normal ve Şaşırmış) bir ruh halini tespit etmek için formüle edilmiştir. Bu özellik noktalarının arasındaki mesafeleri ölçüp daha önceden hesap edip tanımlamış olduğumuz ifadenin ölçüleri ile karşılaştırıp öyle kararımız verilir. Önerilen yöntemin tespit verimliliği JAFFE (Japon Kadın Yüz İfadesi) veritabanı ve İBB (Bilişim ve Matematik Modelleme) veritabanı üzerinde test edilmiştir. Puan algılama ortalaması yüzde 80 ila 85 arasında olduğu tesbit edilmiştir.Anahtar Kelimeler: Cilt Rengi Algılama, Yüz Algılama, Yüz İfadeleri Sınıflandırma.
dc.description.abstractFacial expression is considered to be one of the universal languages of the human body and an active channel of non-verbal communication that is used to convey large amounts of information. By using this information, we are able to read human internal emotional states, intentions or social communications.Therefore, this study is conducted, to analyze facial expression and to extract information that is used to detect the emotional state of any person in static images. The study contains two new proposed methods: the first method is a type of template matching that finds a good match between an input face image and four pre-defined templates (Happy, Fear, Surprise and Neutral). The second method is formulated to detect a mood for three emotional expressions (Happy, Neutral and Surprise) by locating four feature points on two regions (mouth and nose) of a detected face. The distances between these feature points are measured and then compared with pre-defined thresholds, after which a decision is made.The detection efficiency of the proposed method is tested on the JAFFE (Japanese Female Facial Expression) database and the IMM (Informatics and Mathematical Modeling) database. The average percentage of detection rated is between 80 and 85 percent.Keywords: Skin Color Detection, Face Detection, Facial Expressions Classification.en_US
dc.languageEnglish
dc.language.isoen
dc.rightsinfo:eu-repo/semantics/openAccess
dc.rightsAttribution 4.0 United Statestr_TR
dc.rights.urihttps://creativecommons.org/licenses/by/4.0/
dc.subjectBilgisayar Mühendisliği Bilimleri-Bilgisayar ve Kontroltr_TR
dc.subjectComputer Engineering and Computer Science and Controlen_US
dc.titleMood detection according to facial expressions
dc.title.alternativeYüz ifadelerine göre ruh halinin tespiti
dc.typemasterThesis
dc.date.updated2018-08-06
dc.contributor.departmentBilgisayar Mühendisliği Anabilim Dalı
dc.identifier.yokid10065169
dc.publisher.instituteFen Bilimleri Enstitüsü
dc.publisher.universityÇANKAYA ÜNİVERSİTESİ
dc.identifier.thesisid386096
dc.description.pages91
dc.publisher.disciplineDiğer


Files in this item

Thumbnail

This item appears in the following Collection(s)

Show simple item record

info:eu-repo/semantics/openAccess
Except where otherwise noted, this item's license is described as info:eu-repo/semantics/openAccess