Mood detection according to facial expressions
- Global styles
- Apa
- Bibtex
- Chicago Fullnote
- Help
Abstract
Yüz ifadesi insan vücudunun evrensel dillerinden biridir ve bir çok bilgi iletmi için kullanılan sessiz iletişimin aktif bir yolu olarak görülür. Bu bilgi sayesinde insanın duygusal durumunu, niyetini ve sosyal iletişimini anlamak mümkündür. Bu nedenle, bu çalışmada yüz ifadesini analiz edip, statik görüntülerden herhangi bir kişinin duygusal durumunu tespit etmek için kullanılabilir bilgileri çıkarmak için yapılmıştır. Çalışmamız yeni önerilen iki yöntemi içerir : İlk yöntem bir giriş yüzü görüntüsünün varolan ve tanımlanmış dört şablonun (Mutlu, Korkmuş, Şaşırmış ve Normal) arasında kendine en uygun olanı bulur. İkinci yöntem tespit edilen yüzün iki bölgesinde (ağız ve burun) dört özellik noktasını bularak üç duygusal ifadeyi (Mutlu, Normal ve Şaşırmış) bir ruh halini tespit etmek için formüle edilmiştir. Bu özellik noktalarının arasındaki mesafeleri ölçüp daha önceden hesap edip tanımlamış olduğumuz ifadenin ölçüleri ile karşılaştırıp öyle kararımız verilir. Önerilen yöntemin tespit verimliliği JAFFE (Japon Kadın Yüz İfadesi) veritabanı ve İBB (Bilişim ve Matematik Modelleme) veritabanı üzerinde test edilmiştir. Puan algılama ortalaması yüzde 80 ila 85 arasında olduğu tesbit edilmiştir.Anahtar Kelimeler: Cilt Rengi Algılama, Yüz Algılama, Yüz İfadeleri Sınıflandırma. Facial expression is considered to be one of the universal languages of the human body and an active channel of non-verbal communication that is used to convey large amounts of information. By using this information, we are able to read human internal emotional states, intentions or social communications.Therefore, this study is conducted, to analyze facial expression and to extract information that is used to detect the emotional state of any person in static images. The study contains two new proposed methods: the first method is a type of template matching that finds a good match between an input face image and four pre-defined templates (Happy, Fear, Surprise and Neutral). The second method is formulated to detect a mood for three emotional expressions (Happy, Neutral and Surprise) by locating four feature points on two regions (mouth and nose) of a detected face. The distances between these feature points are measured and then compared with pre-defined thresholds, after which a decision is made.The detection efficiency of the proposed method is tested on the JAFFE (Japanese Female Facial Expression) database and the IMM (Informatics and Mathematical Modeling) database. The average percentage of detection rated is between 80 and 85 percent.Keywords: Skin Color Detection, Face Detection, Facial Expressions Classification.
Collections