Show simple item record

dc.contributor.advisorZeyrek Bozşahin, Deniz
dc.contributor.authorCanpolat, Salih Firat
dc.date.accessioned2020-12-10T09:11:21Z
dc.date.available2020-12-10T09:11:21Z
dc.date.submitted2019
dc.date.issued2019-10-18
dc.identifier.urihttps://acikbilim.yok.gov.tr/handle/20.500.12812/224843
dc.description.abstractDuygu, insan ve insan-makine etkileşiminin temel bileşenlerinden biridir. İnsan ve insan-makine etkileşiminde sık kullanılan iletişim kanallarından biri de sestir. Ses sinyalinde duygu tanımayı sağlayan temel yapıları anlamak iki tip etkileşimi de geliştirmek için önemli bir basamaktır. Bu amaçla, bu çalışma kapsamında, yeni bir duygu tanıma modeli ve Türkçeye özgü olan, Türk Ses-Duygu (TurEV) veritabanı geliştirildi. Veritabanı, dört duygu tipinin (kızgın, sakin, mutlu ve üzgün) üç farklı frekans bandında bir kelimelik seslendirmelerinden oluşmaktadır. Model, TurEV kullanılarak eğitildi ve insan doğrulama çalışmaları yapıldı. Sonuçlar, modelin duygu tanımada kullanılabilir bir yapıya sahip olduğuna işaret etmektedir. Karşılaştırmalı analizler, bilgisayarlı modellerin özellik bakımından zengin frekans bantlarını kullanarak daha iyi sonuç almasına karşın, insan zihninin ses sinyalinin diğer tüm özelliklerini kullandığını göstermektedir.
dc.description.abstractEmotion is one of the essential components in human and human-machine interaction. One of the most common communication channels is the sound. Understanding the underlying mechanisms of emotion recognition in the sound signal is an essential step in improving both types of interaction. For this purpose, we developed an emotion recognition model, and a Turkish-specific database, referred to as the Turkish Emotion-Voice (TurEV) database. The database contains one-word-vocalizations of four emotion types; angry, calm, happy, and sad in three different frequency bands. The model was trained using TurEV, and human validation studies were conducted. The results indicate that the model is feasible for emotion recognition tasks. The comparison of the humans with the computational model indicate that the model achieves better results using feature-rich frequency bands, the humans use all other aspects of the sound signal.en_US
dc.languageEnglish
dc.language.isoen
dc.rightsinfo:eu-repo/semantics/openAccess
dc.rightsAttribution 4.0 United Statestr_TR
dc.rights.urihttps://creativecommons.org/licenses/by/4.0/
dc.subjectBilim ve Teknolojitr_TR
dc.subjectScience and Technologyen_US
dc.subjectDilbilimtr_TR
dc.subjectLinguisticsen_US
dc.subjectPsikolojitr_TR
dc.subjectPsychologyen_US
dc.titleA novel approach to emotion recognition in voice: A convolutional neural network approach and grad-cam generation
dc.title.alternativeSeste duygu tanımlaması üstüne yeni bir yaklaşım: Konvolusyonel sinir ağları ve grad-cam oluşturulması
dc.typemasterThesis
dc.date.updated2019-10-18
dc.contributor.departmentBilişsel Bilim Anabilim Dalı
dc.identifier.yokid10284503
dc.publisher.instituteEnformatik Enstitüsü
dc.publisher.universityORTA DOĞU TEKNİK ÜNİVERSİTESİ
dc.identifier.thesisid570089
dc.description.pages93
dc.publisher.disciplineDiğer


Files in this item

Thumbnail

This item appears in the following Collection(s)

Show simple item record

info:eu-repo/semantics/openAccess
Except where otherwise noted, this item's license is described as info:eu-repo/semantics/openAccess