Show simple item record

dc.contributor.advisorYıldırım, Serdar
dc.contributor.authorOflazoğlu, Çağlar
dc.date.accessioned2021-05-08T10:04:11Z
dc.date.available2021-05-08T10:04:11Z
dc.date.submitted2011
dc.date.issued2018-08-06
dc.identifier.urihttps://acikbilim.yok.gov.tr/handle/20.500.12812/667727
dc.description.abstractİnsan-bilgisayar etkileşim teknolojisinde, kullanıcı ve bilgisayar arasındaki etkileşimi daha doğal hale getirecek arayüzlerin tasarımı önemli bir konu haline gelmiştir. Etkileşim sırasında bu tür arayüzlerin uygulanmasına yönelik anahtar adımlardan biri de kullanıcının duygusal durumlarının belirlenmesidir. Bu çalışmada, Türkçe konuşma sinyalinden duygu tanıma konusu araştırılmıştır. Bu amaçla, 5304 adet konuşma sinyalini içeren Türkçe duygusal konuşma veritabanı oluşturulmuştur. Oluşturulan veritabanı konuşma sinyallerinin hem kategorik hem de 3-boyutlu duygu uzayı değerlendirmesini içermektedir. Türkçe konuşmanın akustik parametrelerinin duygulardan nasıl etkilendiği hakkında bilgi elde edebilmek için; temel frekans, formant frekansları ve ünlü harf süreleri gibi konuşma prosodisiyle ilgili bir grup akustik parametre, duygunun fonksiyonu olarak detaylı bir şekilde analiz edilmiştir. Bu çalışmada özellikle konuşma sinyalinden negatif-negatif değil ve kızgın-kızgın değil ikili sınıflandırma problemleri ile temel duygu boyutlarının (değerlik, aktivasyon ve baskınlık) kestirimi üzerine odaklanılmıştır. Konuşma sinyalinden otomatik duygu tanıma için birçok makine öğrenme ve öznitelik seçim algoritmaları incelenmiştir.
dc.description.abstractAn emerging trend in human?computer interaction technology is to design spoken interfaces that facilitate more natural interaction between a user and a computer. Being able to detect the user?s affective state during interaction is one of the key steps toward implementing such interfaces. In this study, emotion recognition from Turkish speech signal is explored. For this purpose, first a Turkish emotional speech database which includes 5304 speech signals is constructed. The database includes both categorical and 3-dimensional emotional space ratings of speech signals. In order to obtain knowledge on how acoustic parameters of Turkish speech are affected from emotions, a set of acoustic parameters related to speech prosody such as fundamental frequency, formant frequencies and vowel durations were analyzed in detail as a function of emotion. This study particularly focuses on two binary classification problems, recognizing negative vs. non-negative emotions and recognizing angry vs. non-angry emotions, and the problem of estimating emotion primitives (valence, activation, and dominance) from speech signals. Several machine learning and feature selection algorithms were explored for automatic emotion recognition from speech.en_US
dc.languageTurkish
dc.language.isotr
dc.rightsinfo:eu-repo/semantics/openAccess
dc.rightsAttribution 4.0 United Statestr_TR
dc.rights.urihttps://creativecommons.org/licenses/by/4.0/
dc.subjectDilbilimtr_TR
dc.subjectLinguisticsen_US
dc.subjectElektrik ve Elektronik Mühendisliğitr_TR
dc.subjectElectrical and Electronics Engineeringen_US
dc.subjectPsikolojitr_TR
dc.subjectPsychologyen_US
dc.titleTürkçe konuşma sinyalinden duygu tanıma
dc.title.alternativeEmotion recognition from Turkish speech signal
dc.typemasterThesis
dc.date.updated2018-08-06
dc.contributor.departmentElektrik-Elektronik Mühendisliği Ana Bilim Dalı
dc.subject.ytmSpeech processing
dc.subject.ytmSignal processing
dc.subject.ytmEmotion
dc.subject.ytmAcoustic properties
dc.subject.ytmSpeech acoustics
dc.subject.ytmSpeech analysis
dc.identifier.yokid421009
dc.publisher.instituteFen Bilimleri Enstitüsü
dc.publisher.universityMUSTAFA KEMAL ÜNİVERSİTESİ
dc.identifier.thesisid301063
dc.description.pages67
dc.publisher.disciplineDiğer


Files in this item

Thumbnail

This item appears in the following Collection(s)

Show simple item record

info:eu-repo/semantics/openAccess
Except where otherwise noted, this item's license is described as info:eu-repo/semantics/openAccess