Identity verification using voice and its use in a privacy preserving system
dc.contributor.advisor | Yanıkoğlu, Berrin | |
dc.contributor.advisor | Erdoğan, Hakan | |
dc.contributor.author | Çamlikaya, Eren | |
dc.date.accessioned | 2020-12-10T07:37:39Z | |
dc.date.available | 2020-12-10T07:37:39Z | |
dc.date.submitted | 2008 | |
dc.date.issued | 2018-08-06 | |
dc.identifier.uri | https://acikbilim.yok.gov.tr/handle/20.500.12812/217558 | |
dc.description.abstract | Güvenlik konusu günümüzde giderek artan bir endişe olduğundan biyometrik araştırmalar daha da önem kazanmıştır. Biyometrik konusundaki güncel çalışmalar yeni kimlik doğrulama tekniklerinin yanı sıra, biyometrik verilerin hırsızlığına ve bu verilerden veya verilerin tutulduğu veritabanlarından kişisel bilgilerin ortaya çıkarılmasına karşı önlemler üzerine yoğunlaşmıştır.Kimlik tanımlama için kullanılan biyometrik özellikler iki gruba ayrılabilir: fiziksel ve davranışsal özellikler. Parmakizi ve iris örüntüleri gibi fiziksel özellikler zaman içerisinde çok fazla değişmeyen özelliklerdir. Öte yandan ses, imza, yürüyüş gibi davranışsal özellikler daha değişken bir yapıda olup aşırı güvenlik gerektirmeyen sistemler için daha uygundurlar. Ses ve imza gibi davranışsal özellikler diğer biyometrik özelliklere nazaran söylenilen kelimenin ya da atılan imzanın değişmesi ile aynı özelliği kullanarak farklı şablonlar oluşturabilme avantajına sahiptirler. Farklı uygulamalarda farklı şablonlar kullanılması, veritabanların karşılaştırılarak kullanıcı hakkında bilgi çıkarılmasını önleyebilecek önemli bir etkendir.Bu tez kapsamında, ses kullanarak üç farklı biyometrik sistem sunulmuştur. İlk olarak fonem bazlı Saklı Markov Modeller (SSM) ardımıyla hizalanmış işitsel parolalardan akustik öznitelikler çıkarılarak metin bağımlı bir sistem önerilmiştir. TIDIGITS veritabanına ait 163 kişinin 6 haneli işitsel parolaları kullanılmış ve en iyi Eşit Hata Oranı (EHO) %0.49 olarak hesaplanmıştır.İkinci olarak, bir önceki bölümde anlatılan öznitelik çıkarma yönteminden esinlenerek tasarlanmış bir metin bağımsız konuşmacı anıma sistemi gerçeklenmiştir. Önerilen bu metin bağımsız sistem konuşmacı fonem çizelgelerinden faydalanmaktadır. Eğitim için kullanılan işitsel parolaların fonem bazlı SMM yardımıyla hizalanıp konuşmacılar arasındaki farkı en fazla gözetebilecek özniteliklerin çıkarılması ile her konuşmacı için fonem çizelgeleri hazırlanmıştır. Sınama aşamasında ise sınanacak işitsel parola ile iddia edilen kişinin fonem çizelgesi arasındaki toplam uzaklığa bakılmaktadır. Karşılaştırma için Karma-Gaus-Modelleri (KGM) kullanan bir metin bağımsız konuşmacı tanıma sistemi gerçeklenmiştir. Önerilen metin bağımlı sistemin sonuçları (7 haneli işitsel parolalar için %0.22 EHO) KGM tabanlı sisteme (7 haneli işitsel parolalar için %0.31 EHO) göre daha iyidir. Öte yandan TIDIGITS veritabanına ait 163 konuşmacının bilgileriyle oluşturulup önerilen metin bağımsız sistem (7 haneli işitsel parolalar için %5.79 EHO) karşılaştırılan diğer iki sisteme göre kötü performans sergilemiştir.Son olarak Yanıkoğlu ve Kholmatov tarafından önerilen çoklu biyometrik şablon çerçevesine ses ve parmakizi kullanarak yeni bir örnek sunulmuştur. Bu çerçevede iki biyometrik veri şablon seviyesinde birleştirilerek şablon güvenliği ve mahremiyetinin artırılması amaçlanır. Bu çalışmada davranışsal bir biyometrik olan ses verilerinin kullanılması ile, var olan çerçeveye şablonun iptal edilebilmesi özelliği eklenmiştir. | |
dc.description.abstract | Since security has been a growing concern in recent years, the field of biometrics has gained popularity and became an active research area. Beside new identity authentication and recognition methods, protection against theft of biometric data and potential privacy loss are current directions in biometric systems research.Biometric traits which are used for verification can be grouped into two: physical and behavioral traits. Physical traits such as fingerprints and iris patterns are characteristics that do not undergo major changes over time. On the other hand, behavioral traits such as voice, signature, and gait are more variable; they are therefore more suitable to lower security applications. Behavioral traits such as voice and signature also have the advantage of being able to generate numerous different biometric templates of the same modality (e.g. different pass-phrases or signatures), in order to provide cancelability of the biometric template and to prevent cross-matching of different databases.In this thesis, we present three new biometric verification systems based mainly on voice modality. First, we propose a text-dependent (TD) system where acoustic features are extracted from individual frames of the utterances, after they are aligned via phonetic HMMs. Data from 163 speakers from the TIDIGITS database are employed for this work and the best equal error rate (EER) is reported as 0.49% for 6-digit user passwords.Second, a text-independent (TI) speaker verification method is implemented inspired by the feature extraction method utilized for our text-dependent system. Our proposed TI system depends on creating speaker specific phoneme codebooks. Once phoneme codebooks are created on the enrollment stage using HMM alignment and segmentation to extract discriminative user information, test utterances are verified by calculating the total dissimilarity/distance to the claimed codebook. For benchmarking, a GMM-based TI system is implemented as a baseline. The results of the proposed TD system (0.22% EER for 7-digit passwords) is superior compared to the GMM-based system (0.31% EER for 7-digit sequences) whereas the proposed TI system yields worse results (5.79% EER for 7-digit sequences) using the data of 163 people from the TIDIGITS database .Finally, we introduce a new implementation of the multi-biometric template framework of Yanikoglu and Kholmatov, using fingerprint and voice modalities. In this framework, two biometric data are fused at the template level to create a multi-biometric template, in order to increase template security and privacy. The current work aims to also provide cancelability by exploiting the behavioral aspect of the voice modality. | en_US |
dc.language | English | |
dc.language.iso | en | |
dc.rights | info:eu-repo/semantics/openAccess | |
dc.rights | Attribution 4.0 United States | tr_TR |
dc.rights.uri | https://creativecommons.org/licenses/by/4.0/ | |
dc.subject | Bilgisayar Mühendisliği Bilimleri-Bilgisayar ve Kontrol | tr_TR |
dc.subject | Computer Engineering and Computer Science and Control | en_US |
dc.title | Identity verification using voice and its use in a privacy preserving system | |
dc.title.alternative | Kimlik tanımada mahremiyet korumalı bir senaryo için sesin kullanımı | |
dc.type | masterThesis | |
dc.date.updated | 2018-08-06 | |
dc.contributor.department | Bilgisayar Bilimleri Anabilim Dalı | |
dc.identifier.yokid | 318674 | |
dc.publisher.institute | Mühendislik ve Fen Bilimleri Enstitüsü | |
dc.publisher.university | SABANCI ÜNİVERSİTESİ | |
dc.identifier.thesisid | 215842 | |
dc.description.pages | 62 | |
dc.publisher.discipline | Biyometri Bilim Dalı |