Show simple item record

dc.contributor.advisorErdoğan, Hakan
dc.contributor.authorŞen, Mehmet Umut
dc.date.accessioned2020-12-10T07:35:49Z
dc.date.available2020-12-10T07:35:49Z
dc.date.submitted2011
dc.date.issued2018-08-06
dc.identifier.urihttps://acikbilim.yok.gov.tr/handle/20.500.12812/217101
dc.description.abstractÇoklu sınıflandırıcı sistemlerinin, çok sınıflı sınıflandırma problemlerinde karmaşık fakat doğruluk oranı yüksek bir sınıflandırma yöntemi olduğu, örüntü tanıma literatüründe sıkça işlenmiştr. Sınıflandırıcı birleştirme, verilen bir sınıflandırıcı kümesini nasıl birleştirilmesi gerektiği problemini çözmeye çalışır ve yığıtlı genelleme, başka bir deyişle yığıtlama, çok güçlü sınıflandırıcı birleştiricilerden biridir. Bu tezde yığıtlamanın performansını hem doğruluk oranı açısından, hem de karmaşıklık açısından artırıyoruz. Katkılarımız dört ana başlıkta toplanabilir. Öncelikle, birleştiriciyi öğrenirken sınırı en-büyükleyen menteşe kayıp fonkiyonu kullanmanın, literatürde daha önce kullanılan en küçük kareler kayıp kestiriminden daha iyi sonuçlar verdiğini gösterdik. İkinci olarak, düzenlileştirme için grup seyrekliği kullanarak otomatik sınıflandırıcı seçmeyi kolaylaştııyoruz. Üçüncü olarak, sınıf-bilinçli doğrusal birleştiricilerin doğrusal olmayan sürümlerini elde etmek için, veritabanı dönüştüren bir yöntem geliştiriyoruz. Son olarak, doğrusal bir sınıflandırıcı birleştirme yöntemi için MM algoritmalarını kullanarak bir çözüm buluyoruz.
dc.description.abstractMultiple classifier systems are shown to be effective in terms of accuracy for multiclass classification problems with the expense of increased complexity. Classifier combination studies deal with the methods of combining the outputs of base classifiers of an ensemble. Stacked generalization, or stacking, is shown to be a strong combination scheme among combination algorithms; and in this thesis, we improve stacking's performance further in terms of both accuracy and complexity. We investigate four main issues for this purpose. First, we show that margin maximizing combiners outperform the conventional least-squares estimation of the weights. Second we incorporate the idea of group sparsity into regularization to facilitate classifier selection. Third, we develop non-linear versions of class-conscious linear combination types by transforming datasets into binary classification datasets; then applying the kernel trick. And finally, we derive a new optimization algorithm based on the majorization-minimization framework for a particular linear combination type, which we show is the most preferable one.en_US
dc.languageEnglish
dc.language.isoen
dc.rightsinfo:eu-repo/semantics/openAccess
dc.rightsAttribution 4.0 United Statestr_TR
dc.rights.urihttps://creativecommons.org/licenses/by/4.0/
dc.subjectBilgisayar Mühendisliği Bilimleri-Bilgisayar ve Kontroltr_TR
dc.subjectComputer Engineering and Computer Science and Controlen_US
dc.subjectElektrik ve Elektronik Mühendisliğitr_TR
dc.subjectElectrical and Electronics Engineeringen_US
dc.titleMax-Margin stacking with group sparse regularization for classifier combination
dc.title.alternativeSınıflandırıcı birleştirme için grup seyrekliği ile beraber sınır enbüyükleyen yığıtlama
dc.typemasterThesis
dc.date.updated2018-08-06
dc.contributor.departmentElektronik Mühendisliği Anabilim Dalı
dc.subject.ytmClassification
dc.subject.ytmClassfier systems
dc.subject.ytmClassification
dc.identifier.yokid413833
dc.publisher.instituteMühendislik ve Fen Bilimleri Enstitüsü
dc.publisher.universitySABANCI ÜNİVERSİTESİ
dc.identifier.thesisid309342
dc.description.pages91
dc.publisher.disciplineDiğer


Files in this item

Thumbnail

This item appears in the following Collection(s)

Show simple item record

info:eu-repo/semantics/openAccess
Except where otherwise noted, this item's license is described as info:eu-repo/semantics/openAccess