Gudermannian kayıp fonksiyonu ve GudermannianBoost ikili sınıflandırma yöntemi
- Global styles
- Apa
- Bibtex
- Chicago Fullnote
- Help
Abstract
Bu çalışmada bir sağlam kayıp fonksiyonu ve ilgili kayıp fonksiyonu üzerinden ikili boosting sınıflandırma yöntemi önerilmiştir. Sınıflandırma yöntemlerinin amacı genelleştirme becerisine sahip iyi sınıflandırıcı elde etmektir. Boosting yöntemler kayıp fonksiyon ve basit sınıflandırıcılardan oluşur. İteratif algoritmalar olarak girdilere göre sınıf etiketlerini tahmin eder. Kayıp fonksiyonlar boosting algoritmalarda koşullu riski minimize eder. Birçok kayıp fonksiyon sadece yanlış sınıflandırmaya ceza verirken sağlam (robust) kayıp fonksiyonlar sadece yanlış sınıflandırmaya değil aynı zamanda doğru sınıflandırmaya da ceza vererek daha kararlı sınıflandırıcı elde eder. Sağlam kayıp fonksiyonlar, öğrenme verisindeki aykırı değerlere ve bozulmaların olduğu yapıya karşı dayanıklıdır. Bu yüzden, test kümesinde yüksek performansla çalışan yöntemlerdir. Çalışma, kayıp fonksiyonlar, sağlam kayıp fonksiyonlar ve özellikleri hakkında özet bilgiler içermektedir. Sağlam kayıp fonksiyon özelliklerine sahip olan TanjantBoost algoritması verilmiş, istatistiksel tutarlılık için algoritmada bir düzeltme yapılmıştır. Son olarak, TanjantBoost yönteminin sınıflandırıcıya yakın gözlemler üzerindeki etkisini başarılı hale getirmek için daha büyük ceza veren kayıp fonksiyon incelemesi yapılmış ve Gudermannian kayıp fonksiyonu ile boosting algoritması olan GudermannianBoost ikili sınıflandırma yöntemi önerilmiştir. GudermannianBoost yönteminin etkin olduğu durumlar farklı benzetim senaryoları ve bazı gerçek veri kümeleri üzerinden tartışılmıştır. In this study, a robust loss function and binary boosting classification method are proposed. The purpose of classification methods is to obtain classifier function with generalization ability, i.e., high prediction performance. Boosting methods as iteratively algorithms, which include a loss function and weak classifier, are a way of predicting class labels of given inputs. Loss function is the way of penalizing conditional risk in boosting algorithm. While most of loss functions only penalize the misclassification, some robust loss functions give penalties not only large negative (misclassification) margin but also large positive (accurate classification) margin in order to get more stable classifiers. Robust loss functions stand up to outliers and contaminated part in training data. Therefore, classifiers are the methods which display high prediction performance in testing part. This study reports brief information about loss functions, robust loss functions and their properties. In addition, there is a correction to ensure statistical consistency on the algorithm of TangentBoost, one of the methods having all properties of robust loss functions. Finally, in order to get more stable classifiers, Gudermannian loss function, which gives more penalties for both small positive and small negative margin than Tangent loss function does, and GudermannianBoost as a corresponding binary classification boosting method are proposed. The advantages of GudermannianBoost method are discussed based on the applications of some spesific simulation scenarios and some real datasets.
Collections