Show simple item record

dc.contributor.advisorÇelik, Mete
dc.contributor.authorKılıçarslan, Serhat
dc.date.accessioned2023-09-22T12:15:00Z
dc.date.available2023-09-22T12:15:00Z
dc.date.submitted2021-10-22
dc.date.issued2021
dc.identifier.urihttps://acikbilim.yok.gov.tr/handle/20.500.12812/738805
dc.description.abstractDerin öğrenme modellerinin çalışma hızının arttırılması, yerel minimuma takılmaması, doğruluk performasının arttırılması gibi özellikleri göz önüne alınarak aktivasyon fonksiyonları geliştirilmektedir. ReLU, sigmoid ve tanjant aktivasyon fonksiyonlarının kaybolan gradyan ve negatif bölge gibi problemlerinden dolayı derin öğrenme mimarilerini eğitmek zordur. Bu tez çalışmasında, kaybolan gradyan ve negatif bölge problemlerinin üstesinden gelmek için yeni sabit parametreli RSigELU aktivasyon fonksiyonları, çekirdek tabanlı hibrit KAF+RSigELU aktivasyon fonksiyonları ve eğitilebilir parametreli P+RSigELU aktivasyon fonksiyonları önerilmiştir. Ayrıca, derin öğrenme modellerinde hiper-parametre değerleri optimize edilmeden kullanıldığında model başarı performansı çok düşük olmaktadır. Hiper-parametre optimizsayonu, derin öğrenme mimarilerinin, hesaplama maliyetlerinin düşürülmesini ve doğruluk performaslarının arttırılmasını sağlanmaktadır. Tez çalışmasında, derin öğrenme mimarilerinin hiper-parametrelerinin optimizasyonu için sezgisel yöntemler kullanılmıştır. Çeşitli veriler üzerine gerçekleştirilen deneysel değerlendirmede, hiper-parametre optimizasyonu yapılmıştır ve literatürde bilinen ReLU ve swish aktivasyon fonksiyonlu derin öğrenme mimarilerinin sınıflandırma başarısı değerlendirilmiştir. Önerilen sabit parametreli RSigELU, çekirdek tabanlı KAF+RSigELU ve eğitilebilir P+RSigELU aktivasyon fonksiyonları ile literatürdeki çalışmalara göre daha yüksek başarı elde edilmiştir. Ayrıca hiper-parametre optimizasyonu için kullanılan yöntemler ile derin öğrenme modellerinin başarımları arttırılmıştır.
dc.description.abstractActivation functions are developed by taking into account the features of deep learning models, such as increasing the working speed of the model, not getting stuck in the local minimum, and increasing the accuracy performance. Deep learning architectures are difficult to train due to the problems of ReLU, sigmoid and tangent activation functions such as vanishing gradient and negative region. In this thesis study, new fixed parameter activation functions (RSigELU), kernel-based hybrid activation functions (KAF+RSigELU), and trainable P+RSigELU activation functions are proposed to overcome these problems. In addition, when the hyper-parameter values are not optimized in deep learning models, the model success performance is very low.. Hyper-parameter optimization enables deep learning architectures to reduce computational costs and increase accuracy performance. In the thesis study, heuristic methods have been used for optimization of hyper-parameters of deep learning. In the experimental evaluations on various datasets, hyper-parameter optimization was performed and classification success of ReLU and swish activation functions was evaluated. The proposed fixed parameter RSigELU, kernel-based KAF+RSigELU, and trainable P+RSigELU activation functions outperformed other activation functions. In addition, the methods, used for hyper-parameter optimization, increased the performance of the deep learning modelsen_US
dc.languageTurkish
dc.language.isotr
dc.rightsinfo:eu-repo/semantics/openAccess
dc.rightsAttribution 4.0 United Statestr_TR
dc.rights.urihttps://creativecommons.org/licenses/by/4.0/
dc.subjectBilgisayar Mühendisliği Bilimleri-Bilgisayar ve Kontroltr_TR
dc.subjectComputer Engineering and Computer Science and Controlen_US
dc.titleDerin öğrenme yöntemleri için doğrusal olmayan aktivasyon fonksiyonlarının geliştirilmesi
dc.title.alternativeDevelopment of nonlinear activation functions for deep learning methods
dc.typedoctoralThesis
dc.date.updated2021-10-22
dc.contributor.departmentBilgisayar Mühendisliği Ana Bilim Dalı
dc.identifier.yokid10231184
dc.publisher.instituteFen Bilimleri Enstitüsü
dc.publisher.universityERCİYES ÜNİVERSİTESİ
dc.identifier.thesisid687589
dc.description.pages155
dc.publisher.disciplineDiğer


Files in this item

FilesSizeFormatView

There are no files associated with this item.

This item appears in the following Collection(s)

Show simple item record

info:eu-repo/semantics/openAccess
Except where otherwise noted, this item's license is described as info:eu-repo/semantics/openAccess