Gradyan tabanlı eğitime dayalı bulanık sistemler
- Global styles
- Apa
- Bibtex
- Chicago Fullnote
- Help
Abstract
ÖZET Anahtar Kelimeler: Bulanık sistem, Genişletilmiş Wang Bulanık Sistemi (GWBS), yaklaşık ikinci derece optimizasyon yöntemleri, doğrusal arama, on-line eğitme, Dinamik Bulamk Sistem(DBS), kural azaltılması. Bu tez çalışmasında, bulamk sistemlerin (BS) eğitimi üzerine çalışılmıştır. Klasik optimizasyonda kullanılan en aza indirme algoritmaları, bulamk sistemlerin eğitiminde başarıyla kullanılmıştır. Kullanılan yöntemler; En Hızlı Azalan Gradyan (Steepest Descent - SD), Konjuge Gradyan (CG), Broyden Fletcher Goldfarb Shanno (BFGS), Davidon Fletcher Powell (DFP) ve Levenberg Marquardt (LM)'dir. Özellikle doğrusal arama kullanan yaklaşık ikinci dereceden en aza indirme yöntemleriyle, eğitme işleminin hızlandırılması hedeflenmiştir. Bunun için altın bölüm araması yöntemi ile aralık belirleme ve aralık daraltma programı geliştirilmiştir. LM hariç tüm yöntemler doğrusal arama kullanmaktadırlar. Yapılan simülasyon uygulamalarında doğrusal arama kullanan yöntemlerin, eğitmede çokça kullanılan geriye yayılım (BP) veya basit gradyan (BG) yöntemlerine göre daha etkin ve hızlı olduğu gösterilmiştir. En aza indirme yöntemlerinden LM doğrusal arama kullanmadığı için farklı değerlendirilebilir. Bulamk sistem için oluşturulan yapı, eğitme işlemini doğrudan etkiler. Yapılan çalışmada genişletilmiş Wang bulanık sistem yapısı kullanılmıştır. Wang bulanık sisteminde (WBS) her bir kuralda bir giriş bir çıkışlı durumda, 3 parametre varken, genişletilmiş yapıda 4 parametre vardır. Wang bulanık sisteminde çıkış üyelik fonksiyonunun merkezi dikkate alınır, şekli dikkate alınmaz. Buna karşılık genişletilmiş yöntemde; çıkış üyelik fonksiyonunun hem merkezi, hem de şekli dikkate alınır. Bu durumda sistemin öğrenme kabiliyeti artmaktadır. On-line eğitmede genişletilmiş Wang bulanık modelinin kullanılması ile eğitme işlemi daha az hata ile yapılmıştır. On-line eğitmede, parametrelere ilk değer atamada; on-line parametre ataması yöntemi kullanılmıştır. Genişletilmiş model için on-line parametre atama yöntemi genelleştirilmiştir. Bu çalışmanın getirdiği önemli sonuçlardan biri de, eğitme işlemi ile kural sayısının azaltılabileceğinin gösterilmiş olmasıdır. Bu çalışmanın getirdiği yeniliklerden bir diğeri; Zadeh'in genişletme prensibinden ve de dinamik yapay sinir ağlarından yola çıkılarak, sürekli hal dinamik bulanık sistem (DBS) eğitme yapısı ve dinamik fuzzy modül (DFM) oluşturulmasıdır. Oluşturulan DBS yapısı dinamik sistem modellemede kullanılmıştır. Eğitilen DBS'nin sistemi iyi bir şekilde tanıdığı farklı bir test girişiyle örnek üzerinde gösterilmiştir. GRADIENT BASED FUZZY LOGIC SYSTEMS DEPENDING ON TRANING SUMMARY Key words: Fuzzy Logic Systems, Extended Wang Fuzzy Systems, quasi second order optimization methods, line search, on-line training, Dynamic Fuzzy Logic System, rule reduction. In this thesis, the training of fuzzy logic systems is studied. Minimization algorithms used in conventional optimization are used successfully for training fuzzy systems. These methods includes; the Steepest Descent (SD), the Conjugate Gradient (CG), Broyden Fletcher Goldfarb Shanno (BFGS), Davidon Fletcher Powell (DFP), and Levenberg Marquardt (LM). The aim of the quasi second order minimization methods using line search is to speed up learning process. A software is developed for a method called `the golden section search` which is used for line search and bracketing. The SD, the CG, the BFGS and the DFP methods use line search but the LM and Simple Gradient methods do not. From the simulations carried out, it observed that, the methods using line search are more effective and rapid than back propagation (BP), which is also known as simple gradient (SG) and widely used at training. The training process is associated with the structure of Fuzzy System. In this study Extended Wang Fuzzy Logic System structure is used. Single input, single output Wang Fuzzy System has tree parameters, but the extended structure has four parameters. In the Wang Fuzzy Logic System the center of output membership function is taken into account, but, in the extended structure both the center of output membership function and it's shape are taken into account. The system learning ability is improved using this structure. On line training with extended Wang fuzzy model is shown to improve the learning process. The initialization of parameters is made by on-line parameter setting method. On-line parameter method generalized for extended model. One of the important conclusions of this study is the fact that training results in rule reduction. A continuos time dynamic fuzzy logic system(DFS) training structure and dynamic fuzzy module (DFM) are constructed by means of Zadeh's extension principle and dynamic neural networks. The DFS training structure is used for identify a dynamic system. It is shown that the trained the DFS can identify the process well. It is examined at the simulation example by a different test input.
Collections