An Analysis of delays in phoneme recognition problem through the use of artificial neural networks
- Global styles
- Apa
- Bibtex
- Chicago Fullnote
- Help
Abstract
ÖZET Bu çalışmada, yapay sinir ağlarının farklı katmanlarına uygulanan gecikmenin fonem tanıma problemi üzerindeki etkileri incelenmiştir. Gecikmenin giriş hatanda olduğu Kısımsal Giriş Gecikmeli Sinir Ağlan (KGGSA), Parçasal Giriş Gecikmeli Sinir Ağlan (PGGSA), Pencereye Dayalı Sinir Ağlan (PDSA); gecikmenin çıkış hatunda yer aldığı Çıkış Gecikmeli Sinir Ağlan (ÇGSA); gecikmenin gizli katmanda bulunduğu Gizli Katmanda Gecikmeli Sinir Ağlan (GKGSA) ve gecikmenin hem çıkış hatanda hem de gizli katmanda gözlendiği Çıkış ve Gizli Katmanda Gecikmeli Sinir Ağlan (ÇGKGSA) ayrıntılı olarak araştırılmıştır. Bu yapılar arasından, KGGSA, PDSA ve PGGSA sıra ile standart hata geri yayma, ağırlıkların paylaşıldığı hata geri yayma ve Sığasal Gerçek-Zaman Özyinelemeli öğrenme yöntemleri kullanılarak eğitilmiştir. ÇGSA, GKGSA ve ÇGKGSA yapılan için Zaman İçinde Açılma, Gerçek-Zaman özyinelemeli öğrenme ve Sığasal Gerçek-Zaman Özyinelemeli öğrenme yöntemleri incelenmiştir. Deneyler, 5240 konuşmacı bağımlı Japonca kelime ve ibarelerden elde edilmiş oldukça zor ayırdedilebilen /b, d, g, m, n, N/ fonemlerini kullanarak gerçeklenmiştir. Her bir yapı için basan sonuçlan tartışılmış ve ayrıntılı bir karşılaştırma yapılmıştır. IV ABSTRACT In this study, the effects of delays on phoneme recognition problem when they are applied to various layers of artificial neural networks have been analyzed. We have examined in detail the Segment-wise Input Delayed Neural Networks (SIDNN), the Piece- wise Input Delayed Neural Networks (PIDNN), the Window Based Neural Networks (WBNN) where the delay is on the input line, the Output Delayed Neural Networks (ODNN) where the delay is on the output line, the Hidden Layer Delayed Neural Networks (HLDNN) where the delay is on the hidden layer and the Output and Hidden Layer Delayed Neural Networks (OHLDNN) where the delay is on both the output line and hidden layer. Among these structures, we have trained the SIDNN, WBNN and PIDNN using standard backpropagation, backpropagation with weight sharing and Capacitive Real-Time Recurrent Learning respectively. For the ODNN, HLDNN and OHLDNN structures, we have examined three different approaches which are Unfolding of Time, Real-Time Recurrent Learning and Capacitive Real-Time Recurrent Learning. The experiments are conducted using the hardly distinguishable lb, d, g, m, n, N/ phonemes that are extracted from S240 speaker dependent Japanese words and phrases. Performance results are discussed for each structure and a detailed comparison of them is provided.
Collections