A steady state analysis of competitive prediction using LMMN combination
- Global styles
- Apa
- Bibtex
- Chicago Fullnote
- Help
Abstract
Bu tezde, katkı Gauss gürültü modeli altında otoregressif sinyallerin adaptivdoğrusal kestirimi, yarışabilen bir algoritma çerçevesinde araştırılmaktadır. Bu çerçevede, modelleri, model seviyeleri ve model parametreleri farklı olan ve bir karşılaştırmasınıfı oluşturan filtreler, paralel çalışarak aynı sinyali kestirmeye çalışmaktadır. Burekabet sınıfının kurucu algoritmalarının çıkışları daha sonra karşılaştırma sınıfı per-formansını artırmak için başka bir adaptiv algoritma ile birleştirilmektedir. BirleştirmeyÖntemi olarak, optimum Wiener çözümüne ulaşmada herhangi bir kısıtlaması ol-madığından dolayı Asgari Ortalama - Karma Norm (LMMN) algoritması önerilmiştir.Bu yöntem özel olarak : aynı model seviyeli fakat farklı model parametreleri olaniki LMMN filtreden oluşan bir karşılaştırma sınıfı; aynı model seviyeli bir RLS birLMMN filtreden oluşan bir karşılaştırma sınıfı; ve son olarak da M farklı seviyel-erde LMMN filtrelerinden oluşan bir karşılaştırma sınıfı için uygulanmıştır. Sistemkararlı duruma ulaştığında, herbir birleştime işlemi için, adım boyu uygun seçildiğitakdirde LMMN birleştirmesinin karşılaştırma sınıfının en iyi kestiricisinden bile dahaküçük bir MSE ürettiği gösterilmiştir. Ayrıca, LMMN-LMMN ve RLS-LMMN ik-ililerinin oluşturduğu sınırlar (yani ilk iki birleştirme sınıfı) için simülasyonlarda LMMNbirleştirme filtresinin karşılaştırma sınıfının en hızlı yakınsayan filtresinden daha hızlıyakınsadığı gözlemlenmiştir. In this thesis, the adaptive linear prediction of autoregressive signals under ad-ditive Gaussian noise model is investigated in a competitive algorithm framework. Inthis framework, there is a comparison class of predictors of di®erent models, modelorders or model parameters that work in parallel to estimate the same desired signal.The outputs of the constituent algorithms in this competing class are then combinedusing another adaptive algorithm to improve the overal performance over the com-parison class. As the combination method, the Least Mean Mixed Norm (LMMN)algorithm is proposed without any constraints in converging to the optimal Wienersolution. This method is speci¯cly applied to: a comparison class of two LMMN pre-dictors of the same model order but di®erent model parameters; a comparison class ofan RLS and an LMMN predictor of the same model order; and ¯nally a comparisonclass of M di®erent order LMMN predictors with the same algoritmic parameters. Foreach of the combination schemes, the LMMN combination method is shown to yield asmaller MSE in the steady state than the best predictor in the comparison class whenthe step size is choosen appropriately. Furthermore, for the LMMN-LMMN and theRLS-LMMN combinations, i.e., the ¯rst two combination classes, it has been observedthrough simulations that the combination ¯lter converges more rapidly than the mostrapidly converging ¯lter in the comparison class when the parameters of the LMMNcombination ¯lter are choosen properly.
Collections