Çok kanallı sismik verilerde tekrarlı yansımaların bastırılmasında kullanılan yöntemlerin karşılaştırılması
- Global styles
- Apa
- Bibtex
- Chicago Fullnote
- Help
Abstract
Sismik sinyalin aynı yolu birden fazla kat ederek alıcıya ulaşmasıyla oluşan ardışık yansımalar özellikle sığ sulardaki deniz sismiği çalışmalarında büyük sorunlar oluşturabilmektedir. Deniz tabanı oldukça güçlü bir yansıtıcı olduğu için gelen sinyalin önemli bir kısmını yansıtır. Yansıyan bu sinyal, deniz–hava yüzeyinden geri yansıyarak tekrar deniz tabanına iner. Su derinliğine, kaynak gücüne ve kayıt süresine bağlı olarak birkaç kez tekrar edebilir. Bu işlem sismik kesitler üzerinde ise birincil yansımaları kapatarak sismik verilerin işlenmesini ve daha sonra yorumlamalarında hatalara sebebiyet verebilmektedir. Tekrarlı yansımaların birincil yansımalarla girişim göstermesi durumunda birincil yansımalar hatalı yorumlanabilir. Yapıcı girişim birincil yansıma genliklerinin olduğundan yüksek, bozucu girişim ise olduğundan düşük görülmesine neden olur. Tekrarlı yansımalardan veri toplama sırasında kurtulmak mümkün değildir. Bu nedenle tekrarlıların yok edilmesi için sismik veri işlemde çeşitli yöntemler geliştirilmiştir. Ardışık yansımaların veri işlemin erken aşamalarında giderilmesi oldukça önemlidir. Bu çalışmada çok kanallı sismik yansıma verisine rutin veri işlem adımları uygulanmasının yanı sıra tekrarlı yansımaların veriden atılabilmesi için kestirim dekonvolüsyonu ve f-k eğim süzgeci veriye uygulanmıştır. Çok kanallı sismik veri İstanbul Üniverisitesi-Cerrahpaşa Jeofizik Mühendisliği Sismik Veri İşlem Labaratuvarında Linux İşletim sistemi altında çalışan Paradigm® Echos® sismik veri işlem yazılımları kullanılarak işlenmiştir. Sismik veri işlenirken rutin olarak; veri yükleme, geometri tanımlama, istenmeyen izlerin atılması, istenmeyen alanların atılması, kazanç analizi, bant geçişli filtreleme, CDP (ortak derinlik noktası) düzenine geçiş, hız analizi, Normal Kayma Zamanı (NKZ) düzeltmesi, yığma ve migrasyondur. Bu tez çalışmasında sismik verilerin işlenmesinde ve yorumlanmasında büyük sorunlar oluşturan tekrarlı yansımaların bastırılmasında kullanılan yöntemler ele alınmıştır. Öncelikli olarak önkestirim ters süzgeci ParadigmEchos yazılımında DECONA modülü kullanılarak gerçekleştirilmiştir. Burada kullanılan parametreler kendi arasında karşılaştırılmış en iyi sonucu veren parametre ile veri işleme devam edilmiştir. Ardışık yansımaların giderilmesi için bu tez çalışmasında ayrıca f-k eğim süzgeci yine Paradigm-Echos yazılımında bulunan FKFİLT ve ZMULT modülleri kullanılarak iki ayrı yöntem olarak veriye uygulanmıştır. Sismik atış gruplarından elde edilen sismik kesitlerin yorumlanmasını oldukça zorlaştıran ardışık yansımaların bastırılmasında en çok kullanılan sözü geçen yöntemlerin birbirine göre avantajları ve dezavantajları bu tez çalışmasında ayrıntılarıyla çalışılmış ve ortaya konulmuştur. The multiple reflections are created by the seismic signal traveling to same way more than one can create difficulties in marine geophysics studies in shallow water. Since the sea floor is so powerful reflector, it reflects great part of the coming signal. This reflected signal reflecting back from the surface of sea-air reaches again to the seafloor. This condition depending on water depth, power of source and record length can repeat itself several times. Multiple reflections may cause difficulties in data processing and misinterpretation of data. Interference of multiples with the primary reflections can cause inaccuracy in data processing and interpreting. Constructive interference can cause that amplitude of the primary reflections to be seen higher than it is, but distractive interference can cause that amplitude of primary reflections to be seen lower than it is. Knowing the differences between multiples and primary reflections is very important to remove multiples. Removing multiples during data acquisition is not possible. For this reason, many methods have been developed in data processing to remove multiples from data. In this study, besides routine data processing, predictive deconvolution and f-k filter were applied to data. This multichannel seismic data was processed using Paradigm® Echos® software in `Seismic Data Processing Laboratory` at the Department of Geophysical Engineering Istanbul University-Cerrahpasa. Routine data processing steps are; data loading, geometry definition, editing, muting, gain recovery, band pass filtering, CDP sorting, velocity analysis, NMO correction, stack and migration. In this study, the methods used in removing multiples from seismic data are discussed. First of all, predictive deconvolution was applied to data using DECONA module in Echos software. The parameters using in predictive deconvolution were compared with each other and then the parameter that gives the best result was selected. Also, the f-k filter was applied to multichannel seismic data as two separate techniques by using FKFILT and ZMULT module in Echos software. The aim of this study is to compare these methods used for removing multiples with each other and determine the method that gives the best result according to stack sections.
Collections