Perceptual audio source culling for virtual environments
- Global styles
- Apa
- Bibtex
- Chicago Fullnote
- Help
Abstract
Günümüzde kullanılan oyun motorları ve sanal ortam yazılımlarında uzamsal ses sentezi için çeşitli teknikler kullanılmaktadır. Bu tekniklerden biri, `baş ilişkili transfer fonksiyonu` ve yapay yankılandırıcıların bir arada kullanımı ile sağlanır. Herhangi bir sanal ortalm için, çok sayıda uzamsal ses kaynağını bu yöntemlerle sentezlemek, altta bulunan donanım için bir performans gerektiren bir işlemdir. Çalışmamızın amacı, programın genel performansı geliştiren bir metodoloji geliştirerek, duyulamayan ve algısal olarak değeri az olan ses kaynaklarını keserek, performans artışı sağlamaktır. Uzaklığa bağlı ses azaltması ve işitsel maskeleme kullanılarak, algılanan ses kalitesinde minimum düşüş yaşanması hedeflenmiştir. Bu tezde önerilen işlemsel süreç, var olan diğer yaklaşımlara göre karşılaştırmalı olarak değerlendirilmiştir. İşlemsel sürecin öznel olarak değerlilmesi de MUSHRA testleri ile sağlanmıştır. Game engines and virtual environment software that are in use today, use various techniques to synthesize spatial audio. One such technique, is through the use of head related transfer functions, in conjunction with artificial reverberators. For any virtual environment, synthesizing large amounts of spatial audio through these methodologies, will impose a performance penalty for the underlying hardware. The aim of this study is to develop a methodology that improves overall performance by culling inaudible and perceptually less prominent sound sources to be rendered in order to avoid performance implications. Through the use of distance attenuation and auditory masking, minimal decrease in perceived sound quality was intended to be achieved. The algorithm proposed in this paper is benchmarked and compared with the existing approaches to this problem. Subjective evaluation of the audio quality is also provided with the MUSHRA tests.
Collections