A framework for understanding and detecting harassment in socialVR
- Global styles
- Apa
- Bibtex
- Chicago Fullnote
- Help
Abstract
Sosyal Sanal Gerçeklik (SG), kapsayıcı görsel-işitsel çevreyle deneyimlenen, simetrik iletişim aracıdır. Sosyal SG, sözel etkileşime fırsat tanıyan ve kısıtlı da olsa, avatarlar aracılığıyla fiziksel etkileşimin kurulabildiği ortamlardır. Bu araştırmada, Sosyal SG kullanıcıları arasındaki söylem, nitel analiz yöntemiyle incelenerek, taciz örnekleri ve bunların gerçekleşme örüntüleri sunulmuştur. Bulunan bulgular ve örüntüler, güncel taciz problemini nasıl anlamamız gerektiğine de yardımcı olmaktadır. Bu doğrultuda, tacize yönelik kullanıcı ve çevre alışkanlıklarını tanıma metodlarına dair tartışmalar sunulmuştur. Nitel veri ve sosyal medyada taciz literatüründeki bilgiler ışığında, Doğal Dil İşleme kullanılarak konuşmalar, içerdikleri sözcüksel ya da yapısal taciz unsurlarına göre sınıflandırılmıştır. Bu ilk adım, Sosyal SG platformları tarafından uygulandığında, kullanıcılar arasındaki tacizi engelleme konusunda etkili bir araç olabilir. Bu araştırma, aynı zamanda Kıvrımlı Nöral Ağlar (KNA) ile Sosyal SG'de üretilen üç boyutlu bayağı görsel unsurları sınıflandırmak için de bir metod sunar. KNA kullanılarak, istenmeyen imajları test aşamasında %78 tutarlılık oranıyla ayıklamak için kullanılabilecek bir sınıflandırma modeli üretilmiştir. Bu çerçeve, daha ileri çalışmaları yürütebilmek için verilerin nasıl toplanması gerektiğine ve taciz içeren içerikleri diğerlerinden ayırmayı kolaylaştıran tasarım yöntemlerine dair öneriler de içerir. SocialVR, as experienced in immersive audiovisual environments, is a symmetrical communication medium that allows for both verbal interaction, and limited physical interaction through first-person avatars. Through a qualitative analysis of discourse among SocialVR users, this research finds examples of harassment and evidence for patterns in that harassment, advancing how we understand the current problem. In response, methods of recognizing user and environmental trends towards harassment are discussed. Informed by the qualitative data and literature on harassment in social media, natural language processing is used to classify speech as being harassment according to lexical and structural elements. When implemented by SocialVR platforms, this initial step can be added to and altered, making it an effective tool for preventing abuse among users. This research also provides a method for using convolutional neural networks to classify three-dimensional, vulgar imagery that is produced in SocialVR, narrowly targeting the most common forms of vulgarity. Using a CNN, a classification model is made, which can be used to remove unwanted images with 78% accuracy at testing. This framework includes recommendations on how data should be collected going forward, how data should be used, and the design considerations that should be made for both harassing and non-harassing alike.
Collections