Recognition of haptic interaction patterns in dyadic joint object manipulation
- Global styles
- Apa
- Bibtex
- Chicago Fullnote
- Help
Abstract
Bu tezin amacı, insanlar arasındaki etkileşimi anlamlandırabilen ve bu etkileşime göreonlara yardım eden bir robot tasarlanmasını sağlayacak bakış açısı geliştirmektir. Fiziksel olarak insanlarla birlikte çalışan robotların geliştirilmesi son yıllarda büyük ilgi çekmektedir. Şüphesiz ki, bu çaba insanlar arasındaki dokunma içeren fiziksel etkileşim özelliklerini anlamayı gerektirmektedir. Bu amaçla, bu zamana kadar, birçok araştırmacı insan niyetlerinin araştırılmasına ve bu niyetlerin robota aktarılmasına odaklanmıştır. Halbuki insanlarla birlikte çalışan otonom robotların geliştirilmesi için fiziksel etkileşim örüntülerinin de incelenmesi gerekir. Etkileşim örüntüleri, sürekli ve tekrarlanan etkileşim nitelikleridir. Bu zamana kadar bu konu detaylı olarak araştırılmamıştır. Bu bağlamda, bu çalışma dokunma içeren fiziksel insan-insan etkileşimini anlamlandırmaya çabalayan ilk örnektir. Ayrıca bu çalışma vasıtasıyla, uzmanlar tarafından etiketlenmiş bir etkileşim veri seti de sunulmuştur. Bu veri seti, haptik (dokunsal) özellikli sanal bir dünyada obje taşıyan iki insanın etkileşimini içermektedir. Bu veri setinden elde edilen bilgiler ışığında, insan etkileşimi 3 etkileşim örüntü tipine ayrılmıştır. Herhangi bir is¸birliği içinde, etkileşimde bulunan insanlar: 1) uyum içinde çalışırlar, 2) çelişkinin üstesinden gelmeye çalışırlar veya 3) etkileşim sırasında edilgen kalırlar. Bu fikir doğrultusunda, insan etkileşim örüntülerinin taksonimisini yapan ve etkileşim örüntülerini sınıflandıran bir makine öğrenme yöntemi geliştirilmiştir. Makine öğrenme yöntemini eğitmek için beş farklı öznitelik kümesi önerilmiştir. Bu öznitelik kümeleri kuvvet, hız ve güç bazlı öznitelikler olarak belirlenmiştir. Çok sınıflı sınıflayıcı (support vector machine SVM) kullanarak, insan etkileşim örüntülerinin tanınmasında%86 başarı oranı elde edilmiştir. Bu başarı oranı mRMR(Minimum Redundancy & Maximum Relavance) yöntemiyle füzyon edilen öznitelik kümesi kullanılmasıyla sağlanmıştır. This thesis aims to present a perspective to build a robot which can identify the interaction between its human partners and assist accordingly for physical human-robot cooperation. The development of robots that can physically cooperate with humans has attained interest in the last decades. Obviously, this effort requires a deep understanding of the intrinsic properties of interaction. Up to now, many researchers have focused on inferring human intents in terms of intermediate or terminal goals in physical tasks. On the other hand, working side by side with people, an autonomous robot additionally needs to come up with in-depth information about underlying haptic interaction patterns that are typically encountered during human-human cooperation. However, to our knowledge, no study has yet focused on characterizing such detailed information. In this sense, this work is novel as an effort to gain deeper understanding of interaction patterns involving two or more humans in a physical task. We present an expert-labeled human-human interaction dataset, which captures the interaction of two humans, who collaboratively transport an object in an haptics-enabled virtual environment. In the light of information gained by studying this dataset, we propose that the actions of cooperating partners can be examined under three interaction types: In any cooperative task, the interacting humans either 1) work in harmony, 2) cope with conflicts, or 3) remain passive during interaction. In line with this conception, we present a taxonomy of human interaction patterns; then propose five different feature sets, comprising force-, velocity- and power-related information, for the classification of these patterns. Our evaluation shows that using a multi-class support vector machine (SVM) classifier, we can accomplish a correct classification rate of 86 percent for the identification of interaction patterns, an accuracy obtained by fusing the selected features by Minimum Redundancy Maximum Relevance (mRMR) feature selection method.
Collections