Passer à la navigation principale Passer à la recherche Passer au contenu principal

Prosody-driven robot ARM gestures generation in human-robot interaction

Résultats de recherche: Le chapitre dans un livre, un rapport, une anthologie ou une collectionContribution à une conférenceRevue par des pairs

Résumé

In multimodal human-robot interaction(HRI), the process of communication can be established through verbal, non-verbal, and/or para-verbal cues. The linguistic literature [3] shows that para-verbal and non-verbal communications are naturally synchronized. This research focuses on the relation between non-verbal and para-verbal communication by mapping prosody cues to the corresponding arm gestures. Our approach for synthesizing arm gestures uses the coupled hidden Markov models (CHMMs), which could be seen as a collection of HMMs modeling the segmented prosodic characteristics' stream and the segmented rotation characteristics' streams of the two arms' articulations [4][1]. Nao robot was used for tests.

langue originaleAnglais
titreHRI'12 - Proceedings of the 7th Annual ACM/IEEE International Conference on Human-Robot Interaction
Pages257-258
Nombre de pages2
Les DOIs
étatPublié - 26 avr. 2012
Evénement7th Annual ACM/IEEE International Conference on Human-Robot Interaction, HRI'12 - Boston, MA, États-Unis
Durée: 5 mars 20128 mars 2012

Série de publications

NomHRI'12 - Proceedings of the 7th Annual ACM/IEEE International Conference on Human-Robot Interaction

Une conférence

Une conférence7th Annual ACM/IEEE International Conference on Human-Robot Interaction, HRI'12
Pays/TerritoireÉtats-Unis
La villeBoston, MA
période5/03/128/03/12

Empreinte digitale

Examiner les sujets de recherche de « Prosody-driven robot ARM gestures generation in human-robot interaction ». Ensemble, ils forment une empreinte digitale unique.

Contient cette citation