Michael Kipp

  • Schrift vergrößern
  • Standard-Schriftgröße
  • Schriftgröße verkleinern
Start Forschung
Forschung

Forschung

Die Schwerpunkte meiner Forschung liegen aktuell im Bereich Mensch-Computer-Interaktion, insbesondere Multitouch-Interaktion und gestenbasierte Interaktion.

In der Vergangenheit habe ich außerdem in den Bereichen intelligente Agenten, multimodale Kommunikation, Dialogsysteme und Videoannotation geforscht und publiziert. Aus meiner Forschung im Bereich multimodaler Kommunikationsanalyse per Video ist meine immer noch genutzte ANVIL-Software hervorgegangen.

Weiterlesen...
 

Vorträge

This is a list of (invited) presentations. I only included a few of my regular conference presentations.

Hier finden Sie eine Liste meiner Vorträge.

01/2016: Vortrag "Digital vs. Präsenz: Beispiele aus der Informatikausbildung", Tag der Lehre, Hochschule Augsburg | YouTube

03/2015: Invited Talk "Anvil - Efficient Annotation, Videos and Motion Capture", LIMSI, Paris

11/2012: Keynote Talk "Tools for Multimodal Behavior Analysis and Synthesis", 4th Nordic Symposium on Multimodal Communication, Gothenburg, Sweden

09/2012: Gastvortrag "Gebärdensprachavatare im Internet - Möglichkeiten und Grenzen", Di-Ji-Kongress "Verständlich informiert - im Job integriert", Aktionsbündnis für barrierefreie Informationstechnik (AbI), Berlin

10/2011: Gastvortrag "Virtuelle Menschen als Medium", 10-jähriges Jubiläum des Lehrstuhls Multimedia von Frau Prof. Elisabeth André, Univ. Augsburg

09/2011: Conference Talk "Sign Language Avatars: Animation and Comprehensibility", IVA conference, Reykjyvic, Iceland, presentation slides (pdf, 9MB)

05/2011: Invited Talk "Sign language coding, 3D behavior data ... and ANVIL", OTIM/ILIKS Workshop, Laboratoire Parole et Langue (LPL), Aix-en-Provence, France

11/2010: Invited Talk "Coding spontaneous oral language in ANVIL", Workshop Language, oral language and cognition: Language acquisition, new approaches, CNRS/GDR, Univ. Paris 10, France

 

Weiterlesen...
 

Publikationen

Selected Publications

Nguyen, Q., and Kipp, M. (2015) Where to Start? Exploring the efficiency of translation movements on multitouch devices. In: Abascal, J., Barbosa, S., Fetter, M., Gross, T., Palanque, P., Winckler, M. (Eds.) Proceedings of 15th IFIP TC 13 International Conference (INTERACT), Part IV, Springer, pp. 173-191.
Best Paper Award

Kipp, M. (2014) ANVIL: The Video Annotation Research Tool. In: Durand, J., Gut, U., Kristoffersen, G. (eds.) Handbook of Corpus Phonology, Oxford University Press, Chapter 21, pp. 420-436. Book at OUP

Nguyen, Q., Kipp, M. (2014) Orientation Matters: Efficiency of translation-rotation multitouch tasks. In: Proceedings of the SIGCHI Conference on Human Factors in Computing Systems (CHI-14). Link to Video.

Kipp, M., Martin, J.-C. (2009) Gesture and Emotion: Can basic gestural form features discriminate emotions? In: Proceedings of the International Conference on Affective Computing and Intelligent Interaction (ACII-09), IEEE Press. Nominated for Best Paper Award

Neff, M., Kipp, M., Albrecht, I. and Seidel, H.-P. (2008) Gesture Modeling and Animation Based on a Probabilistic Recreation of Speaker Style. In: ACM Transactions on Graphics 27 (1), ACM Press, pp. 1-24.

Kipp, M., Neff, M., Kipp, K.H. und Albrecht, I. (2007) Toward Natural Gesture Synthesis: Evaluating gesture units in a data-driven approach. In: Pelachaud et al. (eds.) Proceedings of the 7th International Conference on Intelligent Virtual Agents, LNAI 4722, Springer, pp.15-28. Best Paper Award

Kipp, M. (1998) The Neural Path to Dialogue Acts. In: Proceedings of the 13th European Conference on Artificial Intelligence (ECAI).

Weiterlesen...
 

Gebärdensprache und Avatare

Ein Avatar ist eine künstliche Figur in einer virtuellen Welt. Avatare könnten eingesetzt werden, um dynamische Texte von Internetseiten automatisch in Gebärdensprache übersetzen zu lassen. Dies könnte eine erfolgversprechende, langfristige Lösung sein, um Internetangebote für gehörlose Menschen barrierefrei zu gestalten. Bisher liegt die Verständlichkeit von Avataren jedoch nur bei ca. 60%. Bei einer verbesserten Verständlichkeit könnten die Einsatzmöglichkeiten von Gebärdenavataren zusätzlich ausgeweitet werden.

Weiterlesen...
 

Multitouch zur 3D-Manipulation

In seiner Doktorarbeit untersucht Quan Nguyen (DFKI) neue Interaktiontechniken zur Manipulation von Objekten in 3D-Räumen.

Weiterlesen...