Michael Kipp

  • Schrift vergrößern
  • Standard-Schriftgröße
  • Schriftgröße verkleinern
Start Forschung
Forschung

Forschung

Die Schwerpunkte meiner Forschung liegen im Bereich Mensch-Computer-Interaktion, insbesondere Multitouch-Interaktion und gestenbasierte Interaktion, intelligente Avatare, multimodale Kommunikation und Videoannotation.

 

 

 

 

 

(Foto: Signing Creatures Workshop 2013, Gallaudet University, Washington DC)

Im Bereich Multitouch interessiert mich insbesondere die Effizienz von grundlegenden Operationen (Verschieben, Rotieren etc.) unter verschiedenen Bedingungen (Bildschirmgröße, Körperhaltung des Benutzers). Im Bereich Avatare stellt sich die Frage, inwiefern menschenähnliche Kommunikationssituationen hergestellt werden können und Gebärdensprache umgesetzt werden kann, u.a. mit Hilfe von Sensoren wie der Kinect. Im Bereich multimodaler Kommunikationsanalyse per Video entwickele ich meine ANVIL-Software ständig weiter.

 

Weiterlesen...
 

Vorträge

This is a list of (invited) presentations. I only included a few of my regular conference presentations.

Hier finden Sie eine Liste meiner Vorträge.

01/2016: Vortrag "Digital vs. Präsenz: Beispiele aus der Informatikausbildung", Tag der Lehre, Hochschule Augsburg

03/2015: Invited Talk "Anvil - Efficient Annotation, Videos and Motion Capture", LIMSI, Paris

11/2012: Keynote Talk "Tools for Multimodal Behavior Analysis and Synthesis", 4th Nordic Symposium on Multimodal Communication, Gothenburg, Sweden

09/2012: Gastvortrag "Gebärdensprachavatare im Internet - Möglichkeiten und Grenzen", Di-Ji-Kongress "Verständlich informiert - im Job integriert", Aktionsbündnis für barrierefreie Informationstechnik (AbI), Berlin

10/2011: Gastvortrag "Virtuelle Menschen als Medium", 10-jähriges Jubiläum des Lehrstuhls Multimedia von Frau Prof. Elisabeth André, Univ. Augsburg

09/2011: Conference Talk "Sign Language Avatars: Animation and Comprehensibility", IVA conference, Reykjyvic, Iceland, presentation slides (pdf, 9MB)

05/2011: Invited Talk "Sign language coding, 3D behavior data ... and ANVIL", OTIM/ILIKS Workshop, Laboratoire Parole et Langue (LPL), Aix-en-Provence, France

11/2010: Invited Talk "Coding spontaneous oral language in ANVIL", Workshop Language, oral language and cognition: Language acquisition, new approaches, CNRS/GDR, Univ. Paris 10, France

 

Weiterlesen...
 

Publikationen

Aktuelle Publikationen / current publications

Nguyen, Q., and Kipp, M. (2015) Where to Start? Exploring the efficiency of translation movements on multitouch devices. In: Abascal, J., Barbosa, S., Fetter, M., Gross, T., Palanque, P., Winckler, M. (Eds.) Proceedings of 15th IFIP TC 13 International Conference (INTERACT), Part IV, Springer, pp. 173-191.
Best Paper Award

Kipp, M. (2014) ANVIL: The Video Annotation Research Tool. In: Durand, J., Gut, U., Kristoffersen, G. (eds.) Handbook of Corpus Phonology, Oxford University Press, Chapter 21, pp. 420-436. Book at OUP

Nguyen, Q., Kipp, M. (2014) Orientation Matters: Efficiency of translation-rotation multitouch tasks. In: Proc. of CHI 2014. Link to Video.

Staudte, M., Crocker, M.W., Heloir, A., Kipp, M. (2014) The influence of speaker gaze on listener comprehension: Contrasting visual versus intentional accounts. In: Cognition, Vol. 133, Issue 1, pp. 317–328. Article at Elsevier

Kipp, M., von Hollen, L., Hrstka, M.C., Zamponi, F. (2014) Single-Person and Multi-Party 3D Visualizations for Nonverbal Communication Analysis. In: Proceedings of the Ninth International Conference on Language Resources and Evaluation (LREC), ELDA, Paris. (open the corresponding poster by clicking on the thumbnail below)

Kipp, M. (2013) Videos in der Lehre: Ein Versuch. In: Tagungsband des 1. Symposiums zur Didaktik in MINT Fächern, Nürnberg. (das dazugehörige Poster lässt sich über das Thumbnail öffnen)

 

 

 

 

 

 

Raber, F., Nguyen, Q., Kipp, M. (2013) MotionBender: A Gesture-based Interaction Technique For Editing Motion Paths. In: Proc. of the 14th IFIP TC13 Conference on Human-Computer Interaction (INTERACT 2013). Link to Video.

 

Weiterlesen...
 

Gebärdensprache und Avatare

Ein Avatar ist eine künstliche Figur in einer virtuellen Welt. Avatare könnten eingesetzt werden, um dynamische Texte von Internetseiten automatisch in Gebärdensprache übersetzen zu lassen. Dies könnte eine erfolgversprechende, langfristige Lösung sein, um Internetangebote für gehörlose Menschen barrierefrei zu gestalten. Bisher liegt die Verständlichkeit von Avataren jedoch nur bei ca. 60%. Bei einer verbesserten Verständlichkeit könnten die Einsatzmöglichkeiten von Gebärdenavataren zusätzlich ausgeweitet werden.

Weiterlesen...
 

Multitouch zur 3D-Manipulation

In seiner Doktorarbeit untersucht Quan Nguyen (DFKI) neue Interaktiontechniken zur Manipulation von Objekten in 3D-Räumen.

Weiterlesen...