The FaceShift software manages to use the depth image of the Kinect for a realtime replication of the speaker’s facial expression on an avatar’s face. Awesome. Look at the video to see how fast the approach is – hardly any visible latency between original motion and avatar and really subtle facial motions are translated to the virtual character. The software was developed by researchers from EPFL Lausanne, a research center with an excellent reputation, especially in the area of computer graphics. The software is envisioned to be used in video conferencing and online gaming contexts, to allow a virtual face-to-face situation while speaking.
Tag: Interaction
Permanent Subjective Foto Stream
The company “OMG Life” released a camera called “Autographer” that you can wear around your neck and makes a stream of pictures throughout the day, based on sensor readings. The sensors (location, acceleration, light, temperature ..) are used to make the decision whether a moment is “interesting”.
This idea sounds familiar from the MyLifeBits project at Microsoft Research around 2002. The researchers developed a device called SenseCam and published their heuristics to detect interesting moments based on rules (e.g. a drastic change in light may indicate that the user enters/leaves the house). The MyLifeBits project goes further back to 1945 when Vannevar Bush published his vision of the Memex computer system that would store all an individual’s books, notes and other documents and thus extend one memory. Your can read his article “As We May Think” online (July 1945 Atlantic Magazine).
Also see the Autographer homepage and the SenseCam project page.
References
Gemmel et al. (2002) MyLifeBits: Fulfilling the Memex Vision. In: Proc. of ACM Multimedia.
Neuer Fingercontroller: Leap Motion
Update: Das Gerät scheint auf dem Markt zu sein. Engadget hat am 25.5.2012 einen Hands-on-Bericht veröffentlicht (siehe Video weiter unten).
Die Firma Leap Motion entwickelt seit 4 Jahren an einem hochpräzisen Detector à la Kinect, aber viel präziser, wie aus ihrem Video hervorgeht. Microsoft’s Kinect kann zwar den Körper als “Skelett” in 3D tracken, ist aber nicht präzise genug, um Finger zu erkennen. Wenn das Gerät von Leap Motion so funktioniert wie dargestellt und tatsächlich günstiger ist als die Kinect, würde das den Sensormarkt tatsächlich revolutionieren. Für die Eingabe von Gebärdensprache z.B. ist die Kinect nicht geeignet. Mit Leap Motion wäre eine Gebärdensprach-Erkennung zumindest theoretisch möglich.
Hier das Video von Leap Motion:
Links:
Hier der Test von Engadget:
Google’s projectglass und Gegenvision
Google hat ein Konzeptvideo veröffentlich, wo eine Datenbrille in Aktion gezeigt wird, die das Internet ins tägliche Leben holt. Erinnerungen werden eingeblendet, man wird durch Straßen navigiert, Fotos werden über die Brille per Sprache geschossen und direkt auf Google+ hochgeladen. Und natürlich kann man Musik hören und skypen… schöne, neue Welt.
Hier eine interessante Gegenvision zur Augmented Reality à la Googleglass:
Sight from Sight Systems on Vimeo.
Informatives Fensterglas
Ziemlich beeindruckende Demo von Samsungs Smart Window Technologie. Ein “see-through” Display mit völlig neuen Interaktionsmöglichkeiten.
Virtual Patients and Multitouch
The German project “SimMed” built a prototype of a virtual child on a multitouch table to complement medical training. It is a cooperation between university clinic Charité and Archimedes. Here is a (German) video feature on “SPIEGEL Online”:
Also check out the Archimedes page.
Encyclopedia of Human-Computer Interaction
The website www.interaction-design.org is in the process of creating an online Encyclopedia of Human-Computer Interaction which is not only free but co-authored by leading researchers in the field.
Here’s a sample from the embedded videos, an introduction to social computing: