Tag: Interaction

Facial Expression Replication in Realtime

The FaceShift software manages to use the depth image of the Kinect for a realtime replication of the speaker’s facial expression on an avatar’s face. Awesome. Look at the video to see how fast the approach is – hardly any visible latency between original motion and avatar and really subtle facial motions are translated to the virtual character. The software was developed by researchers from EPFL Lausanne, a research center with an excellent reputation, especially in the area of computer graphics. The software is envisioned to be used in video conferencing and online gaming contexts, to allow a virtual face-to-face situation while speaking.

Permanent Subjective Foto Stream

The company “OMG Life” released a camera called “Autographer” that you can wear around your neck and makes a stream of pictures throughout the day, based on sensor readings. The sensors (location, acceleration, light, temperature ..) are used to make the decision whether a moment is “interesting”.

This idea sounds familiar from the MyLifeBits project at Microsoft Research around 2002. The researchers developed a device called SenseCam and published their heuristics to detect interesting moments based on rules (e.g. a drastic change in light may indicate that the user enters/leaves the house). The MyLifeBits project goes further back to 1945 when Vannevar Bush published his vision of the Memex computer system that would store all an individual’s books, notes and other documents and thus extend one memory. Your can read his article “As We May Think” online (July 1945 Atlantic Magazine).

Also see the Autographer homepage and the SenseCam project page.

References
Gemmel et al. (2002) MyLifeBits: Fulfilling the Memex Vision. In: Proc. of ACM Multimedia.

Neuer Fingercontroller: Leap Motion

Update: Das Gerät scheint auf dem Markt zu sein. Engadget hat am 25.5.2012 einen Hands-on-Bericht veröffentlicht (siehe Video weiter unten).

Die Firma Leap Motion entwickelt seit 4 Jahren an einem hochpräzisen Detector à la Kinect, aber viel präziser, wie aus ihrem Video hervorgeht. Microsoft’s Kinect kann zwar den Körper als “Skelett” in 3D tracken, ist aber nicht präzise genug, um Finger zu erkennen. Wenn das Gerät von Leap Motion so funktioniert wie dargestellt und tatsächlich günstiger ist als die Kinect, würde das den Sensormarkt tatsächlich revolutionieren. Für die Eingabe von Gebärdensprache z.B. ist die Kinect nicht geeignet. Mit Leap Motion wäre eine Gebärdensprach-Erkennung zumindest theoretisch möglich.

Hier das Video von Leap Motion:

Links:

Hier der Test von Engadget:

Google’s projectglass und Gegenvision

Google hat ein Konzeptvideo veröffentlich, wo eine Datenbrille in Aktion gezeigt wird, die das Internet ins tägliche Leben holt. Erinnerungen werden eingeblendet, man wird durch Straßen navigiert, Fotos werden über die Brille per Sprache geschossen und direkt auf Google+ hochgeladen. Und natürlich kann man Musik hören und skypen… schöne, neue Welt.

Hier eine interessante Gegenvision zur Augmented Reality à la Googleglass:

Sight from Sight Systems on Vimeo.

 

Copyright © 2024 Michael Kipp's Blog

Theme by Anders NorenUp ↑