Google Project Soli: Fingergesten per Radar

Googles Forschungsabteilung ATAP will mit Finger- und Handbewegungen eine exakte Gestensteuerung realisieren - doch Kameras zur Auswertung sind dabei zu unpräzise. Was also tun? Googles Ingenieure besannen sich auf eine alte Technik, die auch in Flugzeugen eingesetzt wird. Im Zuge der Google I/O 2015 hat das Advanced Technologies and Projects-Team von Google (ATAP) die Gelegenheit genutzt, so einige Innovationen vorzustellen. Dazu zählt auch das „Project Soli“, das die Gestensteuerung auf ein völlig neues Niveau heben könnte. Im Kernpunkt steht hierbei ein winzig kleiner Radar-Chip, der selbst mit den Fingern ausgeführte Gesten exakt erkennen kann.

Das Format einer Armbanduhr setzt der Bedienung per Touch natürliche Grenzen – wegen der Größe des Bildschirms. Die Forscher von Googles ATAP-Team sind daher auf die Idee gekommen, Fingergesten in der Luft per Radar mit Frequenzen um 60 GHz zu erfassen. Auf der Entwicklerkonferenz Google I/O haben sie über die Technik von "Project Soli" gesprochen.

Projektgründer Ivan Poupyrev sagt, das Ziel von Project Soli sei, die Möglichkeiten der Menschlichen Hand zu filigransten Bewegungen zur Steuerung von Technik zu nutzen. Im Vergleich zu einer Kamera, wie etwa Microsofts Kinect, soll Radar wesentlich bessere Präzision in der Erfassung feinster Bewegungen bieten.

Extreme Auflösung

Damit soll es etwa möglich sein, virtuelle Schieberegler, Drehknöpfe oder Taster zu bedienen, indem der Radar-Sensor die dafür typischen Bewegungen wie das Aneinanderwischen oder das Zusammentipplten von Zeigefinger und Daumen erfasst. In der gezeigten Form misst Soli 2.000 mal pro Sekunde. Die Auflösung ist so gut, dass es Menschen unmöglich ist, ein stehendes Signal zu erzeugen. Denn niemand kann seine Hand so ruhig halten.

Poupyrevs Team hat es geschafft, den Radarsensor in einen Chip von Fingernagelgröße zu schrumpfen. Es gibt also keine beweglichen Teile. Anders als eine Kamera funktioniert Radar zudem in gewissem Maß durch andere Materialien hindurch, daher ließe sich der Chip zum Beispiel in eine Smartwatch integrieren.

Serienreif ist die Technik bei weitem nicht. Allerdings, so Chefdesigner Carsten Schwesig, sei die Hardware funktionsfähig. Nun gehe es dem Team darum, zu erforschen, ob und wie gut die Radar-Erfassung für Fingergesten praxistauglich ist und was sich damit anstellen lässt. Schwesig möchte auch mit dem Einsatz im Bereich Musik experimentieren.

Soli ist nicht das einzige Forschungsprojekt, das Google zu I/O zeigt. So arbeiten etwa Google und der Textilhersteller Levi Strauss an einem Touch-fähigen Gewebe.