Project Soli: Das Ende des Touchscreens?

Exotische Betriebssystem von Amazon, Mozilla und Sailfish OS habes sich schon früh an der Steuerung des Smartphones mit Gesten auf einem Touchscreen versucht - und haben sich nicht durchgesetzt. Apple führte 2017 Gesten ein und Android-Handys ziehen nach. Doch was wäre, wenn es schon bald keiner Berührung mehr bedarf?

Handytarife vergleichen© Viktor Hanacek / picjumbo.com
29.01.2019, 12:02 Uhr

Gesten sind unter Menschen in alltäglichen Begegnungen schon nicht immer leicht zu deuten. Wie soll das dann problemlos bei der Kommunikation zwischen Menschen und Maschinen funktionieren? Bei Amazon steuerte man zum Beispiel das erste und einzige eigene Smartphone mit Wischgesten und auch Mozillas Betriebssystem, das eine Randerscheinung geblieben ist, setzte auf ein solches Bedienkonzept. Deutlich akzeptierter ist die Steuerung des iPhone X, bei dem sich Apple erstmals etwas neues überlegen musste, weil der klassische Home-Button unter dem Bildschirm für eine größere Anzeigefläche weichen musste.

Gesten als eigene Sprache

Auch bei Android hält die Gestenteuerung Einzug. Einig ist man sich bei der Geste, um zum Homescreen zurückzukehren und die zuletzt verwendeten Apps aufzurufen, indem man mit dem Finger vom unteren Bildschirmrand kurz bzw. langsam bis zur Mitte nach oben wischt. Um einen Schritt zurück zu gelangen, oder den Sprachassistenten aufzurufen sind es aber schon wieder andere Gesten. Und darin liegt auch das Problem: ohne beschriftete oder durch Symbole gekennzeichnete Schaltflächen erschließt sich die Bedienung nicht mehr und muss erlernt werden.

So tun sich auch die Autohersteller schwer, diese Technik einzuführen. BMW hat 2015 mit dem neuen 7er eine Gestensteuerung eingeführt, bei der eine Kamera die Handbewegungen des Fahrers erkennen können soll. Hier gibt es allerding nur fünf Gesten. Wer mit dem rechten Zeigefinger in die Luft tippt, nimmt so einen angehenden Anruf an oder lehnt ihn mit einer Wischbewegung ab. Durch das Zeichnen eines Kreises im oder gegen den Uhrzeigersinn wird die Lautstärke reguliert. Zeige- und Mittelfinger nach vorne gerichtet und auseinandergestreckt können als Geste mit einem Befehl, zum Beispiel der Start des Hauptmenüs, belegt werden. VW setzt auf einen Annäherungssensor im Discover Pro Infotainment-System, mit dem per Wischgeste seitwärts gescrollt werden kann.

Google hat nun Anfang Januar die Erlaubnis bekommen auf einem sehr hohen Frequenzband mit geringer Reichweite Radar-Technologie einzusetzen, um Gesten zu erfassen. Schon vor drei Jahren päsentierte sich die Zukunftsschmiede von Google mit dem „Project Soli“ auf YouTube und zeigte erste Forschungsergebnisse und Visionen:

Die Lautstärke der Musik per Geste zu steuern während sich das Handy in der Hosentasche befindet scheint eine schöne Lösung zu sein. Auch an der Smartwatch die Krone zu ersetzen oder gar sämtliche Knöpfe und durch per Radar aufgezeichnete Gesten zu ersetzen könnte ebenfalls dabei helfen, dass die Funktionen auf dem kleinen Bildschirm besser genutzt werden können und Fingerabdrücke auf dem Glas der Geschichte angehören. Dass Project Soli den Touchscreen gänzlich ersetzt, ist zum jetzigen Zeitpunkt aber Zukunftsmusik und erscheint nicht praktikabel.