Computer sind auf dem besten Weg, so allgegenwärtig und intelligent zu werden, wie es sich selbst kühne Science-Fiction-Autoren nicht hätten träumen lassen. Wir sitzen nicht nur bei der Arbeit vor ihnen, sondern nehmen sie überall mit hin. Wir tragen sie nah am Körper oder sogar auf der Nasenspitze. Bye bye, Personal Computing, willkommen im Zeitalter des Intimate Computings. Ein Kommentar von Nils Berger, CEO und Eigentümer Viewpointsystem.
Das Smartphone machte uns und den Computer unzertrennlich. Nun wird unser Umgang mit ihm noch enger und intimer. Wir lassen ihn unseren Puls messen und füttern ihn mit biometrischen Daten. Smartglasses überlagern unser Blickfeld mit digitalen Infos und vermischen digitale und reale Welt.
Dieser veränderte Umgang erfordert ein neuartiges Interface zwischen Mensch und Maschine. Computer müssen nun genauso unsichtbar und instinktiv funktionieren, wie sie physisch geworden sind. Sie müssen unsere Wünsche und Bedürfnisse intuitiv erkennen können.
Wanted: Das Interface der Zukunft
Blicken wir einige Jahrzehnte zurück: Die frühesten Computer, die noch Räume und ganze Gebäude füllten, wurden tatsächlich gesteuert, indem man Kabel von einer Komponente zur anderen verlegte. Als die Computer kleiner wurden, drückte man Schalter und beobachtete flackernde Lichter um zu sehen, ob sie richtig reagierten.
Mit der PC-Revolution kamen die Tastatur, die Maus und später das Touch Pad. Auch wenn man damit präzise Befehle erteilen kann – für ein immersives Nutzererlebnis ist die Interaktion mittels Tasten, Touchfeld oder ausladenden Handgesten zu umständlich und unpraktisch.
Auch die Sprachsteuerung hat ihre Tücken: Erstens funktioniert sie am besten in einer komplett ruhigen Umgebung, die bei der Arbeit oder in der Freizeit selten gegeben ist. Zweitens haben die Sprachsteuerungssystem noch kein tiefes Verständnis für den Kontext und die Vielfalt der Sprache erreicht. So ist der Nutzer in der Regel gezwungen, erst einmal zu lernen, was sein sprachgesteuertes Gerät überhaupt verstehen kann. Intuitive Kommunikation sieht anders aus.
Es beginnt mit den Augen
Welches Interface ist in der Lage, Mensch und Maschine ganz natürlich und unbewusst zu verbinden? Der Schlüssel liegt in unserem wichtigsten Sinnesorgan, dem Auge. Schon Cicero sprach von den Augen als „Botschafter der Gedanken“. Und in der Tat sind sie ein untrüglicher Indikator für unseren Aufmerksamkeitsgrad und unseren emotionalen Zustand. Sind wir unaufmerksam, springt der Blick schnell von einer Sache zur nächsten. Dann wieder fokussiert er sich auf etwas, was uns interessiert. Die Erweiterung der Pupillen wiederum gibt Aufschluss über emotionale Reaktion auf Dinge aus unserer Umgebung. Sie spiegelt grundlegende Emotionen wie Angst, Stress, Unsicherheit oder Überraschung wieder.
Die Augenbewegungen und Iriskontraktionen lassen sich durch präzises Eye Tracking messen. Kombiniert man diese Technologie mit der richtigen Software, ist es schon bald möglich, dem Nutzer genau die Information auf dem Display seiner Smartglasses einzublenden, die er in einer bestimmten Situation benötigt – ohne dass er dem Gerät seinen Wunsch aktiv über das Touchfeld oder per Sprachbefehl mitteilen muss.
Blickgesteuerte Smartglasses
Schon heute macht die Digitalisierung der Augenbewegungen die Interaktion zwischen Mensch und Gerät intuitiver und natürlicher. Zwei Beispiele aus der praktischen Anwendung:
Augen-Gesten: Der Träger einer Datenbrille kann sozusagen mit seinen Augen kommunizieren und die Informationen auf dem Brillen-Display per Augen-Geste abrufen, statt die Hände oder die Stimme zu nutzen. So bekommt beispielsweise ein Techniker bei der Reparatur einer Maschine die benötigen digitalen Informationen direkt vor dem Auge eingeblendet und hat gleichzeitig die Hände frei für die Arbeit.
Wahrnehmungs-Tracking: Zugeschaltete Remote-Experten erkennen anhand der Blickbewegungen des Trägers, was er wahrnimmt und was er übersieht. So können sie ihn im Videostream besonders präzise bei Wartungen oder Reparaturen anleiten.
Die richtigen Entscheidungen treffen
Kombinieren wir die Augenbewegungen künftig mit individuellen biometrischen Informationen und Machine Learning, weiß das System, was mich interessiert und wie mein aktueller Zustand im jeweiligen situativen Kontext ist, rational wie emotional.
Ein Beispiel: Ich bin in New York auf dem Weg zu einem wichtigen Meeting. Es ist heiß und ich kann mich nicht gut in Großstädten orientieren. Mein System, das ich auf der Nase trage, erkennt meinen umher flackernden Blick und merkt, wie sich mein Puls erhöht. Es weiß aber auch, dass ich nur einen vierminütigen Laufweg habe, aber noch 15 Minuten Zeit. Daher der Vorschlag, ‘Zieh dein Sakko aus und gehe gemütlich dahin’. Ich komme gar nicht in eine Stresssituation, weil mein System mich aufgrund der Parameter und Indikatoren vorher schon abholt.
Wir müssen unserem Gerät nicht mehr sagen, was sie wollen - es weiß es bereits. Diese Errungenschaft wird die Art und Weise, wie Menschen mit Computern interagieren, stark verändern. Es wird sich anfühlen, als ob wir überhaupt kein Interface mehr verwenden.
Computer sind intelligent genug, um zu tun, was wir wollen - wenn wir ihnen nur sagen können, was es ist. Wir nähern uns dem Punkt, an dem es einfacher denn je ist, genau das zu tun.