Manfred Tscheligi, Head of Center for Technology Experience des AIT, gibt einen Ausblick in die technologische Zukunft: Wie werden wir kommunizieren und arbeiten – und werden wir noch selbst Autofahren?
Report: Welche Themen werden in der Industrie an Bedeutung gewinnen?
Manfred Tscheligi: Industrie 5.0 ist einer unserer großen Schwerpunkte. Dabei setzen wir stärker auf die Humanzentriertheit von Technologien. Industrie 4.0 glaubt man ja zu kennen. Die Weiterentwicklung bedeutet, nicht nur technologiezentriert zu denken, sondern wie die Synergie zwischen Mensch und Maschine auch in zukünftigen Produktionsumgebungen aussehen könnte. Die drei Säulen sind der Mensch, Resilienz und Nachhaltigkeit. Diese Sichtweise ist bei uns noch nicht ganz angekommen, wird aber von der Europäischen Kommission sehr forciert, weil man feststellt, dass der Mensch doch eine nicht unwesentliche Rolle spielt – vor allem wenn es sich um Tätigkeiten handelt, die eine Maschine nicht alleine kann.
Können Sie ein Beispiel nennen?
Bei Assistenzsystemen ist die Interaktion von Mensch und Maschine sehr relevant. Wir müssen herausfinden, welche Unterstützungsbedürfnisse in der Produktion bestehen. Wie kann ich bei bestimmten Vorgängen dem Operator helfen? Wo und wie kann ich etwa bei Unsicherheit des Operators Zusatzinformationen geben? Dafür bietet der Einsatz von Technologien, z.B. Extended Reality, gute Möglichkeiten. (dies bedeutet, das Zusammenspiel zwischen Realität und Virtualität). Der Operator hat z.B. ein Headset auf, via Augmented Reality werden Zusatzinformationen eingeblendet.
Wo sehen Sie mögliche Anwendungen?
In einem Reinraum, wo alles präzise funktionieren muss oder bei einer Qualitätsüberprüfung von Bauteilen – vielleicht kann der Mensch zumindest anfangs sogar mehr Fehler entdecken als die Maschine, die ja erst dazulernt. Es geht darum, die menschlichen Fähigkeiten zu ergänzen und gemeinsam zu einem besseren Ganzen zu kommen. Ein typisches Beispiel ist die Rückfahrkamera in einem Fahrzeug. Wenn ich nur rückwärtsfahre, sehe ich nur einen kleinen Ausschnitt, aber die Kamera sieht noch ein bisschen mehr. Sie ergänzt meine Limitationen.
Sind noch andere Erweiterungen der menschlichen Sensorik zu erwarten?
Die Synergien von Wahrnehmungskanälen und die Multimodalität des Menschen – also das Sehen, das Hören, das Tasten/Fühlen, aber auch Empathie/Emotionen – werden in nächster Zeit sicher noch stärker thematisiert werden. Früher oder später vielleicht über holographische Ansätze: Jetzt sehen wir am Bildschirm irgendwelche Akteure, aber das Körperliche einer Gesprächssituation geht verloren. Die Frage ist: Wie kann man eine hybride Situation schaffen, in der z.B. eine zusätzliche Person als Avatar am Tisch sitzen kann und trotzdem gleichwertiger Teil des Gefüges ist? Schon bei einer hybriden Videokonferenz gibt es ja enorm viele Barrieren: Wer nicht im Raum ist, existiert praktisch nicht.
Welchen Herausforderungen müssen wir uns noch stellen?
Es gibt Forschungsrichtungen wie die „Embodied Interaction“, wo es darum geht, das Verhalten der Menschen und ihre Unterschiedlichkeit stärker in der Interaktion zu berücksichtigen – also nicht nur den Kopf, sondern das Gesamterlebnis eines Menschen in der realen Situation zu sehen. Das Ziel ist mehr Qualität in der Interaktion. Avatare sind ja recht lustig, aber im Miteinander geht so viel verloren. Der Augenkontakt fehlt, die unmittelbaren Reaktionen. Da braucht es noch viele technologische Überlegungen und ein Zusammenwirken mehrerer Wissenschaftszweige.
Helfen Technologien in Stresssituationen?
Oft produzieren digitale Tools sogar Stress. Wenn ich etwas schnell auf Papier aufschreibe, bin ich meist schneller als mit dem Computer. Tools, die helfen, Stress abzubauen – da gibt es noch sehr wenig. Hier könnte ein Assistenzsystem gut unterstützen: Die KI im Hintergrund schreitet dann ein und sagt: Das brauchst du nicht selbst machen, das übernehme ich für dich! Das erfordert allerdings Vertrauen. Die Interaction-Forschung spricht von einer „situativen Unterstützung“, die verlässlich und vertrauensvoll funktioniert und vom Menschen auch in Stresssituationen akzeptiert wird. Im Stress verhält man sich anders. Ziel ist es, dass die Interaktion in hochspezifischen, heiklen Situationen funktioniert.
Welche Rolle spielt regelmäßiges Training?
Es gibt zwei Grundprinzipien: die Erlernbarkeit und die Wiedererinnerbarkeit. Am Anfang steht eine Lernphase, um den Umgang mit neuen Technologien zu erlernen. Die sollte relativ einfach gestaltet sein, alles muss gut zu merken sein. Im Ernstfall sollte ich wissen, was zu tun ist und nicht erst im Manual suchen müssen. Lernen hängt von verschiedenen Parametern ab: Wie schnell lerne ich, wie komplex sind die Inhalte, will ich das überhaupt lernen? Ein Flugzeugpilot muss immer wieder für Krisensituationen trainieren, damit er dieses Wissen parat hat, wenn er es braucht. Wir werden in Zukunft vermutlich Autofahren üben müssen, weil mit den hochautomatisierten Fahrzeugen das sogenannte "Deskilling" einsetzt – wir verlernen selbst zu fahren.
Was hat sich in der Bedienung von Maschinen geändert?
Benutzer-Panels werden inzwischen anders gebaut. Es geht stark in Richtung Grafik und Touch-Interaktion – da wäre schon viel mehr möglich, aber vielfach sind noch ältere Systeme im Einsatz. Im Mittelpunkt steht die Reduktion der Komplexität durch das visuelle Design. Teilweise sind die Systeme veraltet, oft selbst ohne spezifisches Interface Design entwickelt, und überladen mit Informationen. Da muss erst aufgeräumt und ein neuer Standard eingebracht werden. Natürlich sollte auch die subjektive Zufriedenheit passen – ich muss mich schon wohlfühlen in der neuen Struktur. Es ist ein bisschen wie in einer Wohnung: Man kann natürlich immer noch mehr Möbel hineinstellen, aber irgendwann herrscht ein komplettes Chaos. Wie soll man da noch etwas finden?
Werden Psychologie und Technik erstmals zusammengeführt?
Es ist noch viel mehr: Auch Biologie, Soziologie und Design spielen hier mit. Wir haben in der Human-Computer-Interaction Forschung bei uns am AIT mehr als 20 verschiedene Disziplinen, die wir einbeziehen. Es kommen ständig neue Fragestellungen dazu. Je mehr man den Menschen zu begreifen versucht, desto mehr Facetten ergeben sich. Es wird nicht langweilig.
Geht es letztlich auch um Skalierbarkeit?
Bei der Entwicklung eines intelligenten User Interface wird de facto versucht, Losgröße 1 beim User zu erreichen. Simpel ausgedrückt: Die KI schaut, was du tust und was du hast und gibt dir, was du brauchst. Hier zeichnet sich ein Trend ab, der sehr spezifisch auf das Individuum ausgelegt ist.
Wissen die Kund*innen immer, was sie wollen?
Nein, aber sie sind auch keine Expert*innen. Viele sehen ihr Problem nur aus der eigenen Sichtweise. Unsere Aufgabe liegt darin, diese Blume und ihre Blätter sozusagen ein bisschen größer zu zeichnen, um zu zeigen, wo es noch Möglichkeiten gibt.
Zur Person
Manfred Tscheligi ist Leiter des Center for Technology Experience am AIT Austrian Institute of Technology und Professor an der Universität Salzburg. 2021 wurde er gemeinsam mit fünf Forscher*innen aus Europa und den USA mit dem renommierten IFIP TC13 Pioneer Award ausgezeichnet.