Fazit des "NGI Talk - AI and beyond": Artificial Intelligence ist bereits Realität, braucht aber verstärkte gesellschaftliche Auseinandersetzung.
Bei der dritten Auflage der „Next Generation Internet“-Talks wurden durch multi-disziplinäre Referenten aus der Software-Industrie, der öffentlichen Verwaltung und der Wissenschaft mögliche Nutzungspotenziale von AI in Europa ausgelotet, Regulierungsmöglichkeiten für eine vertrauensvolle AI zu diskutiert und AI als komplexes Ökosystem begreifbar gemacht.
Moderator Mario Drobics vom AIT Austrian Institute of Technology betonte in seiner Einführung, dass trotz der aktuell hohen Medienpräsenz des Themas noch große Unklarheit über den aktuellen Entwicklungsstand und die heute schon bestehenden Chancen des Einsatzes von AI in der Gesellschaft herrsche. Daher wurde bei der Konzeption von NGI Talk #3 ganz bewusst nicht so sehr auf technologische Aspekte dieser Internet-Revolution abgezielt, sondern auf ein tieferes Verständnis real existierender Formen von Künstlicher Intelligenz.
Die Schlacht um KI
Der Founder und CEO des Grazer Technologie Start-Ups Leftshift One, Patrick Ratheiser, sieht „Schwache AI“ mit den Funktionalitäten Zeichen-, Text-, Bild- und Spracherkennung wie sie in vielen Assistenz- und Support-Systemen bereits zum Einsatz kommt, längst in der Mitte der Wirtschaft und Gesellschaft angekommen. Die Zeit für „Starke AI“, die im Hinblick auf logisches Denken, Lernfähigkeit und Kommunikation in natürlicher Sprache der menschlichen Intelligenz ebenbürtig sein wird, sieht er allerdings erst ab 2040 gekommen.
„Die Schlacht um KI für Big Data“ sieht Ratheiser bereits an die US-amerikanischen Internet-Giganten Google, Amazon und Facebock verloren, aber bei autonomer KI, bei Perceptive KI und bei Business KI sind die Chancen für Europa durchaus intakt.
Sein Unternehmen Leftshift One hat mit der generischen AI-Plattform GAIA eine zukunftsträchtige, auf verschiedenen Modulen basierende Lösung für die Integration unterschiedlicher AI-Dienste wie Datenanalyse, Bilderkennung, NLP-Text und -Sprachverständnis, sowie Emotionserkennung und intelligente Prozessmodellierung aufgebaut, die mit ihrem „Conversational User Interface“ in Richtung AI und den dabei eingesetzten Visualisierungstechnologien eine natürliche Human-Computer-Interaction ermöglicht.
Wer trägt die Verantwortung?
Im zweiten Impulsreferat von Frau Tünde Fülöp vom BMEIA ging es um die besonderen Anforderungen für einen rechtskonformen Einsatz von AI im Rahmen der öffentlichen Verwaltung. „Artificial neural networks“ besitzen heute bereits eine enorme Analysekraft und können auf der Grundlage zur Verfügung gestellter Trainingsdaten autonom Schlussfolgerungen ziehen, indem sie Korrelationen, Muster und Gesetzmäßigkeiten erkennen und bewerten.
Das „Black Box“-Problem schafft aber oft Intransparenz und damit fehlende Erklärbarkeit und sorgt für unerwünschte Bias. Um dem Legalitätsprinzip in der Verwaltung Rechnung tragen zu können, müssen schon vor dem Aufsetzen von AI-Lösungen umfassende Wirkungs- bzw. Risikofolgenabschätzungen durchgeführt und AI so konzipiert werden, dass keine automatisierten Entscheidungen getroffen werden, wenn diese eine rechtliche Wirkung entfalten. D.h. menschliche Intervention hat immer das Schlusswort.
Da so gut wie jede Rechtsmaterie durch einen AI-Einsatz tangiert wird, bringt die Inbetriebnahme von Künstlicher Intelligenz eine riesige Verantwortung für Gesetzgebung, Rechtsprechung und Verwaltung mit sich, die nur mit entsprechend angepassten Regulierungsmaßnehmen bewältigt werden kann. Natürlich braucht es bei der rechtlichen Einfassung von AI eine Art Balance zwischen Eingriffsintensität, Rechtswirkung und potentiellen Risiken auf der einen und Guidelines, Soft Law oder Gesetzen auf der anderen. Ein „Framework for Trustworthy AI“, das durch eine eingesetzten High-Level Expert Group der Europäischen Kommission entwickelt wurde, beruht auf ethischen Prinzipien und darauf aufbauenden Kernanforderungen, die die erforderlichen Hilfestellungen geben könnten.
Eine Welt voller Vorurteile
Die Schlussvortragende, Christine Bauer, Senior Post-Doc am Institute of Computational Perception an der JKU Linz, ging der Frage nach, wie AI unsere Wahrnehmung und unseren Umgang mit Computern verändern wird.
Bei der Allgegenwärtigkeit unserer Smart Phones vergessen wir nur allzu leicht, dass in ihnen jede Menge AI steckt, weil uns die winzigen, digitalen Helfer längst zur Routine geworden sind.
AI polarisiert – die einen sprechen vom Ende der Menschheit, für die anderen ist alles super. Doch weder für den extremen AI-Hype, noch für eine Schwarzmalerei gibt es eine sachliche Grundlage. Was aber evident ist, ist die Tatsache, dass Anwendungsbereiche, in denen sensitive Daten analysiert und tiefgreifende und negative Folgen durch den AI-Einsatz zu erwarten sind, besonders im Fokus stehen. Dazu zählen bspw. die Einsatzszenarien Kriminalitätsbekämpfung, der Gesundheitsbereich und das Recruiting.
Es muss einer Gesellschaft zu denken geben, wenn man die Beurteilung der Rückfall-Wahrscheinlichkeit verurteilter Personen alleine einem Algorithmus überlässt. Im Gesundheitsbereich bildet das Phänomen der kognitiven Verzerrung, die sogenannte „Overconfidence“ eine bekannte Gefahrenquelle; speziell, wenn veraltete Trainingsdaten Änderungen in Krankheitsbildern bzw. neuere empirische Befunde und Medikationsmöglichkeiten außer Acht lassen. Auch tritt bspw. im Recruiting verstärkt das Problem eines Bias auf, da mit historischen Trainingsdaten Fehler aus der Vergangenheit nachgeahmt werden.
Es braucht also beim AI-Einsatz immer eine sorgfältige Prüfung der Basisdaten durch die Änderungen im Zeitverlauf erkannt und berücksichtigt werden können.
Hit-„produzierende“ Algorithmen
Zum Abschluss ihres Vortrages zeigte Christine Bauer anhand eines Beispiels aus ihrem Kernforschungsgebiet, dem AI-Einsatz im Entertainment, auf, dass es sich bei AI immer auch um ein breit gefächertes Ökosystem mit diversen Playern handelt, die bei einem Fehlverhalten der AI mit unterschiedlichen Konsequenzen konfrontiert sind.
Im Hit-getriebenen Musik-Business entfaltet ein „falsch“ selektierter Song unterschiedlichste Auswirkungen. Ein mögliches Szenario könnte so aussehen: Der Endkonsument hört unpassende Musik, die Gesellschaft wird durch „Popularity Bias“ auf eine homogene Musikkonsumation eingeschworen, die Plattform-Provider werden durch konzentrierten Zugriff auf nur wenige Musikstücke vor Ressourcen-Probleme gestellt, die Labels sind von möglichen Umverteilungen am Markt betroffen, beim short head, also den wenigen Top-of-the-Top Superstars entscheidet die Anzahl der streams über die Anzahl der Werbedeals und bei der großen Menge der Long Artists ist das Vorkommen in main stream Medien der wichtigste Game changer für wirtschaftliche Unabhängigkeit.
AI hat nachweislich nicht nur eine Systemkomponente, sondern ist immer auch in einen Verwendungskontext eingebettet. Die Interaktion mit Menschen ist dabei oft der Input für den nächsten Schritt. Vielleicht als Resümee am Wichtigsten: Der Mensch ist Teil von Artificial Intelligence.