Freitag, November 22, 2024



Bei wichtigen Entscheidungen ist eine zweite Meinung oft hilfreich. Doch was, wenn diese zweite Meinung von einer Künstlichen Intelligenz (KI) statt von einem Menschen stammt? Können wir Maschinen vertrauen? Ein Kommentar von Benedikt Bonnmann, Leiter Line of Business Data & Analytics, adesso SE.


Bei einer KI-basierten Produktempfehlung im Online-Shop eines Händlers mag die Antwort darauf noch egal sein. Versicherungen oder Banken hingegen sollten Erklärungen liefern, wenn ein Algorithmus eine Leistung verweigert oder einen Kreditantrag ablehnt. Nicht viel anders sieht es bei Unternehmen aus, die aufgrund einer KI-Vorauswahl Bewerbende aussortieren. Wenn es um Gleichbehandlung oder, ganz allgemein, um ethische Fragen geht, dürfen wir uns nicht hinter Computerentscheidungen verstecken. Vielmehr brauchen Algorithmen Ziele und Grenzen, die Menschen nachvollziehbar und transparent definieren – ansonsten droht ein Vertrauensverlust auf Seiten der Verbraucherinnen und Verbraucher.

Nun mögen die Zeiten, in denen KI mal zur Wunderwaffe verklärt, mal zur Gefahr für den Menschen aufgebauscht wurde, vorbei sein. Realismus und Sachlichkeit statt Technikangst bestimmen heute in aller Regel die Debatte rund um die Technologie. Laut der jüngsten KI-Studie von adesso haben  Unternehmensverantwortliche auch diesen Eindruck: 61 Prozent sind davon überzeugt, dass Verbraucher KI als vertrauenswürdig einstufen. Dieses grundlegende Vertrauen darf aber nicht dadurch verspielt werden, dass – ob bewusst oder unbewusst – die Algorithmen eigenmächtig handeln. Denn auch das belegt die Untersuchung: 80 Prozent der Entscheiderinnen und Entscheider finden, dass KI-Anwendungen nicht ohne menschliche Kontrolle eingesetzt werden dürfen. 54 Prozent sind zudem der Meinung, dass KI-Technologien stärker reguliert werden müssen, um Manipulationen jeder Art zu verhindern.

Unternehmen tun deshalb gut daran, eine sogenannte Explainable AI zu schaffen. Diese speziellen Anwendungen öffnen die Black Box, indem sie transparent arbeiten und Erklärungen für eine getroffene Entscheidung liefern. Das reicht von der Herkunft und Charakteristika der Trainingsdaten über die Durchschaubarkeit und Verständlichkeit des Algorithmus bis hin zum Einhalten ethischer Grundwerte. 

In die gleiche Richtung geht aktuell die Diskussion auf Seiten des Gesetzgebers. Mit dem Artificial Intelligence Act der EU steht eine Verordnung vor der Tür, die – sobald in nationale Gesetze gegossen – weitreichende Folgen haben wird. Mit dem Act will die EU ein Rahmenwerk schaffen, das die Entscheidungen von KI-Anwendungen kategorisiert und den Einsatz gegebenenfalls stärker kontrolliert. Dies soll negative Auswirkungen auf die Sicherheit, Gesundheit und Grundrechte von Menschen verhindern. Ähnlich wie bei der Datenschutz-Grundverordnung (DSGVO) wird das geplante Gesetzeswerk vermutlich sogar über die Grenzen der EU hinaus Wirkung zeigen. Denn alle Anbieter, die innerhalb des europäischen Wirtschaftsraums KI-basierte Produkte und Dienste verkaufen wollen, müssen sich an den Artificial Intelligence Act halten. Das Regelwerk sieht zudem ähnlich drastische Strafen vor: Wer die Vorgaben verletzt, muss laut Entwurf mit einem Bußgeld von bis zu 30 Millionen Euro oder sechs Prozent des weltweiten Jahresumsatzes rechnen. Die Erfahrungen mit der DSVGO zeigen: Die zuständigen Behörden sind keine zahnlosen Tiger. Sie ahnden Verstöße konsequent.  

Zwar sind einige Punkte rund um die Umsetzung des Artificial Intelligence Act bislang noch nicht geklärt. Für Unternehmen gilt es trotzdem jetzt schon, die Weichen zu stellen und das Risiko ihrer KI-Systeme zu bewerten. Es wäre zu einfach, sich angesichts der Wahrscheinlichkeit, dass das Gesetzespaket nicht vor 2024 in Kraft treten wird, entspannt zurückzulehnen. Wer das macht, läuft Gefahr, später unter Zeitdruck zu geraten. Zudem haben Verbraucherinnen und Verbraucher schon heute ein Recht auf eine Explainable AI – Gesetze hin oder her.

Log in or Sign up