Die Forschung geht davon aus, dass KI künftig auch menschenähnliche, kognitive Fertigkeiten haben wird - die Frage laute nicht mehr „ob“, sondern „wann“. Worauf Unternehmen daher achten sollten, wenn sie die Einführung einer KI planen, hat der Software-Hersteller proAlpha zusammengefasst.
Schon heute lassen sich dank KI schnellere Ergebnisse und neue Erkenntnisse erzielen. Die KI lernt dabei autonom – also ohne andauernde Supervision – und andererseits adaptiv: Je nachdem, was wir ihr zeigen, wird sie andere Dinge finden und lernen.
Was durchaus positiv klingt, kann jedoch auch negative Auswirkungen haben. Ein bekanntes Beispiel dafür ist der sogenannte AMS-Algorithmus, der Arbeitssuchende in drei Klassen einteilt: in hohe, mittlere und niedrige Chancen für eine Festanstellung innerhalb der nächsten sechs Monate. Kritiker werfen diesem System unter anderem vor, bestehende gesellschaftliche Missstände „einzubetonieren“ - denn die KI trifft die Entscheidungen auf Basis einer bestimmten Weltanschauung, die in ihren Algorithmus eingeflossen ist. Damit berührt sie ethische Fragen, die – wenn nicht angemessen beachtet – schnell zu Problemen und öffentlicher Kritik führen können.
Die größten Herausforderungen
Der Themenkomplex KI und Ethik trifft aktuell vor allem in folgenden Bereichen aufeinander:
1. Bias: Das sind, vereinfacht gesagt, in Algorithmen gegossene Vorurteile und Ressentiments. Die Folgen sind etwa, dass ein KI-System bei gleicher Qualifikation für offene Stellen nur Männer oder nur Menschen mit heller Haut vorschlägt.
2. Fehlende Transparenz: Es gibt Situationen, in denen sich nicht feststellen lässt, wie Algorithmen bei bestimmten Daten-Inputs zu bestimmten Outputs kommen. Um dieses Problem in den Griff zu bekommen, arbeiten Forscher*innen am Thema „Explainable AI“.
3. Datenschutz: Dieser ist ein Gut, aber auch ein Recht, das es gerade im Zusammenhang mit KI zu schützen gilt. Helfen sollen hier technische Lösungen wie Anonymisierung oder Regulierungsansätze.
Ethisch bedenkliche Ergebnisse verhindern
Um das Risiko zu minimieren, dass eine KI-Lösung moralisch unerwünschte Ergebnisse liefert, können Unternehmen drei einfache Ansätze verfolgen.
1. Aufklärung betreiben: Es braucht ein Bewusstsein und Verständnis für diese Problematik. Das ebnet auch den Weg für einen strategischen Ansatz, wenn es um den Einsatz von KI geht. Außerdem verhindert es, dass KI erst blind implementiert wird und dann später Feuer gelöscht werden müssen.
2. Standpunkt beziehen: Es muss eine vom Management getragene Erklärung geben, – eine Art Manifest – wie das Unternehmen zu Ethik und KI steht und was die Grundbedingungen abseits von Gesetzen sind, zu denen es sich verpflichtet fühlt.
3. Prozesse aufsetzen: Es sind Abläufe zur systematischen, regelmäßigen Überprüfung des Risikopotenzials der KI-Anwendungen notwendig. Diese reichen von der Konzeption über die Planung und Entwicklung bis hin zur Nutzung.
Fazit: Es grüßen öffentliche Kritik und Glaubwürdigkeitsverlust
Wer mit datengetriebener KI arbeitet, beispielsweise um produzierte Ware in „OK“ und „Ausschuss“ zu klassifizieren, stellt damit immer einen sehr starken Generalisierungsanspruch. Denn die Grundaussage hierbei lautet, dass sich auf Basis beobachteter Beispiele eine akkurate Aussage über zukünftige Ereignisse treffen lässt. Das bedeutet zwar, dass sich KI-Lösungen gut skalieren lassen. Gleichzeitig werden aber auch Fehler und ethisch bedenkliche Ergebnisse mitskaliert.
Daraus ergibt sich, dass KI-Projekte sehr gut geplant werden müssen. Das Einbetten von KI in die bestehende Organisation bedeutet einen ernstzunehmenden und langfristigen Change-Prozess, der nicht nur technische Aspekte umfasst, sondern auch so manche unternehmerische Grundüberzeugung in Frage stellt.
Unternehmen, die das Thema nicht mit der nötigen Vorsicht angehen, laufen Gefahr, über öffentliche Kritik und nachhaltigen Glaubwürdigkeitsverlust ihre ‚License to operate‘ zu verlieren. Mehrwert definiert sich heute für Kunden nicht mehr ausschließlich durch Funktionalität, sondern zunehmend auch über ethische Aspekte und die Berücksichtigung gesellschaftlicher Erwartungen.