Künstliche Intelligenz (KI) gilt als ein Megatrend, der fast alle Probleme lösen soll. Nicht wenige sehen darin einen Sprung in unserer Entwicklung. Einige glauben sogar, dass uns diese Technologie nahezu alles abnehmen wird. Sollte das passieren, hätten wir ein Problem, denn etwas Wesentliches geht dadurch verloren.
Aufpassen bei dem, was man sich wünscht
Stellen wir uns vor, es gäbe eine echte künstliche Intelligenz, die wir mit der Aufgabe betrauen, die Ursachen der Klimakrise und die daraus resultierenden Probleme zu lösen. Die KI soll dabei eigenständig agieren und Handlungen ausführen. Eine echte KI würde eine Analyse der Ist-Situation vornehmen, völlig sachbezogen entlang eines evidenzbasierten Pfads strukturiert die Ursache des Problems identifizieren und eliminieren. Folglich würde die vom Menschen geschaffene KI in letzter Konsequenz den Menschen, der die Ursache der Klimakrise ist, auslöschen.
KI mit implementierten Grenzen
Auch wenn das beschriebene Szenario so schnell nicht eintreten wird, zeigt es doch ein wesentliches Dilemma. Eine potenzielle KI wird vermutlich so entwickelt sein, dass sie ihren Schöpfer bei der Problemlösung ausspart. Das wiederum zeigt, dass in jeder KI die Grenzen ihrer Entwickler*innen implementiert sein dürften. Damit hätte jede KI eine Vielzahl an Grenzen, was der eigentlichen Bedeutung von Intelligenz widerspricht.
Nicht alles, was wie KI aussieht, ist auch intelligent
Wir müssen zunächst feststellen, dass es aktuell keine echte KI gibt. Wir müssen eher von »Machine Learning« oder nur »Deep Learning« reden. Diese Begriffe haben zwar viel miteinander zu tun, werden aber oft durcheinandergebracht. Machine Learning erfordert noch immer ein recht hohes Maß an menschlichen Eingriffen, um Daten im Vorfeld so aufzubereiten, dass diese für den Algorithmus nutzbar sind. Bei Deep Learning wird versucht, das neuronale Netz des menschlichen Gehirns nachzubilden, um Muster zu erkennen. Diese Deep-Learning-Prozesse müssen oft intensiv und aufwändig eingelernt werden und können dann nur einen bestimmten Teilbereich dessen, was Intelligenz eigentlich ausmacht.
Bei künstlicher Intelligenz landen wir jedoch erst, wenn Maschinen in der Lage sind, Dinge selbstständig auszuführen, ohne dass der Mensch eingreift. Hier gibt es die Unterscheidung zwischen starker und schwacher KI. Eine starke KI dürfte etwa das sein, was der Charakter »Data« in Star Trek ist: Ein Androide, der in der Lage ist, sich eigenständig weiterzuentwickeln. Ok, das ist sicher ein sehr idealer Zustand von KI, denn »Data« kommt nicht auf dumme Gedanken. Aber eine starke KI wäre grundsätzlich auch in der Lage, sich in einer Weise zu entwickeln, die uns schadet. Um in der Darstellung der Filmwelt zu bleiben, könnte eine starke KI auch das tun, was in Matrix dargestellt wird – nämlich die Menschheit als Energiezellen versklaven. Doch so weit sind wir zum Glück noch lange nicht.
Neben Machine Learning und Deep Learning existieren aktuell erste Ansätze einer schwachen KI. Diese kann vordefinierte Aufgaben übernehmen. ChatGPT dürfte man als schwache KI einstufen, denn auch wenn diese Anwendung in der Lage ist, alle möglichen Antworten zu finden, so tut sie nur eine ganz bestimmte Sache. Sie durchforstet das Netz nach Informationen zu einer Fragestellung, ähnlich wie Suchmaschinen das tun. Sie baut dann die erhaltenen Information in Texten oder Programmen zusammen. Jedoch hat man gesehen, dass bei dieser Anwendung auch Unsinn rauskommen kann, denn die Quelle ist und bleibt das Internet und da kann bekanntlich jede*r jeden erdenklichen Schwachsinn reinschreiben.
KI ist nicht die Lösung unserer Probleme
Punktuell sind Algorithmen Menschen überlegen. Aber um Probleme lösen zu können, braucht es neben der Fähigkeit, Daten auszuwerten, einiges mehr:
Kreativität: Gute Ideen resultieren nicht selten aus unlogischen und unerwarteten Gedankengängen. Bis diese durch eine KI möglich sind, dürfte es noch lange dauern und inwiefern sie überhaupt möglich sind, ist aktuell noch offen.
Medienkompetenz: Schon heute haben viele Menschen Probleme, Informationen richtig einzuordnen. Wenn Algorithmen immer mehr dominieren, dürfte diese Fähigkeit nahezu vollständig verschwinden. Das sind beste Voraussetzungen für Leute, die eher keine guten Absichten haben.
Eigenständiges Denken und Handeln: Vielleicht kennen Sie die berühmte Aussage »Computer says no« aus der Serie »Little Britain«. In einer Szene redet eine Sachbearbeiterin einer schwangeren Frau ein, sie könne nicht kurz vor der Entbindung stehen, weil im Computer ein anderer Geburtstermin steht als der aktuelle Tag. Auch wenn es sich hier um Comedy handelt, ist das Problem schon heute sichtbar. Es wird in allen Altersgruppen viel Unsinn geglaubt, solange dieser zu der eigenen Meinung passt. Die Fähigkeit, etwas evidenzbasiert zu hinterfragen, geht zunehmend verloren. So ist es kaum möglich, neues Wissen zu generieren und sich weiterzuentwickeln.
Dass eine KI Kreativität entwickelt und tatsächlich eigenständig agiert, ist derzeit noch nicht absehbar. Wir müssen dazu folglich selbst in der Lage sein sowie dazu, uns zu verändern. KI-Algorithmen können eine Ergänzung sein. Für die Lösung der Klimakrise wird uns KI aber ganz sicher nicht helfen, denn hier geht es primär um unsere eigene Veränderungsfähigkeit.
Zum Autor
Mario Buchinger ist (Ökonomie-)Physiker, Musiker und Autor. Der Lean- und Kaizen-Spezialist war zehn Jahre als Angestellter und Führungskraft bei Daimler und Bosch tätig, bevor er 2014 das Unternehmen Buchinger|Kuduz gründete, das auf Strategie-, Prozess- und Klimatransformation spezialisiert ist. Zu den Kunden zählen neben Industrieunternehmen unter anderem Banken und Behörden.
(Bilder: iStock, Schaeffler)