Die Entwicklung künstlicher Intelligenz schreitet voran. Zunehmend warnen prominente Stimmen vor den zu wenig gesehenen Gefahren.
Selbstfahrende Autos, clevere Sprachassistenten, immer besser Schach und sogar Go spielende Computerprogramme, hilfreiche Chatbots: Künstliche Intelligenz ist eine rasant wachsende Technologie, für die sich täglich neue Anwendungsgebiete finden lassen. Wenn vor ihnen gewarnt wird, dann meist in Zusammenhang mit drohender Verdrängung von Menschen vom Arbeitsmarkt. Freunde von Science-Fiction-Filmen haben allerdings ganz andere Ängste: Immerhin haben manche KIs, wie etwa jene in der Filmreihe »Terminator«, auch die Ausrottung ihrer Schöpfer im Sinn.
Was nach gruseligen Hirngespinsten klingt, wiederholen aber auch prominente Stimmen aus Wissenschaft und Wirtschaft. Die Entwicklung einer aus dem Ruder laufenden KI könnte sich als »größte Katastrophe der Menschheit« entpuppen, meint etwa der berühmte Physiker Stephen Hawking. Schon 2015 hatte der Wissenschafter mit 1.000 Kollegen zu einem Bann für die Entwicklung autonomer Waffensysteme aufgerufen, um ein neues Wettrüsten auf dem Feld militärischer KI und Robotik zu verhindern.
Elon Musk, Technik-Skeptiker?
Nun stimmt ein weiterer berühmter Pionier dem Physikgenie prominent zu: Dem Tesla-Gründer, Innovator und potenziellen Mars-Besiedler Elon Musk sagt man ja für gewöhnlich kaum Berührungsängste mit neuen Technologien nach, doch in Sachen KI packte auch er kürzlich die ganz großen rhetorischen Geschütze aus.
Uneingeschränkte KI-Entwicklung stelle das »größte Risiko für unsere Zivilisation« dar – deshalb, so der überraschende Aufruf des Self-made-Milliardärs, sei eine proaktive Regulierung der Technologie durch die Staatengemeinschaft bitter notwendig. Im Unterschied zu anderen Gefahren sei eine bloß reaktive Regulierung – sprich, die nachträgliche Beurteilung der jeweiligen potenziellen Gefahr – unter Umständen »für die gesamte menschliche Zivilisation« existenziell lebensbedrohend. Auch Musk engagiert sich bereits seit längerer Zeit auf diesem Gebiet und ist wiederholt als Warner vor den Gefahren unregulierter KI-Entwicklung aufgetreten. Eine Milliarde US-Dollar investierte der südafrikanische Visionär bereits 2015 in einen Forschungsfonds, der Wissenschaftern die Mittel zur Risikoabschätzung und benevolenten sozialen Entwicklung der potenziell desaströsen Technologie zur Verfügung stellen soll.
Besondere Sorge macht Musk und anderen Kritikern dabei vor allem die Unberechenbarkeit der Technik: Wie sich eine dem Menschen intellektuell nahekommende oder ihn sogar übertreffende KI verhalten würde, ist kaum abschätzbar, vor allem, weil die – schon jetzt systematisch einprogrammierte – Fähigkeit zum eigenständigen Lernen und damit zur evolutionären Selbstverbesserung ab einem kritischen Punkt zu exponentiellen Fortschrittssprüngen führen könnte. Das Resultat, so die Befürchtung, wären hyperkomplexe Algorithmen und Systeme, deren Funktionieren und Entscheidungen für Menschen letztlich undurchschaubar – und möglicherweise schädlich wären. Klingt nach Science-Fiction? Genau wie selbstfahrende Autos – und Menschen auf dem Mars.