Franz Hoheiser-Pförtner, stellvertretender Obmann des Vereins Cyber Security Austria, über das Potenzial von künstlicher Intelligenz in der IT und ihre mögliche Rolle bei Sicherheitsfragen.
Der 2018 verstorbene Physiker Stephen Hawking hat bereits im Jahr 2016 bei der Eröffnungsrede für das Leverhulme Centre for the Future of Intelligence (CFI) in Cambridge festgehalten, dass künstliche Intelligenz entweder die Macht hat, Armut und Krankheit auszumerzen oder das Ende der menschlichen Zivilisation, wie wir sie kennen, zu beschleunigen.Im US-Bundesstaat Arizona ist im März 2018 erstmals eine Fußgängerin infolge eines Unfalls mit einem selbstfahrenden Auto gestorben. Die künstliche Intelligenz im selbstfahrenden Auto hat die Fußgängerin, die ein Rad über die Straße abseits eines Fußgängerübergangs geschoben hat, zwar mit den Sensoren erfasst, sie jedoch nicht als Hindernis wahrgenommen und ungebremst überfahren.
Maschinelles Lernen ist eng mit dem Konzept der künstlichen Intelligenz verbunden. Künstliche Intelligenz ist jedoch (noch) nicht in der Lage, Vernunft, Emotionalität, Empathie sowie Kreativität umzusetzen. Künstliche Intelligenz hat kein Verständnis für Zusammenhänge und Hintergrundwissen ist ihr fremd. Maschinelles Lernen, künstliche Intelligenz und der Einsatz von neuronalen Netzwerken sind wie eine »Black Box«, bei der die Nachvollziehbarkeit der Berechnungen, die zu einer Entscheidung führen, nur sehr wenigen Personen möglich ist.
Transparenz erwünscht
Ich schließe mich der Forderung von immer mehr Menschen in Europa an, dass die Entscheidungen und damit abgeleiteten Ergebnisse von künstlichen Intelligenzen nachvollziehbar werden müssen. Nur damit könnten die Aktionen auch hinterfragt und durch den Menschen beeinflusst werden. Jeder von uns sollte eine klare Antwort auf seine Frage erhalten können, weshalb eine künstliche Intelligenz eine Entscheidung so getroffen hat.
Die EU-Kommission will Ethikrichtlinien zur Entwicklung von künstlicher Intelligenz vorlegen, die die Grundsätze des Datenschutzes und der Transparenz widerspiegeln sollen. Weitere Leitlinien zur Interpretation der EU-Produkthaftungsrichtlinie im Zusammenhang mit künstlicher Intelligenz sollen bis Mitte 2019 vorliegen – Europa könnte hier eine wichtige Vorreiterrolle übernehmen.
Bei allen Erfolgen von künstlicher Intelligenz, die bereits vorhanden ist und durch zukünftige Entwicklungen immer mehr unseren Alltag bestimmen wird, scheint mir aber eines ganz wichtig zu sein: Blindes Vertrauen kann gefährlich sein, auch intelligente Algorithmen sollten kritisch im Auge behalten werden.
Unterstützung für Sicherheit
Wird künstliche Intelligenz auch eine Unterstützung für IT-Sicherheit bieten? Wie immer bei solchen Fragen kann das Pendel in eine positive als auch eine negative Richtung ausschlagen. Natürlich kann ein Großteil der teuren Auswertungsarbeit im Security-Operation-Center durch künstliche Intelligenz ersetzt werden, aber hier ist aus meiner Sicht nur die gute Zusammenarbeit mit der menschlichen Intelligenz sinnvoll. Die Vorfilterung der Informationen oder das Erkennen von bestimmten Angriffsmustern ist nicht nur eine Kosteneinsparung, sondern auch ein Vorteil für das Personal, die mühsame Arbeit abzugeben. Sehr oft hat diese Abgabe an die KI auch noch den Vorteil, dass viele Falsch- oder Fehlmeldungen durch kostengünstigere Prozesse abgehandelt werden.
Die Gefahr eines Burnouts der Mitarbeiterinnen und Mitarbeiter kann damit auch entschärft werden. Die Attraktivität dieser Arbeitsplätze durch die Unterstützung der KI steigt und damit könnte auch das Problem der Fluktuation in diesem Berufsfeld entschärft werden. Ein wichtiger Aspekt ist aber dabei, dass die handelten Personen nicht in eine »digitale Demenz« rutschen und immer mehr an Wissen verlieren beziehungsweise nicht mehr anwenden können.