Auch Cyberkriminelle setzen zunehmend Künstliche Intelligenz ein. Einfache Sicherheitstools reichen zur Abwehr nicht mehr aus, meint Michael Veit, Cybersecurity-Experte bei Sophos Technology.
Ist Künstliche Intelligenz mehr Freund oder Feind im Kampf gegen Cyberangriffe?
Michael Veit: KI boomt tatsächlich auf beiden Seiten. Der Einsatz künstlicher Intelligenz in der Cybersicherheit wird sich fortsetzen und beschleunigen, da leistungsstarke maschinelle Lernmodelle ihren Wert bei der Erkennung von Bedrohungen und der Priorisierung von Warnungen unter Beweis stellen. Auf der anderen Seite ist zu erwarten, dass auch Cyberkriminelle zunehmend KI einsetzen. In den nächsten Jahren sind Angriffe zu erwarten, die von KI-gestützten Desinformationskampagnen und gefälschten Social-Media-Profilen bis hin zu Watering-Hole-Angriffen auf Webinhalte, Phishing-E-Mails und mehr reichen, da fortschrittliche Deepfake-Video- und Sprachsynthese-Technologien verfügbar werden.
Bieten Management- und Sicherheitsstandards diesbezüglich ausreichend Schutz?
Veit: Es reicht nicht mehr aus, wenn Unternehmen davon ausgehen, dass sie sicher sind, indem sie einfach Sicherheitstools überwachen und vermeintlich sicherstellen, dass hierdurch bösartiger Code erkannt wird. Bestimmte Kombinationen von Erkennungen oder sogar Warnungen sind das moderne Äquivalent eines Einbrechers, der im Vorgarten für eine Ablenkung sorgt, während er durch die Hintertür einsteigt. IT-Sicherheitsteams müssen alle Alarme untersuchen, selbst solche, die in der Vergangenheit unbedeutend gewesen sein mögen.
Eindringlinge von heute haben gelernt, mit ihren Schleichfahrten ganze Netzwerke zu übernehmen und sind deshalb gefährlich wie nie. Eine effektive Antwort auf diese Gefahr ist Cybersecurity »as a Service« mit Angeboten wie Managed Detection and Response (MDR), bei dem Unternehmen sich die Hilfe externer Cybersecurity-Spezialisten sichern, die rund um die Uhr zur Verfügung stehen und das Firmennetzwerk auf Anomalien checken.
Ist der Mensch das größte Sicherheitsrisiko?
Veit: Da der Anwender mit unbedachtem Verhalten, zum Beispiel dem Klicken eines Links, ohne lang nachzudenken, viele Sicherheitssysteme aushebeln kann, liegt hier tatsächlich ein enormes Risiko vor. Dieses wird durch den Siegeszug von KI noch einmal potenziert, da die Technologie bislang effektive Awareness-Trainings zum Teil aushebelt. KI-gesteuerte Sprach- und Inhaltsgeneratoren wie ChatGPT entfernen verräterische Elemente aus Scams, Phishing-Versuchen und anderen Social-Engineering-Angriffen. Eine gefälschte E-Mail vom »Vorgesetzten« kann dank Künstlicher Intelligenz überzeugender als jemals zuvor klingen und die Beschäftigten werden es unzweifelhaft schwerer haben, Fakt und Fiktion zu unterscheiden.
Im Falle dieser Betrügereien sind die Risiken von KI-Sprachtools nicht technischer Art. Sie sind sozialer Natur – und damit beängstigend. Deshalb gilt noch mehr als zuvor: Jede E-Mail muss kritisch hinterfragt werden und bei Bedenken sollte auf einem anderen Kommunikationsweg eine Bestätigung eingeholt werden.
Mehr zum Thema KI & Cybersicherheit: IT und OT im Visier