Wednesday, September 24, 2025

Mehrwert für Manager

Ticker

Wie gezielte Unternehmensangriffe heute aussehen und warum ein mehrschichtiges Security-Konzept, das über technische Lösungen hinausgeht, hilft. 
Von Markus Hirsch, Manager Systems Engineering Austria bei Fortinet.

Markus Hirsch ist Manager Systems Engineering bei Fortinet.

KI-generierte Audio-, Video- und Textinhalte sind zu einem höchst wirkungsvollen Instrument der Desinformation und einer akuten Bedrohung für Unternehmen geworden. Die technischen Hürden bei der Erstellung von Deepfakes sind dank generativer KI, insbesondere Generative Adversarial Networks (GANs), drastisch gesunken. Während sich diese Technologie rasant entwickelt, fehlen in vielen Unternehmen noch effektive Schutzmaßnahmen. Ein Ironscales-Bericht von 2024 zeigt, dass 75 Prozent der befragten Unternehmen innerhalb von zwölf Monaten mindestens einen Deepfake-Vorfall erlebten. Zwei Drittel erwarten zudem, dass Deepfakes Ransomware bald als häufigste Bedrohung ablösen werden.

Typische Angriffsszenarien mit Deepfakes
Deepfake-Angriffsszenarien umfassen weit mehr als nur manipulierte Videos. Ein prominentes Beispiel ist der CEO-Fraud mittels Stimmimitation. Hierbei nutzen Cyberkriminelle KI, um die Stimme von Führungskräften täuschend echt nachzubilden, oft basierend auf gestohlenen Sprachaufnahmen. Ziel ist es, Mitarbeitende, z.B. in der Buchhaltung, zu betrügerischen Überweisungen zu verleiten. Solche Vorfälle können Millionenschäden verursachen.

Auch im Kundenservice werden Deepfakes gezielt eingesetzt. Angreifer nutzen KI-generierte Stimmen, um sich als Kunden auszugeben und so Zugang zu vertraulichen Daten oder Dienstleistungen zu erlangen. Dies stellt insbesondere für Unternehmen, die Sprachbiometrie zur Authentifizierung einsetzen, eine erhebliche Gefahr dar. In automatisierten Callcentern kann eine KI-Stimme den Zugang zu sensiblen Informationen ermöglichen.

Neben finanziell motivierten Angriffen werden reputationsschädigende Desinformationskampagnen mittels Deepfakes zunehmend relevant. Akteure, wie ehemalige Mitarbeitende, Konkurrenten oder Spekulanten, erstellen fingierte Videos oder Audiodateien, die genutzt werden, um Skandale zu inszenieren. Ein solches Deepfake-Video kann sich viral verbreiten, das Vertrauen von Kunden, Partnern und Investoren erschüttern und zu Kursverlusten führen.

Wie Unternehmen sich schützen können
Die Abwehr von Deepfake-Angriffen erfordert ein mehrschichtiges Cybersecurity-Konzept, das technische, organisatorische und kommunikative Maßnahmen integriert:

1. Sensibilisierung der Mitarbeitenden: Regelmäßige Cybersecurity-Trainings zu Social Engineering, Medienmanipulation und aktuellen Angriffsmethoden sind essenziell.

2. Notfallpläne und Playbooks: Unternehmen sollten einen klar definierten Incident-Response-Plan inklusive Kommunikationsstrategien für Deepfake-Angriffe entwickeln.

3. Proaktives Monitoring von Dark Web und sozialen Netzwerken: Cyber Threat Intelligence-Anbieter liefern wertvolle Hinweise auf geplante oder bereits laufende Deepfake-Kampagnen, indem sie Dark-Web-Foren und Social-Media-Plattformen auf manipulierte Inhalte überwachen.

4. Technische Erkennungssysteme: Spezialisierte Tools zur Erkennung manipulierter Medieninhalte nutzen KI-basierte Analyseverfahren, um Unregelmäßigkeiten in Ton, Bild oder Metadaten zu identifizieren.

Es ist höchste Zeit, Cybersecurity-Architekturen neu zu denken – nicht nur, um Betrug zu stoppen, sondern um Vertrauen und Markenwerte in einer manipulativen Medienwelt konsequent zu schützen.

Produkte & ProjekteView all