Anomalieerkennung in der IT-Sicherheit – Wie KI Bedrohungen erkennt
Anomalieerkennung IT-Sicherheit: Wie KI-basierte Systeme Cyberangriffe erkennen, bevor Schaden entsteht. Praxisleitfaden für KMU.
Weiterlesen
Stellen Sie sich vor: Ihr CFO erhält einen Videoanruf. Auf dem Bildschirm sieht er den CEO des Unternehmens, hört seine Stimme am Telefon, erkennt seine Mimik. Die Führungskraft bittet dringend um eine Überweisung in Höhe von 490.000 Euro auf ein neues Bankkonto — vertraulich, sofort. Der CFO tätigt die Zahlung.
Das Problem: Der CEO war nicht echt. Jedes Gesicht und jede Stimme in dieser Videokonferenz war ein Deepfake — eine durch KI manipulierte Fälschung. Genau so ein Vorfall ist 2024 einem Unternehmen in Singapur passiert — 499.000 Dollar Schaden durch einen einzigen gefälschten Zoom-Call. CEO-Fraud mit Deep Fakes ist die effektivste Betrugsmasche, die Cyberkriminelle je eingesetzt haben.
Klassischer CEO-Fraud funktionierte per E-Mails. Ein Betrüger schrieb gezielt im Namen des Geschäftsführers: „Bitte überweisen Sie dringend 50.000 Euro auf dieses Bankkonto." Aufmerksame, misstrauische Mitarbeiter erkannten die gefälschte Absenderadresse oder den ungewöhnlichen Ton. Diese Angriffe ließen sich noch abwehren — doch mit manipulierten Deepfakes wird die Täuschung überzeugend genug, um selbst erfahrene Fachleute zu verleiten.
Deepfake-Technologie hat den Betrug revolutioniert. Die Bedrohung für Unternehmen ist real — und die Zahlen alarmierend:
Cyberkriminelle brauchen heute nur drei Sekunden Audiomaterial — etwa aus einem LinkedIn-Video, einem Podcast oder einer Telefonansage — um die Stimme des Geschäftsführers mit 85 Prozent Übereinstimmung nachzuahmen. Für einen überzeugenden Deepfake-Videoanruf reichen öffentlich verfügbare Fotos und Videos. Die Fälschungen wirken täuschend echt.
Laut Allianz Trade stiegen die Schäden durch CEO-Fraud mit Deepfakes 2025 um 81 Prozent. Bereits 2024 verdoppelten sich die Betrugsversuche per Deep Fake in Deutschland. Das BSI warnt vor einer neuen Welle KI-gestützter Social-Engineering-Angriffe und stuft die Nutzung von Deepfakes als ernsthafte Bedrohung für die Informationssicherheit ein.
CEOs und hochrangige Führungskräfte im Mittelstand sind besonders attraktive Ziele für Kriminelle. Betrüger können sich dank KI als CEO oder Chief Financial Officer (CFO) ausgeben und Mitarbeiter verleiten, dringend hohe Summen auf manipulierte Bankkonten zu überweisen. Das Risiko: Die Fälschung ist so überzeugend, dass selbst geschulte Mitarbeiter die Täuschung nicht erkennen.
Flache Hierarchien mit direktem CFO-Zugang zu Überweisungssystemen. Fehlende Dual-Authorization für Transaktionen unter 100.000 Euro. Eine Kultur, in der Anweisungen der Führungskraft selten hinterfragt werden. Betrüger kennen diese Schwachstelle und nutzen sie gezielt aus.
Die Schwachstelle beim CEO-Betrug ist nicht die Technik — es sind die Prozesse. Wo ein einzelner Mitarbeiter auf Anweisung einer vermeintlichen Führungskraft eine Transaktion über hohe Summen auslösen kann, stellt CEO-Fraud ein existenzielles Risiko für Unternehmen dar.
Laut einer Gartner-Studie vom September 2025 haben 62 Prozent der Unternehmen in den vergangenen zwölf Monaten Deepfake-Angriffe erlebt. Die Betrugsmaschen der Kriminellen werden immer raffinierter — und die manipulierten Angriffsmethoden durch KI immer schwerer zu erkennen.
Cyberkriminelle nutzen für Deepfake-Betrug verschiedene Kanäle. Der gefälschte Videoanruf ist nur eine Variante. Der Angreifer imitiert dabei die Stimme oder das Gesicht einer hochrangigen Führungskraft. So gehen Betrüger typischerweise vor:
| Angriffsmethode | Beschreibung | Gefährdung |
|---|---|---|
| Voice-Cloning-Anruf | Kriminelle imitieren die Stimme des CEOs und rufen die Buchhaltung an | Sehr hoch |
| Deepfake-Videokonferenz | Gefälschter Videoanruf mit manipulierten Bild und Ton der Führungskraft | Hoch |
| Business Email Compromise + Deepfake | Erst eine täuschend echte E-Mail, dann ein nachgeahmter Rückruf zur Bestätigung | Sehr hoch |
| Lieferanten-Betrug | Betrüger geben sich als Geschäftspartner aus und ändern Bankverbindungen | Hoch |
Die Gefahren von Deepfakes gehen über CEO-Fraud hinaus. Kriminelle nutzen die manipulierte Technologie auch, um persönliche Daten und sensible Daten zu stehlen. Dabei geben sich die Angreifer überzeugend als hochrangige Führungskräfte aus und tätigen dringend vertrauliche Anfragen.
Unsere interessanteste Datenpanne war ein Dienstleister mit nur 15 Mitarbeitern, bei dem der Geschäftsführer eine E-Mail von einem Geschäftspartner bekam. Die E-Mail kam wirklich von diesem Geschäftspartner — trotzdem war es ein Angriff. Social Engineering wird durch KI noch gefährlicher, weil die Täuschung täuschend echt ist.
Werden Sie misstrauisch bei diesen Warnsignalen — sie deuten auf einen Deepfake-Betrugsversuch hin:
Unternehmen müssen eine Kombination aus technischen und organisatorischen Maßnahmen umsetzen. Führen Sie regelmäßige Schulungen durch und schaffen Sie klare Prozesse. So können Sie CEO-Fraud effektiv schützen:
Kann ein einzelner Mitarbeiter eine Zahlung über 10.000 Euro tätigen? Gibt es ein Codewort für telefonische Anweisungen? Wurden Ihre Mitarbeiter in den letzten 12 Monaten zu Deepfake-Angriffen geschult? Wenn Sie eine dieser Fragen mit Nein beantworten, handeln Sie jetzt.
| Maßnahme | Aufwand | Wirksamkeit | Sofort umsetzbar? |
|---|---|---|---|
| Vier-Augen-Prinzip | Gering | Sehr hoch | Ja |
| Codewort-System | Minimal | Hoch | Ja |
| Callback-Verifizierung | Gering | Sehr hoch | Ja |
| Security-Awareness-Schulung | Mittel | Hoch | Binnen 2 Wochen |
| Technische Deep-Fake-Erkennung | Hoch | Mittel | Nein (Pilotphase) |
Lesetipp: Dieses Thema wird in unserem kostenlosen E-Book „CYBER-SICHER — Der IT-Sicherheits-Guide für den deutschen Mittelstand" (47 Seiten, 2026-Edition) ausführlich behandelt. Jetzt herunterladen →
Sind Ihre Mitarbeiter auf Deepfake-Angriffe vorbereitet?
Wir zeigen Ihnen in 15 Minuten, wie Sie Ihr Unternehmen effektiv gegen CEO-Fraud und Deepfake-Betrug absichern — mit Schutzmaßnahmen, die sofort greifen.
Erstgespräch buchen →Bei CEO-Fraud geben sich Betrüger als Geschäftsführer oder Führungskraft aus und verleiten Mitarbeiter zu Überweisungen. Mit Deepfake-Technologie können Kriminelle Stimmen imitieren und sogar Videokonferenzen täuschend echt fälschen — drei Sekunden Audiomaterial reichen für eine 85-prozentige Stimmkopie. Der Vorfall in Singapur 2024 zeigt, wie real die Bedrohung ist.
Warnsignale sind dringender Zeitdruck, untypische Überweisungswege, neue Bankkonten, Bitten um Geheimhaltung und Anrufe außerhalb der üblichen Geschäftszeiten. Seien Sie misstrauisch, wenn die Stimme am Telefon zu einer vertraulichen Zahlung auffordert. Im Zweifel: Auflegen und die Person unter der bekannten Nummer zurückrufen.
Die effektivsten Sicherheitsmaßnahmen sind das Vier-Augen-Prinzip für Überweisungen, ein geheimes Codewort für telefonische Zahlungsanweisungen, die Callback-Verifizierung über bekannte Nummern und regelmäßige Security-Awareness-Schulungen. Die Sensibilisierung der Mitarbeiter ist das Fundament für den Schutz gegen Deepfake-Betrug.
Laut Gartner haben 62 Prozent der Unternehmen in den vergangenen zwölf Monaten Deepfake-Angriffe erlebt. In Deutschland stieg die Zahl von Deepfake-Betrug um 1.100 Prozent. Dass Unternehmen jeder Größe betroffen sind, zeigen die Vorfälle aus 2024 und 2025.
Das Erstellen von Deepfakes selbst ist nicht verboten. Strafbar wird es, wenn Deepfakes für Betrug, Erpressung, Identitätsdiebstahl oder Verleumdung eingesetzt werden. CEO-Fraud ist als Betrug nach § 263 StGB strafbar. Für Compliance müssen Unternehmen organisatorische Maßnahmen zum Schutz umsetzen.
Inhaltsverzeichnis
Anomalieerkennung IT-Sicherheit: Wie KI-basierte Systeme Cyberangriffe erkennen, bevor Schaden entsteht. Praxisleitfaden für KMU.
WeiterlesenSecurity Awareness Training für Unternehmen: Inhalte, Methoden und wie Sie Phishing-Angriffe durch gezielte Mitarbeiterschulungen verhindern.
WeiterlesenCyberversicherung für KMU — Kosten, Anforderungen der Versicherer und welche IT-Sicherheit Sie brauchen. Praxisleitfaden für kleine und mittlere Unternehmen.
Weiterlesen
Über den Autor
Datenschutzberater & Geschäftsführer
Nils ist zertifizierter Datenschutzbeauftragter und Geschäftsführer der frag.hugo Informationssicherheit GmbH. Er berät mittelständische Unternehmen zu DSGVO, NIS2 und IT-Sicherheit – praxisnah und verständlich.
Vereinbaren Sie ein unverbindliches Erstgespräch mit unseren Experten. Wir beraten Sie persönlich zu Datenschutz, NIS2 und IT-Sicherheit.