Einordnung von Bedrohungen durch Deepfakes
Bedrohungen durch synthetische Medien wie Deepfakes stellen eine wachsende Herausforderung für alle Nutzer moderner Technologien und Kommunikation dar.

Bedrohungen durch synthetische Medien wie Deepfakes stellen eine wachsende Herausforderung für alle Nutzer moderner Technologien dar. Wie bei vielen Technologien lassen sich synthetische Medien sowohl für positive als auch für böswillige Zwecke einsetzen -- das verdeutlicht das Paper “Contextualizing Deepfake Threats to Organizations” von NSA und FBI, das hier näher beschrieben wird. Obwohl es bisher wenige Hinweise auf den breiten Einsatz synthetischer Medien durch staatlich unterstützte Akteure gibt, deutet die zunehmende Verfügbarkeit und Leistungsfähigkeit dieser Techniken darauf hin, dass auch weniger versierte Cyberakteure sie künftig häufiger und raffinierter nutzen werden. Die Bedrohung durch synthetische Medien erstreckt sich auf Technologien rund um Text, Video, Audio und Bilder, die online und in sämtlichen Kommunikationskanälen zum Einsatz kommen. Deepfakes sind dabei eine besonders besorgniserregende Kategorie: Sie nutzen künstliche Intelligenz und maschinelles Lernen (KI/ML), um glaubhafte und hochrealistische Medien zu erzeugen. Die gravierendsten Bedrohungen durch den Missbrauch synthetischer Medien umfassen Techniken, die die Marke eines Unternehmens schädigen, Führungskräfte und Finanzverantwortliche imitieren und betrügerische Kommunikation nutzen, um Zugang zu Netzwerken und sensiblen Informationen zu erlangen.
Unternehmen können verschiedene Maßnahmen ergreifen, um Deepfake-Bedrohungen zu identifizieren, sich dagegen zu verteidigen und darauf zu reagieren. Dazu gehört der Einsatz unterschiedlicher Technologien zur Erkennung von Deepfakes und zur Bestimmung der Medienherkunft -- darunter Echtzeit-Überprüfungen, passive Erkennungstechniken und aktive Authentifizierungsverfahren. Darüber hinaus können Unternehmen die Auswirkungen bösartiger Deepfake-Techniken minimieren, etwa durch Informationsaustausch, die Planung und das Durchspielen von Reaktionsszenarien sowie gezieltes Mitarbeitertraining. Insbesondere Phishing mit Deepfakes wird künftig eine noch größere Herausforderung darstellen, weshalb sich Unternehmen proaktiv darauf vorbereiten sollten, solche Angriffe zu erkennen und abzuwehren.
Arten von Bedrohungen durch Deepfakes
Für synthetisch erzeugte oder manipulierte Medien gibt es verschiedene Bezeichnungen. Zu den geläufigsten zählen: Deepfakes, Faux-to und KI-generierte Medien.
Oberflächliche Fälschungen
Multimedia-Inhalte, die ohne Machine Learning oder Deep Learning manipuliert wurden, werden oft als oberflächliche oder billige Fälschungen (Shallow Fakes) bezeichnet. Trotz ihrer technischen Einfachheit können sie ebenso wirkungsvoll sein wie anspruchsvollere Methoden. Sie entstehen meist durch gezielte Manipulation einer Originalnachricht in einem echten Medium. Beispiele hierfür sind:
- Selektives Kopieren und Einfügen von Inhalten aus einer Originalszene, um ein Objekt aus einem Bild zu entfernen und so die Aussage zu verändern
- Verlangsamung eines Videos durch wiederholte Einzelbilder, sodass eine Person betrunken wirkt
- Kombination von Audioclips aus einer anderen Quelle und Austausch der Tonspur eines Videos, um die Aussage zu verfälschen
- Verwendung von falschem Text, um eine bestimmte Erzählung zu verbreiten und finanziellen oder anderweitigen Schaden zu verursachen
Deepfakes
Multimediale Inhalte, die mithilfe von Machine Learning oder Deep Learning entweder vollständig synthetisch erstellt oder teilweise bearbeitet wurden, werden als Deepfakes bezeichnet. Beispiele hierfür sind:
- LinkedIn verzeichnete 2022 einen enormen Anstieg von Deepfake-Bildern als Profilfotos.
- Ein KI-generiertes Bild einer Explosion in der Nähe des Pentagons wurde im Mai 2023 im Internet geteilt und verursachte Verwirrung sowie kurzzeitige Turbulenzen an der Börse. Die dargestellte Szene war eine sogenannte Halluzination -- erfundene Informationen, die plausibel wirken, aber nicht der Realität entsprechen.
- Ein Deepfake-Video zeigte den ukrainischen Präsidenten Volodymyr Zelenskyy, wie er sein Land zur Kapitulation gegenüber Russland aufforderte.
- Mehrere russische Fernseh- und Radiosender wurden gehackt und strahlten ein mutmaßliches Deepfake-Video von Präsident Wladimir Putin aus, in dem er angeblich den Ausnahmezustand wegen einer Invasion der Ukraine ausrief.
- Text-to-Video Diffusion Models ermöglichen die Erzeugung vollständig synthetischer Videos durch KI und stellen eine weitere Entwicklung in diesem Bereich dar.
- Bereits 2019 wurden Deepfake-Aufnahmen eingesetzt, um 243.000 Dollar von einem britischen Unternehmen zu stehlen. Seitdem hat die Zahl personalisierter Betrugsversuche durch hochentwickelte KI-basierte Stimmenklonmodelle massiv zugenommen.
- Offen zugängliche Large Language Models (LLMs) werden inzwischen genutzt, um Texte für Phishing-E-Mails zu generieren.
Generative AI
Seit 2023 gewinnt Generative AI zunehmend an Bedeutung für die Erzeugung synthetischer Medien. Techniken wie Generative Adversarial Networks (GANs), Diffusion Models und Large Language Models (LLMs) -- oder Kombinationen daraus -- ermöglichen die Produktion hochrealistischer synthetischer Multimedia-Inhalte auf Basis großer Datensätze.
Computer Generated Imagery (CGI)
CGI bezeichnet den Einsatz von Computergrafik zur Erstellung oder Verbesserung visueller Medien (Bilder und Videos). Traditionell waren diese Methoden der Standard für visuelle Effekte in der Filmindustrie. Da Generative-AI-Techniken jedoch immer leistungsfähiger und kostengünstiger werden, verschmelzen beide Technologien zunehmend miteinander -- und ermöglichen noch überzeugendere Fälschungen.
Erkennung vs. Authentifizierung
Seit mehreren Jahren beschäftigen sich öffentliche und private Organisationen mit manipulierten Multimedia-Inhalten und entwickeln Methoden zu deren Erkennung. Inzwischen sind zahlreiche Partnerschaften zwischen öffentlichen und privaten Akteuren entstanden, die sich auf die Erkennung von Manipulationen und die Verifizierung bzw. Authentifizierung von Medieninhalten konzentrieren. Zwischen Erkennung und Authentifizierung bestehen wesentliche Unterschiede, da beide unterschiedliche Ziele verfolgen. Der wichtigste Unterschied: Erkennungsmethoden (Detection) sind in der Regel passive forensische Techniken, während Authentifizierungsmethoden aktive forensische Techniken sind, die gezielt zum Zeitpunkt der Aufnahme oder Bearbeitung in die Medien eingebettet werden. Erkennungsmethoden suchen nach Hinweisen auf Manipulationen und stellen diese als numerische Ausgabe oder Visualisierung dar, um Analysten auf weiteren Untersuchungsbedarf hinzuweisen. Sie basieren auf der Annahme, dass Modifikationen an Originaldaten oder vollständig synthetische Medien statistisch signifikante Spuren hinterlassen. Diese Form der Erkennung gleicht einem Katz-und-Maus-Spiel: Sobald Erkennungsmethoden veröffentlicht werden, folgen rasch Gegenmaßnahmen. Solange jedoch keine flächendeckende Einführung von Authentifizierungsstandards erfolgt, bleiben diese Methoden unverzichtbar für die forensische Analyse.
Authentifizierungsmethoden werden zum Zeitpunkt der Aufnahme, Erstellung oder Bearbeitung eingebettet und machen so die Herkunft der Medien transparent. Beispiele hierfür sind digitale Wasserzeichen in synthetisch generierten Medien, aktive Signale bei Echtzeitaufnahmen zur Verifizierung der Lebendigkeit (Liveness Detection) sowie kryptografisches Hashing auf Geräteebene.
Wie Deepfakes Organisationen bedrohen können
Die öffentliche Besorgnis über synthetische Medien bezieht sich auch auf deren Einsatz in Desinformationskampagnen, die darauf abzielen, falsche Informationen über politische, soziale, militärische oder wirtschaftliche Themen zu verbreiten und so Verwirrung und Unsicherheit zu stiften. Die Bedrohungen, mit denen Unternehmen in der Praxis am häufigsten konfrontiert sind, betreffen jedoch Aktivitäten, die direkt die Marke, die Finanzen, die Sicherheit oder die Integrität der Organisation gefährden. Zu den bedeutendsten Risiken durch synthetische Medien -- insbesondere für die Verteidigungsindustrie und Organisationen kritischer Infrastrukturen -- zählen unter anderem:
Chef-Imitat für Markenmanipulation
Böswillige Akteure können Deepfakes nutzen, bei denen Audio und Video manipuliert werden, um Führungskräfte und andere hochrangige Mitarbeiter eines Unternehmens zu imitieren. Durch überzeugende Audio- und Video-Imitationen wichtiger Persönlichkeiten lassen sich Ruf und Markenwert eines Unternehmens schädigen -- etwa indem ein überzeugendes Deepfake über soziale Medien verbreitet wird, bevor es gestoppt oder widerlegt werden kann. Manipulierte Medienoperationen gegen hochrangige politische Persönlichkeiten wie den ukrainischen Präsidenten Volodymyr Zelenskyy haben bereits gezeigt, wie effektiv diese Technik zur Verbreitung von Desinformation eingesetzt werden kann. Besonders internationale Marken, deren Aktienkurse und Gesamtreputation anfällig für Desinformationskampagnen sind, können erheblich betroffen sein. Angesichts der potenziell hohen Auswirkungen ist diese Art von Deepfake eine ernsthafte Sorge für viele CEOs und Regierungsvertreter.
Manipulationen für finanziellen Gewinn
Böswillige Akteure -- darunter vor allem Cyberkriminelle -- setzen häufig verschiedene Formen manipulierter Medien in Social-Engineering-Kampagnen ein, um finanziellen Gewinn zu erzielen. Dazu gehört die Imitation von Führungskräften oder Finanzverantwortlichen mithilfe von manipuliertem Audio, Video oder Text, um die unberechtigte Freigabe von Geldern auf Konten der Angreifer zu autorisieren. Business-Email-Compromise (BEC) ist eine verbreitete Variante dieses Social Engineerings und hat Unternehmen bereits Hunderte Millionen Dollar gekostet. Ähnliche Techniken werden auch zur Manipulation des Handels mit Kryptowährungen eingesetzt. In der Praxis sind solche Betrugsversuche weit verbreitet, und mehrere Partner berichteten, bereits Ziel derartiger Operationen gewesen zu sein.
Manipulationen zum Zweck des Zugangs
Böswillige Akteure können dieselben Techniken manipulierter Medien nutzen, um Zugang zu Mitarbeitern, Abläufen und Informationen eines Unternehmens zu erlangen. Dazu zählt beispielsweise der Einsatz manipulierter Medien in Vorstellungsgesprächen, insbesondere bei Remote-Positionen. 2022 setzten Angreifer Berichten zufolge synthetisches Audio und Video in Online-Interviews ein, wobei die Inhalte oft nicht stimmig oder synchron waren -- ein Hinweis auf den betrügerischen Charakter der Gespräche. Ermöglicht wurden diese Versuche durch zuvor gestohlene personenbezogene Daten.