Was sind Deepfakes?
Deepfakes gehören mittlerweile zu den größten Gefahren im Internet. Aber was ist ein Deepfake? Dieses Schlagwort bezeichnet eine täuschend echt wirkende Audio- oder Videomanipulation.

Deepfakes gehören mittlerweile zu den größten Gefahren im Internet. Aber was genau ist ein Deepfake? Der Begriff bezeichnet eine täuschend echt wirkende Audio- oder Videomanipulation. Solche ausgeklügelten Fälschungen lassen sich ausschließlich mit künstlicher Intelligenz herstellen. Besonders problematisch: Deepfake-Software ist frei im Internet verfügbar. Diese Anwendungen können Gesichter und Stimmen automatisiert nachahmen und erhöhen die Anforderungen an das interne Security Management für Unternehmen enorm.
Diese Risiken bringen Deepfakes
Deepfakes stellen für Unternehmen ein immenses Online-Risiko dar, denn sie sind nicht einfach zu erkennen. Eine gesteigerte Security Awareness ist daher entscheidend, um das Unternehmen zu schützen. Zu den bedeutendsten Risiken gehören:
- Identitätsbetrug: Ist ausreichend Audio- und Videomaterial verfügbar, können Cyberkriminelle Stimmen oder Videos fälschen. Damit gelingt es ihnen, Verträge über Video-Ident-Verfahren abzuschließen oder Überweisungen zu tätigen.
- Interne Manipulation: Ein Deepfake-Video könnte Angestellte zu Handlungen bewegen, die dem Unternehmen schaden -- etwa wenn eine Audiomanipulation eines Vorgesetzten schädigende Anweisungen erteilt.
- Reputationsschäden: Im öffentlichen Bereich kann das Image von Personen oder Unternehmen erheblichen Schaden nehmen. Erstellt ein Deepfake-Generator Videos oder Audioaufnahmen mit falschen Inhalten, können daraus prekäre Situationen entstehen.
- Risiken für Privatpersonen: Deepfakes beschränken sich nicht auf Unternehmen und Personen des öffentlichen Lebens. Auch Privatpersonen, die regelmäßig online aktiv sind, sind gefährdet. Solche Manipulationen können Unruhe stiften, Beziehungen zerstören oder den persönlichen Ruf gefährden.
Übrigens: Je mehr Audio- und Videomaterial der Deepfake-Software vorliegt, desto überzeugender fallen die Ergebnisse aus. Personengruppen, die online besonders aktiv sind, sind daher anfälliger für diese Form der Manipulation.
Deepfakes: Konkrete Bedrohungsszenarien
Während es früher nur Profis möglich war, Deepfakes zu erstellen, gelingt das heute auch Laien. Um mediale Identitäten zu manipulieren, braucht es lediglich die richtige Deepfake-Software und ausreichend Audio- oder Videomaterial. Daraus ergeben sich zahlreiche Bedrohungsszenarien:
- Biometrie umgehen: Deepfake-Generatoren erstellen Manipulationen inzwischen in Echtzeit und stellen damit ein hohes Risiko für biometrische Systeme dar. Auch Fernidentifikationsverfahren sind anfällig -- Verträge lassen sich so abschließen oder Überweisungen tätigen.
- Desinformation: Informationskampagnen führen meist Schlüsselpersonen im Unternehmen durch. Bei Deepfakes mit Fokus auf Desinformation werden falsche Informationen so aufbereitet, dass die Zielgruppe sie für glaubwürdig hält.
- Social Engineering: Möchten Cyberkriminelle an Daten gelangen, können sie mithilfe von Deepfake-Videos gezieltes Phishing durchführen. Beispielsweise lässt sich die Stimme eines Vorgesetzten nutzen, um falsche Arbeitsanweisungen zu erteilen.
- Verleumdung: Mit einer Deepfake-App lassen sich Medieninhalte manipulieren oder gezielt generieren. So können Personen in beliebigen Situationen dargestellt und ihre Reputation untergraben werden.
Gesichter fälschen
Seit einigen Jahren gibt es unterschiedliche KI-basierte Verfahren, mit denen sich Gesichter in Videos manipulieren lassen. Diese Verfahren verfolgen im Wesentlichen drei Ansätze:
- Face Reenactment: Durch Reenactment lässt sich die Mimik und Kopfbewegung der Zielperson kontrollieren. Dieser Ansatz eignet sich besonders für täuschend echte Videos. Es entsteht der Eindruck, eine Person hätte Aussagen getroffen, die in Wirklichkeit von jemand anderem stammen.
- Face Swapping: Hierbei werden Gesichter in einem vorhandenen Video ausgetauscht. Ziel ist es, dass die neue Person dieselbe Mimik, Blickrichtung und Gesichtsbeleuchtung aufweist. Dadurch wirken die Deepfakes noch realistischer als bei früheren Verfahren. Zudem funktioniert diese Methode nahezu in Echtzeit mit minimalem Zeitversatz.
- Identitätssynthese: Ziel dieses Ansatzes ist es, Pseudo-Identitäten zu erzeugen. Wer ein solches Deepfake online stellt, erschafft eine Person, die ausschließlich im Internet existiert. Derzeit sind bei diesem Verfahren hochauflösende Nahaufnahmen mit exzellenter Detailtiefe möglich.
Stimmen fälschen
Auch bei gefälschten Stimmen ist es schwierig, einen Deepfake zu erkennen. Manipulierte Stimmen stellen bei Voice Conversion und Text-to-Speech ein hohes Risiko dar. Dabei entsteht kein Video, sondern eine reine Audioaufzeichnung.
Bei Text-to-Speech wird ein vorgegebener Text in ein Audiosignal umgewandelt, wobei der semantische Inhalt dem Text entspricht. Voice Conversion hingegen konvertiert ein vorhandenes Audiosignal in eine Zielstimme.
Da beide Verfahren idealerweise die spezifischen Charakteristika der Zielperson berücksichtigen, klingen die Ergebnisse täuschend echt. So können sie sowohl Menschen als auch automatisierte Systeme täuschen.
Texte fälschen
KI-Modelle sind längst in der Lage, komplexe Aufgaben zu übernehmen -- beispielsweise große und zusammenhängende Textmengen zu generieren. Da diese Texte auf tiefen neuronalen Netzen basieren, sind sie gehaltvoll und wirken täuschend echt. Ob eine Maschine oder ein Mensch sie geschrieben hat, lässt sich auf den ersten Blick nicht feststellen. Darüber hinaus kann eine Deepfake-App Fortsetzungen zu Texten erzeugen, Chat-Antworten generieren oder längere Nachrichten verfassen.
Deepfakes und erfolgreiche Gegenmaßnahmen
Ist ein Deepfake einmal online, lässt es sich kaum von der Realität unterscheiden. Das macht Deepfakes in vielen Fällen zu einem ernstzunehmenden Risiko. Dennoch ist es möglich, diesen Gefahren entgegenzuwirken -- und auch hier bildet KI die Grundlage.
Erfolgreiche Gegenmaßnahmen lassen sich am besten mit derselben Technologie umsetzen, die auch Deepfakes nutzen. Der Grund: Menschen können die immense Datenmenge nicht innerhalb eines realistischen Zeitraums auswerten. Dafür muss die KI zunächst mit gefälschtem Material trainiert werden. Die Kombination aus echten Inhalten und Deepfakes hilft der künstlichen Intelligenz, mögliche Unstimmigkeiten zu erkennen.
Was bringen automatisierte Gegenmaßnahmen?
Da es für Menschen meist nicht möglich ist, einen Deepfake zu erkennen, braucht es eine andere Vorgehensweise. Automatisierte Gegenmaßnahmen basieren auf derselben KI, die auch Cyberkriminelle für ihre Deepfakes einsetzen. Der Vorteil automatisierter Lösungen: Die Algorithmen reagieren selbstständig, sobald sie eine gefälschte Datei erkennen. Damit fördern diese Mechanismen den Einsatz von AI in Cybersecurity und helfen Unternehmen, sich vor den Risiken zu schützen.
So schulen Sie das Bewusstsein für Deepfakes
Um Deepfakes künftig zuverlässig erkennen zu können, sind sowohl Kompetenzen als auch automatisierte Maßnahmen unverzichtbar. Der Einsatz von KI, regelmäßige Assessments und turnusmäßige Schulungen helfen dabei, Manipulationen rechtzeitig zu identifizieren.
Das Training der KI ist dabei grundsätzlich einfacher als die Wissensvermittlung an Mitarbeitende. Das liegt nicht zuletzt daran, dass Deepfakes immer besser werden. Während die künstliche Intelligenz lediglich Vergleichsmaterial benötigt, brauchen Mitarbeitende andere Informationen: Sie müssen lernen, Anweisungen und Aussagen stärker zu hinterfragen. Gleichzeitig hilft die Sensibilisierung für Sicherheitsaspekte dabei, Unstimmigkeiten schneller zu erkennen und aktiv zu werden.
Fazit: Deepfakes zu erkennen wird immer schwieriger -- Gegenmaßnahmen müssen sich mitentwickeln
Ein Deepfake bezeichnet per Definition manipuliertes Video- und Audiomaterial. Während solche Aufnahmen in der Vergangenheit leicht zu erkennen waren, ist das heute nicht mehr der Fall. Stattdessen braucht es KI und Sicherheitsexperten, die sich auf digitale Forensik spezialisiert haben, um Fälschungen als solche aufzudecken.
Deepfakes entwickeln sich stetig weiter und werden absehbar immer überzeugender. Deshalb ist es notwendig, Medienmaterial und Informationen gleichermaßen kritisch zu hinterfragen. Gleichzeitig ist eine kontinuierliche Weiterentwicklung der Gegenmaßnahmen unverzichtbar -- denn auch wenn Mitarbeitende sensibler für die Gefahren im Cyberspace werden, entwickeln Cyberkriminelle ihre Techniken ebenfalls stetig weiter.