AI in der Cyber SecurityJan Kahmen11 min Lesezeit

Einordnung von Bedrohungen durch Deepfakes

Bedrohungen durch synthetische Medien wie stellen eine wachsende Herausforderung für alle Nutzer moderner Technologien und Kommunikation dar.

Inhaltsverzeichnis

Bedrohungen durch synthetische Medien wie Deepfakes stellen eine wachsende Herausforderung für alle Nutzer moderner Technologien und Kommunikation dar. Wie bei vielen Technologien können synthetische Medientechniken sowohl für positive als auch für böswillige Zwecke verwendet werden, wie aus dem Paper “Contextualizing Deepfake Threats to Organizations” von der NSA und FBI hervorgeht und hier näher beschrieben wird. Obwohl es begrenzte Anzeichen für den signifikanten Einsatz von synthetischen Medientechniken durch böswillige staatlich unterstützte Akteure gibt, deuten die zunehmende Verfügbarkeit und Effizienz dieser Techniken für weniger fähige böswillige Cyberakteure darauf hin, dass diese Techniken wahrscheinlich in Häufigkeit und Raffinesse zunehmen werden. Synthetische Medienbedrohungen bestehen weitgehend in Technologien, die mit der Verwendung von Text, Video, Audio und Bildern zusammenhängen, die online und in Verbindung mit allen Arten von Kommunikation verwendet werden. Deepfakes sind eine besonders besorgniserregende Art von synthetischen Medien, die künstliche Intelligenz/Maschinenlernen (KI/ML) nutzen, um glaubhafte und hochrealistische Medien zu erstellen. Die gravierendsten Bedrohungen durch den Missbrauch von synthetischen Medien umfassen Techniken, die die Marke einer Organisation gefährden, Führungskräfte und Finanzverantwortliche imitieren und betrügerische Kommunikationen nutzen, um Zugang zu den Netzwerken, Kommunikationen und sensiblen Informationen einer Organisation zu ermöglichen.

Organisationen können verschiedene Maßnahmen ergreifen, um Deepfake-Bedrohungen zu identifizieren, sich dagegen zu verteidigen und darauf zu reagieren. Sie sollten in Betracht ziehen, eine Reihe von Technologien einzusetzen, um Deepfakes zu erkennen und die Herkunft von Medien zu bestimmen, einschließlich Echtzeit-Überprüfungsfähigkeiten, passiver Erkennungstechniken. Organisationen können auch Schritte unternehmen, um die Auswirkungen von bösartigen Deepfake-Techniken zu minimieren, einschließlich Informationsaustausch, Planung und Rehearsal von Reaktionen auf Ausbeutungsversuche und Mitarbeitertraining. Insbesondere Phishing mit Deepfakes wird eine noch größere Herausforderung sein als heute, und Organisationen sollten sich proaktiv darauf vorbereiten, sie zu identifizieren und zu bekämpfen.

Arten von Bedrohungen durch Deepfakes

Es gibt mehrere Begriffe, die verwendet werden, um Medien zu beschreiben, die synthetisch erzeugt und/oder manipuliert wurden. Einige der häufigsten Begriffe sind: Deep Fakes, Faux-to und KI-generierte Medien.

Oberflächliche Fälschungen

Multimedia-Inhalte, die mit Techniken manipuliert wurden, die nicht auf Maschinen/dem Deep Learning basieren, und die in vielen Fällen genauso effektiv sein können wie technisch anspruchsvollere Techniken, werden oft als oberflächlich oder billig bezeichnet. Diese Fälschungen werden oft durch die Manipulation einer ursprünglichen Botschaft in einem echten Medium erzeugt. Einige explizite Beispiele dafür sind:

  • Selektiv das Kopieren und Einfügen von Inhalten aus einer Originalszene, um ein Objekt in einem Bild zu entfernen und damit die Geschichte zu verändern.
  • Das Verlangsamen eines Videos durch Hinzufügen von wiederholten Bildern, um es so klingen zu lassen, als ob eine Person betrunken sei.
  • Das Kombinieren von Audio-Clips aus einer anderen Quelle und das Ersetzen des Audios in einem Video, um die Geschichte zu verändern.
  • Die Verwendung von falschem Text, um eine Erzählung voranzutreiben und finanziellen Verlust sowie andere Auswirkungen zu verursachen.

Deepfakes

Multimediale Inhalte, die entweder (vollständig synthetisch) erstellt oder (teilweise synthetisch) bearbeitet wurden mithilfe von Maschinen-/Deep Learning (künstliche Intelligenz) werden als Deepfakes bezeichnet. Einige explizite Beispiele sind:

  • LinkedIn erlebte einen enormen Anstieg an Deepfake-Bildern als Profilbilder im Jahr 2022.
  • Eine von künstlicher Intelligenz erschaffene Szene, die durch eine Halluzination entstanden ist, enthält erfundene Informationen, die plausibel wirken, aber nicht wahr sind. Sie zeigt eine Explosion in der Nähe des Pentagons und wurde im Mai 2023 im Internet geteilt, was allgemeine Verwirrung und Aufregung an der Börse verursachte.
  • Ein Deepfake-Video zeigte den ukrainischen Präsidenten Volodomyr Zelenskyy, wie er sein Land aufforderte, sich Russland zu ergeben.
  • In jüngerer Zeit wurden mehrere russische Fernsehsender und Radiostationen gehackt und ein angebliches Deepfake-Video von Präsident Wladimir Putin wurde ausgestrahlt, in dem behauptet wurde, er habe aufgrund einer angeblichen Invasion der Ukraine den Ausnahmezustand in Russland ausgerufen.
  • Ein weiteres Beispiel für Technologie, die sich in Videos entwickelt, sind Text-to-Video Diffusion Models, die vollständig synthetische Videos sind, die von künstlicher Intelligenz entwickelt werden.
  • Im Jahr 2019 wurden Deepfake-Aufnahmen verwendet, um 243.000 Dollar von einem Unternehmen in Großbritannien zu stehlen. In jüngerer Zeit hat es eine massive Zunahme personalisierter betrügerischer Aktivitäten durch den Einsatz hochentwickelter und intensiv geschulter KI-Stimmen-Klonmodelle gegeben.
  • Offen zugängliche Large Language Models (LLMs) werden jetzt genutzt, um den Text für Phishing-E-Mails zu generieren.

Generative AI

Ab 2023 gewinnt Generative AI an Popularität für viele Fähigkeiten, die synthetische Medien produzieren. Generative AI (Maschinelles Lernen Techniken), wie Generative Adversarial Networks, Diffusion Models, und Große Sprachmodelle (oder eine Kombination daraus) sind die Maschinen, die die Produktion von hochrealistischen synthetischen Multimediainhalten auf Basis von viel größeren Datensätzen ermöglichen.

Computer Generated Imagery (CGI)

CGI ist die Verwendung von Computergrafiken zur Erstellung oder Verbesserung von visuellen Medien (Bild und Video). Traditionell waren diese Methoden der Standard für visuelle Effekte in den meisten großen Filmen, aber jetzt, da Generative AI-Techniken immer besser und günstiger werden, werden diese beiden Technologien zusammengeführt, um noch überzeugendere Fälschungen zu produzieren.

Erkennung vs. Authentifizierung

Seit mehreren Jahren äußern öffentliche und private Organisationen Bedenken über manipulierte Multimedia-Inhalte und entwickeln Mittel zur Erkennung und Identifizierung von Gegenmaßnahmen. Inzwischen sind viele Partnerschaften zwischen öffentlichen und privaten Akteuren entstanden, die sich auf kooperative Bemühungen konzentrieren, diese Manipulationen zu erkennen und die Multimedia-Inhalte zu verifizieren / authentifizieren. Es gibt viele Unterschiede zwischen den Bemühungen zur Erkennung und Authentifizierung, da sie unterschiedliche Ziele haben. Der größte Unterschied besteht darin, dass Detektionsmethoden oft passive forensische Techniken sind, während Authentifizierungsmethoden aktive forensische Techniken sind, die gezielt zum Zeitpunkt der Aufnahme oder Bearbeitung der betreffenden Medien eingebettet werden. Erkennungsbemühungen konzentrieren sich in der Regel auf die Entwicklung von Methoden, die nach Hinweisen auf Manipulationen suchen und diese Hinweise in Form eines numerischen Outputs oder einer Visualisierung anzeigen, um einen Analysten darauf aufmerksam zu machen, dass die Medien einer weiteren Analyse bedürfen. Diese Methoden werden unter der Annahme entwickelt, dass Modifikationen an Originaldaten oder vollständig synthetische Medien statistisch signifikante Spuren aufweisen, die gefunden werden können. Diese Form der Erkennung ist ein Katz-und-Maus-Spiel; während Erkennungsmethoden entwickelt und öffentlich zugänglich gemacht werden, gibt es oft eine schnelle Reaktion, um ihnen entgegenzuwirken. Solange jedoch keine universelle Einführung von Authentifizierungsstandards erfolgt, sind diese Methoden notwendig, um forensische Analysen zu unterstützen.

Authentifizierungsmethoden sind darauf ausgelegt, zum Zeitpunkt der Aufnahme/Erstellung oder Bearbeitung eingebettet zu werden, um die Herkunft der Medien transparent zu machen. Einige Beispiele hierfür sind digitale Wasserzeichen, die in synthetisch generierten Medien verwendet werden können, aktive Signale bei Echtzeitaufnahmen, um die Lebendigkeit zu verifizieren und kryptografisches Asset-Hashing auf einem Gerät.

Wie Deepfakes Organisationen bedrohen können

Die öffentliche Besorgnis über synthetische Medien bezieht sich auch auf deren Einsatz bei Desinformationsoperationen, die darauf abzielen, die Öffentlichkeit zu beeinflussen und falsche Informationen über politische, soziale, militärische oder wirtschaftliche Fragen zu verbreiten, um Verwirrung, Unruhe und Unsicherheit zu verursachen. Allerdings beinhalten die Bedrohungen durch synthetische Medien, mit denen Organisationen am häufigsten konfrontiert sind, Aktivitäten, die die Marke, finanzielle Lage, Sicherheit oder Integrität der Organisation selbst gefährden können. Die größten Bedrohungen durch synthetische Medien für das Verteidigungsministerium, die Nationale Sicherheitsstrategie, die Verteidigungsindustrie und Organisationen kritischer Infrastrukturen umfassen potenzielle Auswirkungen und Risiken, darunter unter anderem:

Chef-Imitat für Markenmanipulation

Böswillige Akteure können Deepfakes, bei denen Audio und Video manipuliert werden, nutzen, um zu versuchen, Führungskräfte und andere hochrangige Mitarbeiter einer Organisation zu imitieren. Sie können überzeugende Audio- und Video-Imitate wichtiger Führungskräfte einsetzen, um den Ruf und den Wert der Marke einer Organisation zu schädigen, indem sie schnell ein überzeugendes Deepfake öffentlich über soziale Medien verbreiten, bevor es gestoppt oder widerlegt werden kann. Es wurde beobachtet, dass auf hochrangige politische Persönlichkeiten wie der ukrainische Präsident Volodymr Zelenskyy zielende manipulierte Medienoperationen zur Verbreitung von Desinformation und Verwirrung eingesetzt wurden. Diese Technik kann einen großen Einfluss haben, insbesondere auf internationale Marken, deren Aktienkurse und gesamter Ruf anfällig für Desinformationskampagnen sind. Angesichts der hohen Auswirkungen ist dieser Typ von Deepfake eine bedeutende Sorge für viele CEOs und Regierungsführer.

Manipulationen für finanziellen Gewinn

Bösartige Akteure, von denen viele wahrscheinlich Cyberkriminelle sind, nutzen oft verschiedene Arten von manipulierten Medien in Social-Engineering-Kampagnen, um finanziellen Gewinn zu erzielen. Dazu gehört die Imitation von wichtigen Führungskräften oder Finanzverantwortlichen und die Nutzung verschiedener Medien, wie manipuliertes Audio, Video oder Text, um die unberechtigte Freigabe von Geldern auf Konten des böswilligen Akteurs zu autorisieren. Betrügereien per E-Mail (Business-Email-Compromise, BEC) gehören zu diesen Arten von Social-Engineering und haben Unternehmen bereits Hunderte von Millionen Dollar an Verlusten gekostet. Ähnliche Techniken können auch zur Manipulation des Handels oder Verkaufs von Kryptowährungen verwendet werden. In der Praxis sind solche Arten von Betrügereien weit verbreitet und mehrere Partner berichteten, dass sie Ziel von derartigen Operationen waren.

Manipulationen zum Zweck des Zugangs

Böswillige Akteure können dieselben Arten von manipulierten Medientechniken nutzen, um Zugang zu Mitarbeitern, Vorgängen und Informationen einer Organisation zu erlangen. Dazu können Techniken wie die Nutzung manipulierter Medien während Bewerbungsgesprächen gehören, insbesondere bei Remote-Jobs. 2022 setzten bösartige Akteure Berichten zufolge synthetisches Audio und Video während Online-Interviews ein, obwohl der Inhalt oft nicht stimmig oder synchronisiert war, was auf die betrügerische Natur der Anrufe hinwies. Diese Versuche wurden durch gestohlene, personenbezogene Informationen ermöglicht.

Erweitern Sie Ihren Horizont mit einer Reifegradanalyse!

Reifegradanalyse für 1990 € !

Buchen Sie unserer Kennenlernprojekt, um einen groben aber ganzheitlichen Überblick über Ihre Maßnahmen in der Informationssicherheit zu bekommen!

Kontakt

Neugierig? Überzeugt? Interessiert?

Vereinbaren Sie ein unverbindliches Erstgespräch mit einem unserer Vertriebsmitarbeiter. Nutzen Sie den folgenden Link, um einen Termin auszuwählen: