Bedrohungen durch synthetische Medien wie stellen eine wachsende Herausforderung für alle Nutzer moderner Technologien und Kommunikation dar.
Bedrohungen durch synthetische Medien wie Deepfakes stellen eine wachsende Herausforderung für alle Nutzer moderner Technologien und Kommunikation dar. Wie bei vielen Technologien können synthetische Medientechniken sowohl für positive als auch für böswillige Zwecke verwendet werden, wie aus dem Paper “Contextualizing Deepfake Threats to Organizations” von der NSA und FBI hervorgeht und hier näher beschrieben wird. Obwohl es begrenzte Anzeichen für den signifikanten Einsatz von synthetischen Medientechniken durch böswillige staatlich unterstützte Akteure gibt, deuten die zunehmende Verfügbarkeit und Effizienz dieser Techniken für weniger fähige böswillige Cyberakteure darauf hin, dass diese Techniken wahrscheinlich in Häufigkeit und Raffinesse zunehmen werden. Synthetische Medienbedrohungen bestehen weitgehend in Technologien, die mit der Verwendung von Text, Video, Audio und Bildern zusammenhängen, die online und in Verbindung mit allen Arten von Kommunikation verwendet werden. Deepfakes sind eine besonders besorgniserregende Art von synthetischen Medien, die künstliche Intelligenz/Maschinenlernen (KI/ML) nutzen, um glaubhafte und hochrealistische Medien zu erstellen. Die gravierendsten Bedrohungen durch den Missbrauch von synthetischen Medien umfassen Techniken, die die Marke einer Organisation gefährden, Führungskräfte und Finanzverantwortliche imitieren und betrügerische Kommunikationen nutzen, um Zugang zu den Netzwerken, Kommunikationen und sensiblen Informationen einer Organisation zu ermöglichen.
Organisationen können verschiedene Maßnahmen ergreifen, um Deepfake-Bedrohungen zu identifizieren, sich dagegen zu verteidigen und darauf zu reagieren. Sie sollten in Betracht ziehen, eine Reihe von Technologien einzusetzen, um Deepfakes zu erkennen und die Herkunft von Medien zu bestimmen, einschließlich Echtzeit-Überprüfungsfähigkeiten, passiver Erkennungstechniken. Organisationen können auch Schritte unternehmen, um die Auswirkungen von bösartigen Deepfake-Techniken zu minimieren, einschließlich Informationsaustausch, Planung und Rehearsal von Reaktionen auf Ausbeutungsversuche und Mitarbeitertraining. Insbesondere Phishing mit Deepfakes wird eine noch größere Herausforderung sein als heute, und Organisationen sollten sich proaktiv darauf vorbereiten, sie zu identifizieren und zu bekämpfen.
Es gibt mehrere Begriffe, die verwendet werden, um Medien zu beschreiben, die synthetisch erzeugt und/oder manipuliert wurden. Einige der häufigsten Begriffe sind: Deep Fakes, Faux-to und KI-generierte Medien.
Multimedia-Inhalte, die mit Techniken manipuliert wurden, die nicht auf Maschinen/dem Deep Learning basieren, und die in vielen Fällen genauso effektiv sein können wie technisch anspruchsvollere Techniken, werden oft als oberflächlich oder billig bezeichnet. Diese Fälschungen werden oft durch die Manipulation einer ursprünglichen Botschaft in einem echten Medium erzeugt. Einige explizite Beispiele dafür sind:
Multimediale Inhalte, die entweder (vollständig synthetisch) erstellt oder (teilweise synthetisch) bearbeitet wurden mithilfe von Maschinen-/Deep Learning (künstliche Intelligenz) werden als Deepfakes bezeichnet. Einige explizite Beispiele sind:
Ab 2023 gewinnt Generative AI an Popularität für viele Fähigkeiten, die synthetische Medien produzieren. Generative AI (Maschinelles Lernen Techniken), wie Generative Adversarial Networks, Diffusion Models, und Große Sprachmodelle (oder eine Kombination daraus) sind die Maschinen, die die Produktion von hochrealistischen synthetischen Multimediainhalten auf Basis von viel größeren Datensätzen ermöglichen.
CGI ist die Verwendung von Computergrafiken zur Erstellung oder Verbesserung von visuellen Medien (Bild und Video). Traditionell waren diese Methoden der Standard für visuelle Effekte in den meisten großen Filmen, aber jetzt, da Generative AI-Techniken immer besser und günstiger werden, werden diese beiden Technologien zusammengeführt, um noch überzeugendere Fälschungen zu produzieren.
Seit mehreren Jahren äußern öffentliche und private Organisationen Bedenken über manipulierte Multimedia-Inhalte und entwickeln Mittel zur Erkennung und Identifizierung von Gegenmaßnahmen. Inzwischen sind viele Partnerschaften zwischen öffentlichen und privaten Akteuren entstanden, die sich auf kooperative Bemühungen konzentrieren, diese Manipulationen zu erkennen und die Multimedia-Inhalte zu verifizieren / authentifizieren. Es gibt viele Unterschiede zwischen den Bemühungen zur Erkennung und Authentifizierung, da sie unterschiedliche Ziele haben. Der größte Unterschied besteht darin, dass Detektionsmethoden oft passive forensische Techniken sind, während Authentifizierungsmethoden aktive forensische Techniken sind, die gezielt zum Zeitpunkt der Aufnahme oder Bearbeitung der betreffenden Medien eingebettet werden. Erkennungsbemühungen konzentrieren sich in der Regel auf die Entwicklung von Methoden, die nach Hinweisen auf Manipulationen suchen und diese Hinweise in Form eines numerischen Outputs oder einer Visualisierung anzeigen, um einen Analysten darauf aufmerksam zu machen, dass die Medien einer weiteren Analyse bedürfen. Diese Methoden werden unter der Annahme entwickelt, dass Modifikationen an Originaldaten oder vollständig synthetische Medien statistisch signifikante Spuren aufweisen, die gefunden werden können. Diese Form der Erkennung ist ein Katz-und-Maus-Spiel; während Erkennungsmethoden entwickelt und öffentlich zugänglich gemacht werden, gibt es oft eine schnelle Reaktion, um ihnen entgegenzuwirken. Solange jedoch keine universelle Einführung von Authentifizierungsstandards erfolgt, sind diese Methoden notwendig, um forensische Analysen zu unterstützen.
Authentifizierungsmethoden sind darauf ausgelegt, zum Zeitpunkt der Aufnahme/Erstellung oder Bearbeitung eingebettet zu werden, um die Herkunft der Medien transparent zu machen. Einige Beispiele hierfür sind digitale Wasserzeichen, die in synthetisch generierten Medien verwendet werden können, aktive Signale bei Echtzeitaufnahmen, um die Lebendigkeit zu verifizieren und kryptografisches Asset-Hashing auf einem Gerät.
Die öffentliche Besorgnis über synthetische Medien bezieht sich auch auf deren Einsatz bei Desinformationsoperationen, die darauf abzielen, die Öffentlichkeit zu beeinflussen und falsche Informationen über politische, soziale, militärische oder wirtschaftliche Fragen zu verbreiten, um Verwirrung, Unruhe und Unsicherheit zu verursachen. Allerdings beinhalten die Bedrohungen durch synthetische Medien, mit denen Organisationen am häufigsten konfrontiert sind, Aktivitäten, die die Marke, finanzielle Lage, Sicherheit oder Integrität der Organisation selbst gefährden können. Die größten Bedrohungen durch synthetische Medien für das Verteidigungsministerium, die Nationale Sicherheitsstrategie, die Verteidigungsindustrie und Organisationen kritischer Infrastrukturen umfassen potenzielle Auswirkungen und Risiken, darunter unter anderem:
Böswillige Akteure können Deepfakes, bei denen Audio und Video manipuliert werden, nutzen, um zu versuchen, Führungskräfte und andere hochrangige Mitarbeiter einer Organisation zu imitieren. Sie können überzeugende Audio- und Video-Imitate wichtiger Führungskräfte einsetzen, um den Ruf und den Wert der Marke einer Organisation zu schädigen, indem sie schnell ein überzeugendes Deepfake öffentlich über soziale Medien verbreiten, bevor es gestoppt oder widerlegt werden kann. Es wurde beobachtet, dass auf hochrangige politische Persönlichkeiten wie der ukrainische Präsident Volodymr Zelenskyy zielende manipulierte Medienoperationen zur Verbreitung von Desinformation und Verwirrung eingesetzt wurden. Diese Technik kann einen großen Einfluss haben, insbesondere auf internationale Marken, deren Aktienkurse und gesamter Ruf anfällig für Desinformationskampagnen sind. Angesichts der hohen Auswirkungen ist dieser Typ von Deepfake eine bedeutende Sorge für viele CEOs und Regierungsführer.
Bösartige Akteure, von denen viele wahrscheinlich Cyberkriminelle sind, nutzen oft verschiedene Arten von manipulierten Medien in Social-Engineering-Kampagnen, um finanziellen Gewinn zu erzielen. Dazu gehört die Imitation von wichtigen Führungskräften oder Finanzverantwortlichen und die Nutzung verschiedener Medien, wie manipuliertes Audio, Video oder Text, um die unberechtigte Freigabe von Geldern auf Konten des böswilligen Akteurs zu autorisieren. Betrügereien per E-Mail (Business-Email-Compromise, BEC) gehören zu diesen Arten von Social-Engineering und haben Unternehmen bereits Hunderte von Millionen Dollar an Verlusten gekostet. Ähnliche Techniken können auch zur Manipulation des Handels oder Verkaufs von Kryptowährungen verwendet werden. In der Praxis sind solche Arten von Betrügereien weit verbreitet und mehrere Partner berichteten, dass sie Ziel von derartigen Operationen waren.
Böswillige Akteure können dieselben Arten von manipulierten Medientechniken nutzen, um Zugang zu Mitarbeitern, Vorgängen und Informationen einer Organisation zu erlangen. Dazu können Techniken wie die Nutzung manipulierter Medien während Bewerbungsgesprächen gehören, insbesondere bei Remote-Jobs. 2022 setzten bösartige Akteure Berichten zufolge synthetisches Audio und Video während Online-Interviews ein, obwohl der Inhalt oft nicht stimmig oder synchronisiert war, was auf die betrügerische Natur der Anrufe hinwies. Diese Versuche wurden durch gestohlene, personenbezogene Informationen ermöglicht.
Vereinbaren Sie ein unverbindliches Erstgespräch mit einem unserer Vertriebsmitarbeiter. Nutzen Sie den folgenden Link, um einen Termin auszuwählen: