AI in der Cyber SecurityJan Kahmen9 min Lesezeit

Artificial Intelligence Risk Management Framework

Das Artificial Intelligence Risk Management Framework (AI RMF 1.0) ist ein Rahmenwerk, das Unternehmen bei der Einhaltung von Risikomanagement- und Compliance-Anforderungen unterstützt, wenn sie künstliche Intelligenz (KI) einsetzen.

Inhaltsverzeichnis

Einleitung

Das Artificial Intelligence Risk Management Framework (AI RMF 1.0) ist ein Rahmenwerk, das Unternehmen bei der Einhaltung von Risikomanagement- und Compliance-Anforderungen unterstützt, wenn sie künstliche Intelligenz (KI) einsetzen. Es wurde von der US-amerikanischen Regierung (National Institute of Standards and Technology) entwickelt und bietet eine strukturierte Methode, um Risiken zu identifizieren, zu bewerten und zu bewältigen, die mit der Implementierung von KI-Systemen verbunden sind. Das Framework umfasst eine Reihe von Richtlinien, die Unternehmen bei der Entwicklung, Implementierung und Überwachung von KI-Systemen unterstützen. Es bietet auch eine Reihe von Tools, die Unternehmen bei der Einhaltung von Compliance-Anforderungen unterstützen. Folgende Inhalte sind in dem Framework enthalten:

KI-Risiken und Vertrauenswürdigkeit

Für AI-Systeme, die vertrauenswürdig sein sollen, müssen sie oft auf eine Vielzahl von Kriterien reagieren, die für interessierte Parteien von Wert sind. Ansätze, die die Vertrauenswürdigkeit von AI verbessern, können negative AI-Risiken reduzieren. Merkmale vertrauenswürdiger AI-Systeme sind: gültig und zuverlässig, sicher, widerstandsfähig, verantwortlich und transparent, erklärbar und interpretierbar, datenschutzorientiert und fair. Die Schaffung vertrauenswürdiger AI erfordert die Abwägung jedes dieser Merkmale anhand des Kontexts, in dem das AI-System verwendet wird. Während alle Merkmale sozio-technische Systemattribute sind, beziehen sich Verantwortlichkeit und Transparenz auch auf die Prozesse und Aktivitäten innerhalb eines AI-Systems und seiner externen Umgebung. Das Vernachlässigen dieser Merkmale kann die Wahrscheinlichkeit und das Ausmaß negativer Konsequenzen erhöhen.

artificial-intelligence-risk-management-framework-nist-v1-ai-risks.png

Gültig und zuverlässig ist eine notwendige Bedingung für Vertrauenswürdigkeit und wird als Grundlage für andere Vertrauenswürdigkeitsmerkmale gezeigt. Verantwortlich und transparent wird als vertikales Kästchen dargestellt, da es sich auf alle anderen Merkmale bezieht.

Validität und Zuverlässigkeit

Validierung ist die "Bestätigung durch Bereitstellung objektiver Beweise, dass die Anforderungen für einen bestimmten vorgesehenen Gebrauch oder Anwendung erfüllt wurden". Die Bereitstellung von AI-Systemen, die ungenau, unzuverlässig oder schlecht generalisiert sind, um Daten und Einstellungen jenseits ihrer Ausbildung zu erstellen und zu erhöhen, erhöht negative AI-Risiken und reduziert die Vertrauenswürdigkeit. Zuverlässigkeit wird in derselben Norm als "Fähigkeit eines Elements definiert, wie erforderlich, ohne Ausfall, für einen bestimmten Zeitraum unter bestimmten Bedingungen zu funktionieren". Zuverlässigkeit ist ein Ziel für die allgemeine Richtigkeit des Betriebs eines AI-Systems unter den Bedingungen der erwarteten Verwendung und über einen bestimmten Zeitraum, einschließlich der gesamten Lebensdauer des Systems.

Sicher

AI-Systeme sollten "unter definierten Bedingungen nicht zu einem Zustand führen, in dem das menschliche Leben, die Gesundheit, das Eigentum oder die Umwelt gefährdet sind". Die sichere Betriebsweise von AI-Systemen wird durch folgende Maßnahmen verbessert:

  • Verantwortungsvolle Design-, Entwicklungs- und Bereitstellungspraktiken;
  • Klare Informationen für Bereitsteller zur verantwortungsvollen Nutzung des Systems;
  • Verantwortungsbewusste Entscheidungsfindung durch Bereitsteller und Endbenutzer; und
  • Erklärungen und Dokumentation von Risiken aufgrund empirischer Beweise für Vorfälle.

Verschiedene Arten von Sicherheitsrisiken erfordern möglicherweise angepasste AI-Risikomanagementansätze, die sich auf den Kontext und die Schwere möglicher Risiken stützen. Sicherheitsrisiken, die ein potenzielles Risiko schwerer Verletzungen oder des Todes darstellen, erfordern die dringendste Priorisierung und einen gründlichsten Risikomanagementprozess.

Widerstandsfähigkeit

Künstliche Intelligenzsysteme sowie die Ökosysteme, in denen sie eingesetzt werden, können als widerstandsfähig bezeichnet werden, wenn sie unerwarteten ungünstigen Ereignissen oder unerwarteten Veränderungen ihrer Umgebung oder ihres Einsatzes standhalten können - oder wenn sie ihre Funktionen und Struktur bei internen und externen Veränderungen beibehalten und sicher und elegant abnehmen können, wenn dies erforderlich ist.. Gemeinsame Sicherheitsbedenken betreffen adversariale Beispiele, Datenvergiftung und die Ausfuhr von Modellen, Trainingsdaten oder anderen geistigen Eigentums durch AI-Systemendpunkte. Künstliche Intelligenzsysteme, die durch Schutzmechanismen, die den unerlaubten Zugriff und die Nutzung verhindern, die Vertraulichkeit, Integrität und Verfügbarkeit beibehalten können, können als sicher bezeichnet werden.

Verantwortlich und transparent

Vertrauenswürdige KI basiert auf Verantwortlichkeit. Verantwortlichkeit setzt Transparenz voraus. Transparenz spiegelt das Ausmaß wider, in dem Informationen über ein KI-System und seine Ausgaben für Personen verfügbar sind, die mit einem solchen System interagieren - unabhängig davon, ob sie sich dessen bewusst sind oder nicht. Eine bedeutungsvolle Transparenz bietet Zugang zu angemessenen Informationsstufen, die auf der Entwicklungsstufe der KI und den Rollen oder dem Wissen der KI-Akteure oder Personen, die mit oder die das KI-System nutzen, abgestimmt sind. Durch die Förderung höherer Verständnisebenen erhöht Transparenz das Vertrauen in das KI-System. Der Umfang dieses Merkmals reicht von Designentscheidungen und Trainingsdaten bis hin zum Modelltraining, der Struktur des Modells, seinen vorgesehenen Anwendungsfällen und wie und wann die Bereitstellung, die Nachbereitstellung oder die Endbenutzer-Entscheidungen getroffen und von wem getroffen wurden. Transparenz ist oft erforderlich, um handlungsfähige Abhilfe bei KI-Systemausgaben zu leisten, die falsch sind oder anderweitig zu negativen Auswirkungen führen.

Erklärbarkeit und Interpretierbarkeit

Erklärbarkeit bezieht sich auf eine Darstellung der Mechanismen, die der Betrieb von KI-Systemen zugrunde liegen, während Interpretierbarkeit auf die Bedeutung der Ausgabe von KI-Systemen im Kontext ihrer vorgesehenen Funktionszwecke hinweist. Zusammen helfen Erklärbarkeit und Interpretierbarkeit denen, die ein KI-System betreiben oder überwachen, sowie den Benutzern eines KI-Systems, tiefere Einblicke in die Funktionalität und Vertrauenswürdigkeit des Systems einschließlich seiner Ausgaben zu erhalten. Die zugrunde liegende Annahme ist, dass negative Risiken auf eine mangelnde Fähigkeit zurückzuführen sind, das Systemausgaben angemessen zu verstehen oder zu kontextualisieren. Erklärbare und interpretierbare KI-Systeme bieten Informationen, die den Endbenutzern helfen, die Zwecke und möglichen Auswirkungen eines KI-Systems zu verstehen. Risiken aufgrund mangelnder Erklärbarkeit können durch die Beschreibung des Betriebs von KI-Systemen gemäß den individuellen Unterschieden wie der Rolle des Benutzers, seinem Wissen und seinem Können verwaltet werden. Erklärbare Systeme können leichter debuggen und überwachen und eignen sich für eine gründlichere Dokumentation, Prüfung und Governance.

Privatsphäre

Privatsphäre bezieht sich allgemein auf die Normen und Praktiken, die dazu beitragen, die menschliche Autonomie, Identität und Würde zu schützen. Diese Normen und Praktiken behandeln in der Regel Freiheit von Eindringen, Beobachtung einschränken oder die Agentur von Individuen, um der Offenlegung oder Kontrolle von Facetten ihrer Identitäten (z.B. Körper, Daten, Ruf) zuzustimmen. Privatsphärewerte wie Anonymität, Vertraulichkeit und Kontrolle sollten in der Regel die Entscheidungen für die AI-Systemdesign, -entwicklung und -deployment beeinflussen. Privatsphärebezogene Risiken können die Sicherheit, die Vorurteile und die Transparenz beeinflussen und kommen mit Abwägungen mit diesen anderen Merkmalen. Wie Sicherheit und Sicherheit können bestimmte technische Merkmale eines AI-Systems die Privatsphäre fördern oder reduzieren. AI-Systeme können auch neue Risiken für die Privatsphäre darstellen, indem sie es ermöglichen, Individuen zu identifizieren oder bisher private Informationen über Individuen abzuleiten.

Fair

Fairness in KI umfasst Fragen der Gleichheit und Gerechtigkeit, indem Probleme wie schädliche Vorurteile und Diskriminierung angesprochen werden. Standards der Fairness können komplex und schwer zu definieren sein, da die Wahrnehmungen von Fairness zwischen Kulturen unterschiedlich sind und je nach Anwendung variieren können. Die Risikomanagement-Bemühungen von Organisationen werden durch die Anerkennung und Berücksichtigung dieser Unterschiede verbessert. Systeme, in denen schädliche Vorurteile gemildert werden, sind nicht unbedingt fair. Zum Beispiel können Systeme, in denen Vorhersagen für verschiedene demografische Gruppen etwas ausgeglichen sind, für Menschen mit Behinderungen unzugänglich sein oder durch die digitale Kluft beeinträchtigt werden oder bestehende Unterschiede oder systematische Vorurteile verschlimmern.

Fazit

Das Artificial Intelligence Risk Management Framework (AI RMF 1.0) ist ein Rahmenwerk, das Unternehmen bei der Einhaltung von Risikomanagement- und Compliance-Anforderungen unterstützt, wenn sie künstliche Intelligenz (KI) einsetzen. Es bietet eine strukturierte Methode, um Risiken zu identifizieren, zu bewerten und zu bewältigen, die mit der Implementierung von KI-Systemen verbunden sind. Es umfasst Richtlinien, die Unternehmen bei der Entwicklung, Implementierung und Überwachung von KI-Systemen unterstützen, sowie Tools, die Unternehmen bei der Einhaltung von Compliance-Anforderungen unterstützen. Um ein KI-System als vertrauenswürdig zu bezeichnen, müssen es bestimmte Kriterien erfüllen, die für interessierte Parteien von Wert sind. Dazu gehören: Gültigkeit und Zuverlässigkeit, Sicherheit, Widerstandsfähigkeit, Verantwortlichkeit und Transparenz, Erklärbarkeit und Interpretierbarkeit, Datenschutz und Fairness. Diese Merkmale sind notwendig, um ein KI-System als vertrauenswürdig zu bezeichnen.

Erweitern Sie Ihren Horizont mit einer Reifegradanalyse!

Reifegradanalyse für 1990 € !

Buchen Sie unserer Kennenlernprojekt, um einen groben aber ganzheitlichen Überblick über Ihre Maßnahmen in der Informationssicherheit zu bekommen!

Kontakt

Neugierig? Überzeugt? Interessiert?

Vereinbaren Sie ein unverbindliches Erstgespräch mit einem unserer Vertriebsmitarbeiter. Nutzen Sie den folgenden Link, um einen Termin auszuwählen: