Rechenschaftspflicht: Risikoreduzierung & Stärkung
Wie die Maschinenidentität eine kritische KI-Rechenschaftslücke im EU-KI-Gesetz schließen kann
Der Ansatz der Gesetzgeber besteht darin, einen risikobasierten Rahmen für KI-Systeme zu schaffen
Kevin Bocek, VP Ecosystem und Community bei Venafi
Europäische Gesetzgeber setzen mit dem, was eines der bedeutendsten Gesetzgebungen in einer Generation sein könnte, fort. Die EU KI-Verordnung wird einen wesentlich proaktiveren Ansatz zur Regulierung verfolgen als die derzeitigen Vorschläge in den USA und in Großbritannien. Experten haben jedoch eine kritische Schlupflücke in Änderungen an der Gesetzgebung identifiziert, die Bürger und Gesellschaften vor KI-Risiken nicht schützen, sondern stattdessen gefährden könnten.
Kurz gesagt, diese Lücke könnte den gesamten Zweck des vorgeschlagenen Gesetzes untergraben und muss geschlossen werden. Dafür müssen die Gesetzgeber Schritte einleiten, um Maschinenidentitäten als Mittel zur Verbesserung der KI-Regulierung, der Rechenschaftspflicht, der Sicherheit und des Vertrauens zu priorisieren, denn die Zeit läuft ab.
Der Ansatz der Gesetzgeber besteht darin, einen risikobasierten Rahmen für KI-Systeme zu schaffen. So sollen solche, die als inakzeptables Risiko gelten, vollständig verboten werden, während solche, die als hohes Risiko eingestuft sind, mehrere Stufen der Bewertung und Registrierung durchlaufen müssen, bevor sie genehmigt werden. Ursprünglich enthielt das Gesetz klare Schutzmaßnahmen. Jedes KI-System wäre als Hochrisiko eingestuft worden, wenn es für einen der in Anhang III des Gesetzentwurfs aufgeführten Hochrisiko-Zwecke verwendet werden sollte. Entwickler und Anwender dieser Systeme wären verpflichtet gewesen, sicherzustellen, dass die Technologie sicher ist, frei von diskriminierenden Vorurteilen und öffentlich zugängliche Informationen darüber enthält, wie sie funktioniert.
Dies hat sich in der jüngsten Fassung der Gesetzgebung geändert. Dank einer neuen Schlupflücke können Entwickler nun selbst entscheiden, ob ihre Systeme als Hochrisiko eingestuft werden oder nicht. Über 100 zivilgesellschaftliche Organisationen fordern, dass diese Schlupflücke beseitigt und das ursprüngliche System wiederhergestellt wird. Sie argumentieren, dass die Schlupflücke unredliche oder unwissende Entwickler ermöglichen würde, die grundlegenden Anforderungen des Gesetzes zu umgehen, indem sie sich selbst als begrenztes oder minimales Risiko zertifizieren. Dies würde auch zu rechtlicher Unsicherheit darüber führen, was als Hochrisiko angesehen wird und zu Marktaufspaltung in der Region, da verschiedene Mitgliedstaaten unterschiedliche Definitionen von Hochrisiko verwenden könnten. Lokale Behörden könnten auch Schwierigkeiten haben, die Selbstbewertung der Entwickler effektiv zu überwachen.
Einfach ausgedrückt, die neueste Version der EU KI-Verordnung schwächt die Regulierungsaufsicht und die Rechenschaftspflicht der Entwickler untergräbt das Vertrauen und die Sicherheit und kann Benutzer gefährden. Abgesehen von der Schließung der Schlupflücke in kürzester Zeit müssen die Gesetzgeber weiter gehen, um das Risiko zu reduzieren und die Rechenschaftspflicht in der rasant wachsenden KI-Branche zu stärken.
Ein Beispiel für eine wichtige Kontrolle ist ein Kill Switch. Dieser ist in der Fertigung, in chemischen Prozessen und sogar an Tankstellen üblich und bietet eine sichere Möglichkeit, eine gefährliche Situation unter Kontrolle zu bringen. Bei KI handelt es sich nicht um einen physischen Schalter, sondern um eine Möglichkeit, die Nutzung der Maschinenidentität zur Authentifizierung des Modells zu stoppen.
Um es klarzustellen, es geht nicht um einen einzigen "Notausschalter" pro KI-Modell. Tatsächlich können Tausende von Maschinenidentitäten mit einem einzigen Modell verknüpft sein, die mit den Eingaben, die das Modell trainieren, dem Modell selbst und seinen Ausgaben in Verbindung stehen. Diese Modelle müssen in jeder Phase geschützt werden, sowohl während des Trainings als auch während ihres Einsatzes. Das bedeutet, dass jede Maschine während jedes Prozesses eine Identität benötigt, um Vergiftung, Manipulation und unbefugten Zugriff zu verhindern. Dies wird natürlich die Anzahl der Maschinenidentitäten in Netzwerken erhöhen, und hier kann KI ebenfalls helfen. Viele dieser Prinzipien können auch angewendet werden, um zu verhindern, dass KIs ebenso wie heute bei Smartphones und Laptops für Apps modifiziert oder manipuliert werden.
Fazit: Die Mitglieder des Europäischen Parlaments werden eine schwere Bürde tragen, wenn sie es versäumen, die Schlupflücke in der EU KI-Verordnung zu schließen. Aber dies sollte erst der Anfang sein. Eine engere Zusammenarbeit mit der Industrie ist erforderlich, um das potenzielle Wert von vorhandenen und robusten Technologien wie der Maschinenidentität in der Stärkung der KI-Regulierung und Rechenschaftspflicht aufzuzeigen. Die Förderung von Forschung und Entwicklung in den Bereichen Sicherheit und Schutz - wie bei KI-Notausschaltern - wird allen außer unseren Gegnern zugute kommen. (Venafi: ra)
eingetragen: 28.11.23
Newsletterlauf: 09.02.24
Venafi: Kontakt und Steckbrief
Der Informationsanbieter hat seinen Kontakt leider noch nicht freigeschaltet.
Kostenloser Compliance-Newsletter
Ihr Compliance-Magazin.de-Newsletter hier >>>>>>