AI Act einstimmig gebilligt

von am 2. Februar 2024

Es ist soweit: Der AI Act (dt.: KI Verordnung) wird Realität. Nach zähem Ringen waren am Ende doch alle am Gesetzgebungsverfahren Beteiligten überzeugt: KI mit AI Act ist besser als KI ohne AI Act. Denn mit (mehr oder weniger) konkreten Regelungen lässt sich besser weiterarbeiten als mit weiterer Unsicherheit – so jedenfalls die Hoffnung vieler.

Während noch letzte Schritte des europäischen Gesetzgebers notwendig sind, wird der Staffelstab in Sachen AI Act wird nun vom europäischen Gesetzgeber schon an diejenigen übergeben, die unter die neuen Regelungen fallen werden und die mit den bis zuletzt hin und her diskutierten, nun aber festgelegten Formulierungen, arbeiten können.

Hier ein erster kurzer Überblick, um was es geht, wen das betrifft, ab wann es gilt, was zu tun ist und wie hoch die Strafen sind.

Das Prinzip: Das Gesetz wählt einen risikobasierten Ansatz: je mehr Risiko von einem System ausgeht, desto mehr Anforderungen.

Wer sind die von diesem neuen Gesetz (Haupt-)Betroffenen?

  •  Anbieter von KI-Systemen, die unter eine der Risikokategorien fallen, wenn das System oder dessen Output in der EU genutzt werden;
  • Anwender von KI-Systemen, die unter eine der Risikokategorien fallen;
  • Anbieter von General Purpose AI Modellen (mit und ohne systemisches Risiko)
  • Anbieter von General Purpose AI Systemen (soweit diese selbst ein hohes Risiko aufweisen oder als Komponente in Hoch-Risiko-Systemen genutzt werden)

Für Anbieter und Anwender wird es Übergangsfristen zur Anpassung an die neuen Vorgaben geben:

  • 6 Monate für verbotene KI-Systeme
  • 12 Monate für General Purpose AI Modelle
  • 24 Monate für Hoch-Risiko-KI-Systeme nach Annex III des AI Acts
  • 36 Monate für Hoch-Risiko-KI-Systeme in bereits regulierten Bereichen nach Annex II des AI Acts

Für die verschiedenen Akteure bedeutet das insbesondere:
Verbotene KI-Systeme müssen also relativ schnell, d.h. innerhalb von 6 Monaten, vom europäischen Markt genommen werden. Dies betrifft vor allem Systeme, die zu Manipulation, Benachteiligungen und sonstigen schwerwiegenden Grundrechtseingriffen, insbesondere aufgrund einer Kategorisierung von Personen, führen (z.B. Social Scoring, Emotionserkennung am Arbeitsplatz und im Bildungswesen, biometrische Kategorisierung, etc.).

Anbieter von General Purpose AI Modellen müssen spätestens in 12 Monaten eine umfangreiche technische Dokumentation vornehmen, insbesondere auch der Trainings- und Testprozesse. Diese Dokumentationen müssen Anbietern von KI-Systemen, die General Purpose AI Modelle integrieren, zur Verfügung gestellt werden. So soll in der Wertschöpfungskette mehr Transparenz über die Datenbasis eines eingesetzten General Purpose AI Modells und den damit zusammenhängenden Risiken geschaffen werden. Nur so können Anbieter von KI-Systemen, die General Purpose AI Modelle integrieren, ihre eigenen Risiken und eine mögliche Haftung auch sinnvoll überblicken und ggf. beschränken. Darüber hinaus müssen General Purpose AI Modelle Zusammenfassungen ihrer Trainingsinhalte zur Verfügung stellen und dafür sorgen, dass Maßnahmen zur Beachtung von Urheberrechten und hier vor allem hinsichtlich wirksam erklärter Rechtevorbehalte zu einem kommerziellen Text und Data Mining ergriffen werden.

Für Rechteinhaber wird die vollumfängliche und wirksame Erklärung von Rechtevorbehalten bzgl. eines Text und Data Mining damit noch wichtiger werden, wenn sie nicht wollen, dass General Purpose AI Modelle mit ihren Werken trainiert werden.

Für General Purpose AI Modell Anbieter mit einem systemischen Risiko sind einige weitere Anforderungen vorgesehen, wie Modell-Evaluationen, Identifizierung und Dokumentation von Risiken und Vorfällen und ein bestimmtes Level an Cybersecurity.

General Purpose AI Modell Anbieter in Open Source Modellen müssen dagegen nur die Transparenz- und Urheberrechtsvorgaben erfüllen (soweit die Modelle kein systemisches Risiko mit sich bringen).

Für die Übergangszeit können sich General Purpose AI Modell Anbieter selbst an zusammen mit dem AI Office (einer neu eingerichteten Behörde) zusammengestellten Codes of Practice messen, um ihren Abnehmern Konformität nachweisen zu können. Ein erster Code of Practice muss bereits innerhalb von 9 Monaten vorliegen.

Anbieter von generativer KI müssen sicherstellen, dass die Ergebnisse in einem maschinenlesbaren Format gekennzeichnet sind und damit als von KI generiert erkennbar sind. Wer generative KI für informative Texte einsetzt, die veröffentlicht werden, muss offenlegen, dass der Text von KI generiert wurde.

Anbieter von Hoch-Risiko-KI-Systemen nach Annex III, was beispielsweise nicht verbotene biometrische Systeme, kritische Infrastruktur, Lernsysteme, Justiz oder HR betrifft, haben ein wesentlich höheres Anforderungsspektrum und bekommen daher eine Übergangszeit von 24 Monaten eingeräumt. Die Anbieter dieser Systeme müssen insbesondere ein Risikomanagementsystem einführen, Daten-Governance betreiben, eine technische Dokumentation vorhalten und Aufzeichnungen vornehmen sowie Gebrauchsanweisungen zur Verfügung stellen. Vor allem müssen diese Systeme aber einer menschlichen Kontrolle unterliegen, ein angemessenes Level an Genauigkeit, Richtigkeit und Sicherheit erreichen und ein Qualitätsmanagement betreiben.

In Bezug auf die Annex III Systeme gibt es nun neue Möglichkeiten eines „Selbstausschlusses“. Hier können Unternehmen durch eigenständige Überprüfung ihrer Systeme zu der Auffassung kommen, dass ihr System gerade nicht unter die Vorschriften fällt. Sie müssen ihr System jedoch registrieren und ihre Einschätzung kann überprüft werden.

Bestimmte Anbieter von Hoch-Risiko-Systemen müssen des Weiteren eine sog. Grundrechtsfolgenabwägung vornehmen.

Anbieter von Hoch-Risiko-KI-Systemen, deren Produkte bereits unter bestehende EU-Regulierungen nach Annex II fallen oder in denen Hoch-Risiko-KI als Sicherheitskomponente integriert wird, bekommen allerdings mehr Zeit und müssen den neu geregelten Anforderungen erst innerhalb von 36 Monaten genügen.

Sofern die durch die KI VO regulierten KI-Systeme den Anforderungen nicht genügen, drohen hohe Strafen:

  • 35 Mio. EUR oder 7 % des weltweiten Jahresumsatzes im Falle von Verstößen gegen verbotene Anwendungen;
  • 15 Mio. EUR oder 3 % des weltweiten Jahresumsatzes bei sonstiger Nichteinhaltung von Anforderungen oder Verpflichtungen;
  • 7,5 Mio. EUR oder 1,5 % des weltweiten Jahresumsatzes im Falle von falschen, unvollständigen oder irreführenden Informationen gegenüber Behörden.

Als erster Schritt ist also allen Unternehmen, die selbst KI-Systeme anbieten, zu empfehlen, bereits jetzt genau zu überprüfen, in welche Kategorie sie fallen werden und welche Anforderungen ab welchem genauen Zeitpunkt für sie gelten.

 

 

 

Share this