24.06.2021

Europäische KI-Verordnung: ZVEI fordert Rechtssicherheit in Bezug auf KI-Definition und Hersteller-Anforderungen

Die Europäische Kommission hat Ende April ihren Vorschlag für eine Verordnung über Künstliche Intelligenz ("AI Act") zusammen mit ihrem Vorschlag für eine Maschinenverordnung vorgelegt.  Der KI-Vorschlag zielt darauf ab, einen Rechtsrahmen für sogenannte "Hochrisiko-KI-Systeme" zu schaffen, der deren Inverkehrbringen und Inbetriebnahme in der EU regelt. 
Der Regulierungsvorschlag sieht eine Unterteilung von KI-Software in Hochrisiko- und Nicht-Hochrisikokategorien vor. Sowohl für den Anbieter als auch den Nutzer der jeweiligen Hochrisiko-KI sieht die Kommission mehrere Verpflichtungen vor. Während KI-Systeme mit minimalem oder keinem Risiko ohne zusätzliche Einschränkungen zur bestehenden Gesetzgebung erlaubt sind, werden für Hochrisikosysteme umfangreiche Anforderungen gelten, darunter Risiko- und Qualitätsmanagement, Informations- und Transparenzpflichten, qualitativ hochwertige Trainingsdaten und Post-Market-Monitoring. 

Der ZVEI bewertet das Ziel der Kommission, durch einen risikobasierten Ansatz ein europäisches Konzept für vertrauenswürdige KI zu stärken, als positiv. Allerdings sollte der Gesetzgeber Lücken in der Regulierung überall dort sorgfältig prüfen, wo KI als Technologie in ihrer Gesamtheit betrachtet wird. Insbesondere im Fall von KI, die in Produkte eingebettet ist, sind die potenziellen Risiken in Bezug auf die Produktsicherheit bereits durch bestehende Regulierungen und Funktionseinschränkungen begrenzt. 

Daher befürwortet der ZVEI, dass der AI Act dem etablierten Konzept des New Legislative Framework (NLF) für Hochrisiko-KI-Systeme als Sicherheitskomponenten von Produkten folgt und so konsistent mit existierender Gesetzgebung zur Produktsicherheit ausgestaltet ist. Sobald produktbezogene Risiken adressiert werden, sollten die EU-Kommission mögliche Verknüpfungen zwischen AI Act und harmonisierten Richtlinien in Annex II, z.B. der Maschinenrichtlinie, eingehend prüfen, um Doppelregulierung zu vermeiden.  Es sollte zudem sichergestellt werden, dass eine Doppelzertifizierung vermieden wird. Das kann etwa dann auftreten, wenn eine zertifizierte KI-Software in eine neue Komponente oder ein neues Produkt in der Wertschöpfungskette eingebettet wird. Generell muss die Kommission vermeiden, dass überbordende Verpflichtungen für Anbieter von KI-Systemen Innovationen und die KI-Entwicklung behindern. 

Rechtliche Klarheit lässt auch die im vorliegenden Vorschlag verwendete Definition von KI missen. Indem die Europäische Kommission rein logik- und wissensbasierte Ansätze sowie statistische Methoden in die Techniken und Ansätze zur Definition von KI in Anhang I aufnimmt, macht sie es unmöglich, KI-Software von herkömmlichen Datenanalysetools zu unterscheiden.