Termine
ampere 2026
30.03.2026
Der EU AI Act soll den Umgang mit Künstlicher Intelligenz regeln. Doch auch dieser Rechtsrahmen zeigt ein grundlegendes Problem kritisiert Kathrin Glastra, Büroleiterin des ZVEI European Office: Unklare und teils widersprüchliche Anforderungen drohen die guten Absichten der Europäischen Union zu konterkarieren.
Brüssel Insights - Online
Der EU AI Act soll den Umgang mit Künstlicher Intelligenz regeln. Doch auch dieser Rechtsrahmen zeigt ein grundlegendes Problem kritisiert Kathrin Glastra, Büroleiterin des ZVEI European Office: Unklare und teils widersprüchliche Anforderungen drohen die guten Absichten der Europäischen Union zu konterkarieren.

Künstliche Intelligenz (KI) transformiert alle Lebensbereiche und schafft Regulierungslücken, zum Beispiel beim Missbrauchspotenzial von „Deep Fakes“ oder bei KI-gestützten Überwachungsmaßnahmen, die Grundrechte beeinträchtigen können. Das Ziel des EU AI Acts, die „Einführung einer auf den Menschen ausgerichteten und vertrauenswürdigen KI“ zu fördern, ist daher durchaus lobenswert. Die unzureichende Abstimmung mit anderen Rechtsakten – darunter dem existierenden europäischen Produktsicherheitsrecht – sorgt allerdings für erhebliche Probleme und bedroht die Wettbewerbsfähigkeit der Industrie. Diese durch Innovationsförderung und den „Brussels Effect“ zu steigern, war ursprünglich ein Ziel des AI Acts. Eine ZVEI-Umfrage zeigt allerdings, dass 85 Prozent der Unternehmen nicht davon ausgehen, dass dieses erreicht wird. Ein großes Problem ist dabei auch der Zeitplan: Rund 65 Prozent der Unternehmen haben noch keine Vorstellung davon, wie sie die Vorgaben des AI Acts umsetzen sollen oder inwieweit sie überhaupt betroffen sind, obwohl die Verordnung bereits seit dem 1. August 2024 in Kraft getreten ist und die besonders relevanten Hochrisiko-KI-Pflichten ab August 2026 greifen sollen.
Dafür gibt es eine ganz Reihe von Gründen. Das größte Problem ist der horizontale Charakter des AI Acts, der Industrieprodukte genauso reguliert wie Strafverfolgungs-KI, Chatbots oder Schulsoftware. Trotz seines Umfangs ist der AI Act außerdem keineswegs allein dafür zuständig, KI zu regulieren. Der Umgang mit Daten und deren Schutz ist auch im Data Act sowie der Datenschutzgrundverordnung geregelt. Für andere Aspekte, beispielsweise die Cybersicherheit von KI, gelten wiederum andere Rechtsakte. Viele Produkte, die oft bereits schon seit Jahrzehnten KI enthalten, sind zudem über die etablierte Produktregulierung abgedeckt: Die Medizinprodukteverordnung (MDR) umfasst auch KI-Produkte im Gesundheitsbereich, die neue Maschinenverordnung adressiert KI über Vorgaben für „Systeme mit selbstentwickelndem Verhalten“.
Head of ZVEI European Office
Wie mit Überlappungen umgegangen wird und welche KI-Systeme wirklich Sicherheitsfunktionen übernehmen, die „hochriskant“ sind, ist noch nicht vollumfänglich geklärt. Außerdem will die EU-Kommission erst im Februar 2026 Leitlinien für Hochrisiko-KI-Systeme vorlegen, die einige der offenen Fragen adressieren sollen. Auch die harmonisierten europäischen Normen, die für Unternehmen eine zentrale Bedeutung haben, wenn es um die praktische Umsetzung der Anforderungen des AI Acts geht, werden wohl erst Ende 2026 vorliegen.
Das führt zum zweiten großen Problem: Der Zeitplan, nach dem die meisten Hochrisiko-KI-Anforderungen bereits im August 2026 wirksam werden, ist unrealistisch. Es fehlen zudem nicht nur Leitlinien und Normen, sondern auch die benannten Stellen, die Konformitätsbewertungsverfahren durchführen können. Dadurch wird es schlicht unmöglich, bestimmte KI-gestützte Produkte in Verkehr zu bringen.
Die EU-Kommission hat hierauf reagiert und am 19. November 2025 einen „Digital Omnibus“ für den AI Act vorgestellt, der einige der größten Kritikpunkte adressiert und auch eine gestaffelte Fristverlängerung vorsieht. Am 16. Dezember 2025 folgte außerdem ein Vorschlag, wie die MDR überarbeitet werden soll. So könnten zumindest im Bereich der Medizinprodukte die gröbsten Überschneidungen beseitigt werden. Für die anderen Produkte der Elektro- und Digitalindustrie bleiben dagegen noch die Grundprobleme bestehen: Viele industrielle KI-Systeme sind bereits heute in bestehendes europäisches Produktsicherheitsrecht eingebettet. Ihre zusätzliche Erfassung im AI Act führt zu Unsicherheit, Komplexität und unnötigen Kosten. Eine gezielte Herausnahme industrieller KI wäre daher der einfachste Weg, Klarheit zu schaffen und das gewünschte „Mehr“ an Innovation zu ermöglichen, ohne dass die Sicherheit von Verbrauchern leiden würde.
Auch bei den Fristen besteht Nachbesserungsbedarf. Zum einen darf es angesichts der nahenden Deadline keinen Aufschub bei deren Verabschiedung geben. Die Verlängerung der Fristen sollte daher vom weiteren Reformverfahren losgelöst und möglichst zeitnah beschlossen werden. Dass die EU-Kommission entscheiden kann, die Verlängerung gegebenenfalls auch wieder abzukürzen, erzeugt außerdem weitere Rechtsunsicherheit. Ideal wäre es, die Fristen auf 24 Monate ab Verfügbarkeit der harmonisierten europäischen Normen festzusetzen.
Text Kathrin Glastra | Bild ZVEI/ Melanie Bauer Photography
Dieser Artikel ist Teil der Ausgabe 2026, die am 13. April 2026 erscheint.