Wie mit Überlappungen umgegangen wird und welche KI-Systeme wirklich Sicherheitsfunktionen übernehmen, die „hochriskant“ sind, ist noch nicht vollumfänglich geklärt. Außerdem will die EU-Kommission erst im Februar 2026 Leitlinien für Hochrisiko-KI-Systeme vorlegen, die einige der offenen Fragen adressieren sollen. Auch die harmonisierten europäischen Normen, die für Unternehmen eine zentrale Bedeutung haben, wenn es um die praktische Umsetzung der Anforderungen des AI Acts geht, werden wohl erst Ende 2026 vorliegen.
Das führt zum zweiten großen Problem: Der Zeitplan, nach dem die meisten Hochrisiko-KI-Anforderungen bereits im August 2026 wirksam werden, ist unrealistisch. Es fehlen zudem nicht nur Leitlinien und Normen, sondern auch die benannten Stellen, die Konformitätsbewertungsverfahren durchführen können. Dadurch wird es schlicht unmöglich, bestimmte KI-gestützte Produkte in Verkehr zu bringen.
Die EU-Kommission hat hierauf reagiert und am 19. November 2025 einen „Digital Omnibus“ für den AI Act vorgestellt, der einige der größten Kritikpunkte adressiert und auch eine gestaffelte Fristverlängerung vorsieht. Am 16. Dezember 2025 folgte außerdem ein Vorschlag, wie die MDR überarbeitet werden soll. So könnten zumindest im Bereich der Medizinprodukte die gröbsten Überschneidungen beseitigt werden. Für die anderen Produkte der Elektro- und Digitalindustrie bleiben dagegen noch die Grundprobleme bestehen: Viele industrielle KI-Systeme sind bereits heute in bestehendes europäisches Produktsicherheitsrecht eingebettet. Ihre zusätzliche Erfassung im AI Act führt zu Unsicherheit, Komplexität und unnötigen Kosten. Eine gezielte Herausnahme industrieller KI wäre daher der einfachste Weg, Klarheit zu schaffen und das gewünschte „Mehr“ an Innovation zu ermöglichen, ohne dass die Sicherheit von Verbrauchern leiden würde.