Blog
EU AI ActComplianceAgentic CodingDACHDigital OmnibusGPAI

EU AI Act + Agentic Coding: Was sich im Maerz 2026 geaendert hat — und was CTOs jetzt wissen muessen

Der EU Council hat am 13. Maerz 2026 die High-Risk-Deadlines um 16 Monate verschoben. Die EU Commission hat das erste Audit-Verfahren fuer GPAI veroeffentlicht. Was das fuer KI-Agenten in der Softwareentwicklung bedeutet — und warum die Verschiebung kein Freifahrtschein ist.

AutorGiuliano FalcoFounder, EconLab AI
Datum
Lesezeit18 min
01

Was im Maerz 2026 passiert ist: Zwei Entscheidungen die alles aendern

Innerhalb einer Woche hat die EU die Landschaft der KI-Regulierung fundamental veraendert — in zwei gegenlaeufige Richtungen gleichzeitig.

12. Maerz 2026: Die EU Commission veroeffentlicht das GPAI-Audit-Verfahren

Die Europaeische Kommission hat einen Entwurf fuer eine Durchfuehrungsverordnung veroeffentlicht (Referenz: Ares(2026)2709234), der erstmals im Detail beschreibt, wie die Kommission GPAI-Modelle (General Purpose AI) untersuchen und sanktionieren wird. Die oeffentliche Konsultation laeuft bis 9. April 2026.

Was der Entwurf festlegt:

  • Zugriff auf Code, Gewichte und Infrastruktur: Die Kommission kann API-Zugang, internen Modellzugriff, Quellcode, Modellgewichte und Hosting-Infrastruktur anfordern — auf dem gleichen Level wie interne Mitarbeiter des Anbieters.
  • Unabhaengige Experten: Strenge Unabhaengigkeitsregeln mit 12-monatigem Lookback auf alle vertraglichen Beziehungen.
  • Monitoring-Abschaltung: Anbieter koennen verpflichtet werden, ihre eigenen Monitoring-Systeme zu deaktivieren, damit die Auditoren unbeobachtet pruefen koennen.

Das ist kein Entwurf fuer irgendwann. Die formale Verabschiedung ist fuer Q2 2026 geplant.

13. Maerz 2026: Der EU Council verschiebt die High-Risk-Deadlines um 16 Monate

Am selben Tag hat der Rat der Europaeischen Union im Rahmen des "Digital Omnibus on AI" (Omnibus VII) seinen Verhandlungsstandpunkt angenommen. Die wichtigsten Aenderungen:

  • Standalone High-Risk AI (Annex III): Neue Deadline 2. Dezember 2027 (statt 2. August 2026)
  • Embedded High-Risk AI (Annex I): Neue Deadline 2. August 2028 (statt 2. August 2027)
  • SME-Erweiterung: Regulatorische Erleichterungen gelten jetzt auch fuer Small Mid-Caps
  • Neues Verbot: KI-generierte nicht-einvernehmliche sexuelle Inhalte sofort verboten

Hintergrund: 48% der EU-Handelsverbaende hatten erfolgreich argumentiert, dass die August-2026-Frist eine "unueberwindbare administrative Belastung" fuer 70% der industriellen KMU des Kontinents darstellen wuerde. Die technischen Standards, die Unternehmen zur Compliance brauchen, waren schlicht noch nicht fertig.

Wichtig: Dies ist ein Verhandlungsmandat des Rates, kein finales Gesetz. Das Europaeische Parlament wird voraussichtlich im Juni 2026 abstimmen. Die endgueltigen Aenderungen koennten im Juli 2026 veroeffentlicht werden. Bis dahin gilt formal noch die urspruengliche Frist.

02

Was gilt JETZT — Stand Maerz 2026

Trotz der geplanten Verschiebung sind viele Verpflichtungen bereits in Kraft:

DatumWas giltStatus
1. Aug 2024EU AI Act in Kraft getretenAktiv
2. Feb 2025Verbotene KI-Praktiken (Social Scoring, Manipulation). Strafen anwendbar.Aktiv
2. Aug 2025GPAI-Verpflichtungen fuer Modellanbieter. Nationale Behoerden muessen benannt sein.Aktiv
2. Aug 2026Transparenzpflichten (Art. 50). Innovationsmassnahmen. Enforcement startet. High-Risk moeglicherweise verschoben.Geplant
2. Dez 2027Standalone High-Risk AI (Annex III) — wenn Omnibus verabschiedetVorgeschlagen
2. Aug 2028Embedded High-Risk AI in regulierten Produkten — wenn Omnibus verabschiedetVorgeschlagen

Das bedeutet: Die Verschiebung betrifft nur High-Risk-Systeme. Transparenzpflichten, GPAI-Regeln, verbotene Praktiken und das allgemeine Enforcement-Regime gelten weiterhin nach dem urspruenglichen Zeitplan.

03

Die Strafen-Staffel: Drei Tiers, bis zu 7% des Umsatzes

Artikel 99 des EU AI Act definiert drei Stufen von Geldbussen:

TierVerstossMaximale Strafe
Tier 1Verbotene KI-Praktiken (Art. 5)35 Mio. EUR oder 7% des globalen Jahresumsatzes
Tier 2High-Risk-Pflichten (Art. 6-51): fehlende Dokumentation, kein Risikomanagement, keine Konformitaetsbewertung, unzureichende menschliche Aufsicht15 Mio. EUR oder 3% des Umsatzes
Tier 3Falsche oder unvollstaendige Angaben gegenueber Behoerden7,5 Mio. EUR oder 1% des Umsatzes

Zur Einordnung: 7% des globalen Umsatzes wuerde fuer Meta ~8,5 Milliarden USD bedeuten, fuer Google ~14 Milliarden, fuer Microsoft ~16 Milliarden. Diese Strafen uebertreffen die DSGVO-Maximalstrafen erheblich.

Faktoren bei der Berechnung: Schwere und Dauer des Verstosses, Vorsatz oder Fahrlaessigkeit, Massnahmen zur Schadensbegrenzung, Unternehmensgroesse, fruehere Verstoesse, Kooperationsbereitschaft.

KMU und Startups erhalten verhaeltnismaessig angepasste Strafen — aber "angepasst" heisst nicht "erlassen".

04

Warum Agentic Coding besondere Aufmerksamkeit braucht

Die meisten Compliance-Diskussionen drehen sich um KI in Endprodukten: Chatbots, Empfehlungssysteme, Kreditscoring. Aber was ist mit den KI-Agenten die den Code schreiben?

2026 ist das Jahr in dem Agentic Coding den Mainstream erreicht hat. Claude Code, Cursor, Windsurf, GitHub Copilot — Millionen von Entwicklern nutzen KI-Agenten die autonom Code schreiben, testen und deployen. Diese Agenten sind keine passiven Assistenten mehr. Sie fuehren Tool Calls aus, aendern Dateien, interagieren mit APIs, treffen Architekturentscheidungen.

Die fuenf Fragen fuer CTOs

  1. Risikoeinstufung: Wenn ein KI-Agent Code fuer ein High-Risk-System schreibt (z.B. Kreditscoring, medizinische Diagnostik) — ist der Agent selbst ein High-Risk-System? Die Antwort ist nicht trivial. Artikel 6 klassifiziert nach dem Einsatzkontext, nicht nach der Technologie.
  2. Dokumentation: Koennen Sie nachweisen, welche KI-generierten Code-Aenderungen in Ihrem Produkt stecken? Git-History allein reicht nicht — der EU AI Act fordert "technische Dokumentation" die den gesamten Entwicklungsprozess abdeckt.
  3. Menschliche Aufsicht (Art. 14): Artikel 14 fordert "effective human oversight". Fuer Agentic Coding bedeutet das: Gibt es einen dokumentierten Review-Prozess? Wer genehmigt KI-generierten Code? Gibt es Kill-Switches und Iterationslimits?
  4. Transparenz: Wissen Ihre Kunden, dass Teile Ihres Produkts von KI-Agenten erstellt wurden? Artikel 50 verlangt Transparenz — auch wenn das Endprodukt selbst kein KI-System ist.
  5. Audit-Trail: Wenn die EU Commission (oder eine nationale Behoerde) den Entwicklungsprozess Ihres High-Risk-Systems pruefen will — koennen Sie lueckenlos nachweisen, welcher Agent welchen Code geschrieben hat, welcher Prompt verwendet wurde, und welcher Mensch die Aenderung freigegeben hat?
05

Konkrete Compliance-Checkliste fuer Agentic Coding

Basierend auf Artikel 9 (Risikomanagement), Artikel 11 (Technische Dokumentation), Artikel 14 (Menschliche Aufsicht) und den neuen Enforcement-Details vom 12. Maerz 2026:

1. Audit-Trails fuer KI-generierten Code

  • Git-Commits mit KI-Kennzeichnung: Co-Authored-By: Claude Opus 4.6 — jeder KI-generierte Commit muss als solcher erkennbar sein.
  • Prompt-Logging: Welcher Prompt hat welchen Code erzeugt? Nicht im Git-Kommentar, sondern in einem separaten, durchsuchbaren Log.
  • Decision-Logging: Warum hat der Agent diese Architektur gewaehlt? Bei Multi-Agent-Systemen: Welcher Agent hat welche Entscheidung getroffen?
  • WORM-Formatierung: Neue Best Practice fuer 2026 — Write Once, Read Many fuer Reasoning-Trails, um nachtraegliche Manipulation auszuschliessen.

2. Human-in-the-Loop fuer High-Risk-Kontexte

  • "Meaningful human oversight" — keine Rubber-Stamp-Approvals. Code Reviews mit dokumentierter Begruendung.
  • Iterationslimits und Kill-Switches: Agenten muessen unterbrechbar sein. Unbegrenzte autonome Loops sind nicht Art.-14-konform.
  • Eskalationspfade: Definierte Kriterien wann ein Agent-Output menschliche Review erfordert (sicherheitskritisch, datenschutzrelevant, regulatorisch sensitiv).
  • Approval Gates: Finanztransaktionen, Datenlöschungen, externe Kommunikation — erfordern explizite menschliche Freigabe vor Ausfuehrung.

3. Compliance-by-Design in der Agent-Architektur

  • Trust Boundaries: Agenten duerfen bestimmte Dateien, Systeme oder Daten nicht aendern. Konfigurierbar, nicht hartcodiert.
  • Output Governance: Validierung vor allen externen Aktionen (API-Calls, Datenbankschreibzugriffe, Deployments).
  • Kosten-Caps: Budget-Limits pro Agent-Session verhindern unkontrollierte Ressourcennutzung.
  • Rollback-Faehigkeit: Jede Aenderung muss revertierbar sein. Git-basiert, mit automatischen Checkpoints.

4. KI-Systeminventar

  • Dokumentation aller KI-Komponenten im Unternehmen — intern entwickelt, Drittanbieter, eingebettet
  • Risikokategorisierung jedes Systems (verboten, High-Risk, Limited, Minimal)
  • Verantwortlichkeiten: Wer ist Provider, wer Deployer im Sinne des AI Act?
06

Das neue GPAI-Enforcement: Was Nutzer von Claude, GPT und Gemini wissen muessen

Die Durchfuehrungsverordnung vom 12. Maerz 2026 betrifft zunaechst die Anbieter von GPAI-Modellen — Anthropic, OpenAI, Google, Meta, Mistral. Aber die Auswirkungen treffen auch die Nutzer dieser Modelle.

Was die Verordnung fuer Unternehmen bedeutet die GPAI einsetzen

Wenn die EU Commission eine Untersuchung gegen einen GPAI-Anbieter einleitet, kann sie auch von den Nutzern Informationen anfordern:

  • Welche Daten haben Sie in das Modell eingespeist?
  • Wie integrieren Sie das Modell in Ihre Geschaeftsprozesse?
  • Haben Sie die Risiken bewertet?

Die Timeline des Enforcement:

  • August 2025: GPAI-Verpflichtungen fuer Modellanbieter in Kraft
  • Q2 2026: Formale Verabschiedung der Durchfuehrungsverordnung
  • 2. August 2026: Volle Enforcement-Befugnisse der EU Commission aktiv
  • 2. August 2027: Enforcement auch fuer Modelle die vor August 2025 auf den Markt kamen

Fuer Unternehmen die Agentic Coding einsetzen heisst das: Dokumentieren Sie jetzt, welche Modelle Sie nutzen, wie Sie sie integrieren, und welche Governance-Strukturen Sie etabliert haben. Wenn der Auditor fragt, ist "wir nutzen Claude Code fuer die Entwicklung" keine ausreichende Antwort.

07

Warum die Verschiebung kein Freifahrtschein ist

Die 16-monatige Verschiebung der High-Risk-Deadlines verleitet zu einer gefaehrlichen Schlussfolgerung: "Wir haben noch Zeit." Drei Gruende warum das falsch ist:

1. Die Verschiebung ist nicht final

Der EU Council hat seinen Verhandlungsstandpunkt angenommen. Das Europaeische Parlament muss noch zustimmen. Die endgueltige Abstimmung ist fuer Juni 2026 geplant. Es gibt keine Garantie, dass die Verschiebung in der aktuellen Form bestehen bleibt.

2. Transparenzpflichten und GPAI-Regeln sind nicht verschoben

Artikel 50 (Transparenz) und alle GPAI-Verpflichtungen gelten weiterhin ab dem 2. August 2026. Wenn Sie KI-Agenten einsetzen die mit Menschen interagieren, muessen Sie ab August 2026 transparent kommunizieren — unabhaengig von der High-Risk-Verschiebung.

3. Compliance braucht Zeit — und die technischen Standards kommen jetzt

Der Grund fuer die Verschiebung war, dass die technischen Standards noch nicht fertig waren. Jetzt werden sie finalisiert. Das heisst: Die Anforderungen werden konkreter, nicht weicher. Wer jetzt nicht beginnt, hat im Dezember 2027 dasselbe Problem wie bei der urspruenglichen August-2026-Frist.

Die EY Global Survey zeigt: Die Mehrheit der C-Suite-Fuehrungskraefte nennt Non-Compliance mit KI-Regulierungen als ihr groesstes KI-Risiko. Ueber die Haelfte der Organisationen hat nicht einmal ein Inventar der KI-Systeme die sie in Produktion haben.

08

DACH-Perspektive: Was Deutschland, Oesterreich und die Schweiz betrifft

Die Umsetzung des EU AI Act variiert erheblich zwischen den Mitgliedstaaten. Stand Maerz 2026:

  • Deutschland: Hat die Frist zur Benennung nationaler zustaendiger Behoerden verpasst. Gehoert zu den 12 Mitgliedstaaten die diese Deadline nicht eingehalten haben. Nationale Gesetzgebung zur Umsetzung ist noch nicht verabschiedet.
  • Frankreich, Irland: Ebenfalls ohne nationale Umsetzungsgesetzgebung zum Zeitpunkt des Omnibus-Vorschlags.
  • 19 Mitgliedstaaten hatten zum Stichtag keine Single Points of Contact benannt.

Fuer DACH-Unternehmen bedeutet das: Selbst wenn die nationalen Behoerden noch nicht voll operativ sind, gelten die EU-weiten Regeln direkt — der AI Act ist eine Verordnung, kein Richtlinie. Er ist unmittelbar anwendbar.

Die Schweiz als Nicht-EU-Mitglied ist formal nicht gebunden, aber: Jedes Schweizer Unternehmen das KI-Systeme im EU-Markt anbietet oder auf EU-Buerger anwendet, faellt unter den AI Act — analog zur extraterritorialen Wirkung der DSGVO.

09

Unser Ansatz bei EconLab AI: Compliance-by-Design als Architekturprinzip

Sieben Jahre Wirtschaftspruefung und IT-Audit haben uns gelehrt: Compliance ist kein Projekt mit Startdatum und Enddatum. Es ist eine Haltung die in die Architektur eingebaut wird.

Bei EconLab AI implementieren wir alle drei Compliance-Strategien von Anfang an:

  • Git-basierte Audit-Trails: Jeder KI-generierte Commit ist als solcher gekennzeichnet. Jeder Prompt ist geloggt. Jede Entscheidung ist nachvollziehbar.
  • Strukturierte Review-Gates: Unser Agent-System hat definierte Approval-Checkpoints. Kein Agent deployt Code ohne menschliche Freigabe in sicherheitskritischen Kontexten.
  • Trust Boundaries: Unsere Agenten operieren innerhalb definierter Grenzen. Was sie aendern duerfen, ist konfiguriert — nicht gehofft.

Wir sind Mitglied der ISACA Fachgruppe Digital Trust und haben am Positionspapier "Vertrauensbildende KI: Chancen, Risiken und Governance von KI-Sprachmodellen" mitgearbeitet. Unser Code of Conduct ist oeffentlich einsehbar.

Wenn der EU AI Act — ob im August 2026 oder Dezember 2027 — vollstaendig durchsetzbar wird, sind wir bereit. Nicht weil wir ein Compliance-Projekt gestartet haben, sondern weil Compliance die Art ist wie wir bauen.

10

10 Handlungsempfehlungen fuer CTOs — sofort umsetzbar

  1. KI-Inventar erstellen: Dokumentieren Sie alle KI-Systeme in Ihrem Unternehmen — intern, extern, eingebettet. Beginnen Sie diese Woche.
  2. Risikokategorien zuordnen: 40% der Enterprise-KI-Systeme haben laut appliedAI unklare Risikoeinstufungen. Klassifizieren Sie jedes System nach den vier AI-Act-Kategorien.
  3. Agentic-Coding-Audit: Pruefen Sie, welche KI-Agenten in Ihrem Entwicklungsprozess eingesetzt werden und ob deren Output dokumentiert wird.
  4. Transparency-Compliance vorbereiten: Art. 50 gilt ab August 2026, unabhaengig von der High-Risk-Verschiebung. Stellen Sie sicher, dass KI-generierte Inhalte als solche erkennbar sind.
  5. Human-Oversight-Prozesse definieren: Wer reviewt KI-generierten Code? Wer genehmigt Deployments? Dokumentieren Sie die Prozesse.
  6. GPAI-Nutzung dokumentieren: Welche Foundation Models nutzen Sie? Wie sind sie integriert? Welche Daten fliessen hinein?
  7. Kill-Switches implementieren: Jeder autonome Agent muss unterbrechbar sein. Iterationslimits, Timeouts, Budget-Caps.
  8. Vendor-Compliance pruefen: Bitten Sie Ihre KI-Anbieter um deren AI-Act-Compliance-Status. Sind sie als GPAI-Provider registriert?
  9. Budget einplanen: McKinsey schaetzt Compliance-Kosten fuer groessere Unternehmen auf 8-15 Millionen USD. Der AI-Governance-Plattform-Markt wird 2026 auf 492 Millionen USD geschaetzt.
  10. Nicht auf die Verschiebung wetten: Die Omnibus-Aenderungen sind nicht final. Bauen Sie Ihre Compliance-Infrastruktur so auf, als wuerde die urspruengliche Deadline gelten.
11

Quellen und weiterfuehrende Informationen

Dieser Artikel wird laufend aktualisiert sobald neue Informationen aus dem Trilogue-Verfahren vorliegen. Letztes Update: 23. Maerz 2026.

Über den Autor

Giuliano Falco

Founder, EconLab AI

7 Jahre Wirtschaftsprüfung und IT-Audit. Jetzt baut er mit Agentic Coding die nächste Generation von Audit- und Enterprise-Software.

Bereit für den nächsten Schritt?

Wir beraten zu KI-Strategie, EU AI Act und Agentic Coding.

Gespräch vereinbaren