Blog
EU AI ActKI-ComplianceAgentic CodingKI-AgenturGPAIDigital OmnibusHochrisiko KIAnbieter-PflichtenKI Regulierung DeutschlandAugust 2026

EU AI Act Countdown: Was KI-Agenturen und Entwickler bis August 2026 erledigen müssen

Die meisten EU-AI-Act-Checklisten richten sich an Betreiber — Unternehmen, die KI nutzen. Aber was müssen Unternehmen tun, die KI entwickeln, Agenten bauen und Multi-Agent-Systeme deployen? Eine Checkliste aus Entwickler- und Anbieter-Perspektive.

AutorGiuliano FalcoFounder, EconLab AI
Datum
Lesezeit17 min
01

Die Lücke: Alle Checklisten richten sich an Betreiber

Seit März 2026 erscheinen wöchentlich neue "EU AI Act Checklisten" — von Sage, DigiRift, Agilero, KI-Agentur, AiActo. Sie sind alle sinnvoll. Und sie alle haben einen blinden Fleck: Sie richten sich ausschließlich an Betreiber — Unternehmen, die KI-Tools nutzen (ChatGPT im Kundenservice, KI in der Bewerbungsauswahl, Chatbots auf der Website).

Aber wer KI-Agenten baut, wer Multi-Agent-Systeme entwickelt, wer Agentic-Coding-Lösungen für Mandanten deployt — der ist kein Betreiber. Der ist Anbieter. Und die Pflichten für Anbieter sind fundamental anders und deutlich strenger.

Der EU AI Act (Verordnung EU 2024/1689) unterscheidet klar:

RolleWerPflichten-Level
BetreiberNutzt KI-Systeme im GeschäftsbetriebMittel (Transparenz, KI-Kompetenz, Überwachung)
AnbieterEntwickelt KI-Systeme und bringt sie in VerkehrHoch (Dokumentation, Konformität, CE, Risikomanagement)
GPAI-AnbieterBaut auf General Purpose AI aufZusätzlich (Modell-Dokumentation, Transparenz, Sicherheitstests)

Wenn Sie als KI-Agentur ein Agenten-System bauen, das für einen Mandanten Entscheidungen vorbereitet — dann sind Sie Anbieter. Dieser Artikel ist für Sie.

02

Was schon gilt, was kommt: Die Timeline bis August 2026

Der EU AI Act trat am 1. August 2024 in Kraft und entfaltet seine Wirkung stufenweise:

DatumWas in Kraft trittStatus
2. Feb 2025Verbotene KI-Praktiken (Social Scoring, biometrische Echtzeit-Überwachung, manipulative Systeme)Bereits aktiv
2. Aug 2025GPAI-Anforderungen (Modell-Dokumentation, Transparenzpflichten)Bereits aktiv
2. Aug 2026Vollständige Anwendbarkeit für Hochrisiko-KI-SystemeIn 5 Monaten

Achtung Digital Omnibus: Am 13. März 2026 hat der EU Council eine Verschiebung der High-Risk-Deadlines um 16 Monate vorgeschlagen. Das ist ein Vorschlag, keine beschlossene Verschiebung. Parallel hat die EU Commission am 12. März 2026 das erste konkrete GPAI-Audit-Verfahren veröffentlicht — ein Signal, dass die Durchsetzung kommt, auch wenn die Timeline sich verschiebt. Wir haben das im Detail analysiert.

Die strategische Konsequenz: Vorbereiten als ob August 2026 gilt. Wenn verschoben, haben Sie mehr Zeit. Wenn nicht, sind Sie bereit. Wer auf Verschiebung spekuliert und verliert, hat ein dokumentiertes Compliance-Risiko.

03

Risiko-Klassifikation: Wo Agentic-Coding-Systeme stehen

Für Anbieter ist die Risiko-Klassifikation die zentrale Frage. Die vier Klassen:

Verboten (Inakzeptables Risiko): Social Scoring, biometrische Echtzeit-Überwachung, manipulative Systeme. → Gilt bereits seit Feb 2025. Wenn Ihre Agenten das tun, haben Sie ein akutes Problem.

Hochrisiko: KI in Bereichen wie Personalauswahl, Kreditvergabe, Gesundheit, kritische Infrastruktur, Justiz, Bildung. → Strengste Pflichten: Risikomanagement, technische Dokumentation nach Anhang IV, Konformitätsbewertung, CE-Kennzeichnung, EU-Datenbank-Registrierung.

Begrenzt (Transparenzpflicht): Chatbots, KI-generierte Inhalte, Deepfakes. → Hauptpflicht: Offenlegung, dass KI im Einsatz ist.

Minimal: Spam-Filter, Empfehlungssysteme, Suchmaschinen. → Keine spezifischen Pflichten.

Wo stehen Agentic-Coding-Systeme? Das hängt vom Einsatzkontext ab, nicht vom System selbst:

  • Agent schreibt Code für eine Website → Minimal
  • Agent analysiert Finanzdaten für Kreditentscheidungen → Hochrisiko
  • Agent unterstützt Bewerbungsauswahl → Hochrisiko
  • Agent erstellt Audit-Reports → Begrenzt bis Hochrisiko (je nach Konsequenz)
  • Multi-Agent-System steuert kritische Infrastruktur → Hochrisiko

Die Lektion: Derselbe Agent kann je nach Mandant in verschiedene Risikoklassen fallen. Als Anbieter müssen Sie das pro Deployment klassifizieren, nicht pro Produkt.

04

Die Anbieter-Checkliste: 12 Punkte bis August 2026

Basierend auf Art. 8–17 EU AI Act und unserer eigenen Implementierung bei EconLab AI:

Phase 1: Inventarisierung (sofort)

  • KI-Inventar erstellen: Welche KI-Systeme bieten Sie an? Welche Agenten deployen Sie für Mandanten?
  • Risiko-Klassifikation pro Deployment: Nicht pro Produkt — pro Einsatzkontext beim Mandanten.
  • GPAI-Basis identifizieren: Nutzen Sie Claude, GPT, Gemini? Dann gelten zusätzliche GPAI-Transparenzpflichten.

Phase 2: Dokumentation (April–Mai)

  • Technische Dokumentation nach Anhang IV: Systemarchitektur, Trainingsdaten, Leistungsmetriken, Grenzen.
  • Risikomanagement-System (Art. 9): Kontinuierliche Risikoidentifikation — kein einmaliges Dokument, sondern ein lebender Prozess.
  • Daten-Governance (Art. 10): Dokumentation der Trainingsdaten, Bias-Prüfung, Datenqualitätsmaßnahmen.
  • Transparenz-Information (Art. 13): Gebrauchsanweisungen für jeden Betreiber — was das System kann, was nicht, welche Risiken bestehen.

Phase 3: Governance (Mai–Juli)

  • Human Oversight (Art. 14): Dokumentierte Mechanismen, wie Menschen das System überwachen und eingreifen können.
  • Automatische Protokollierung (Art. 12): Logging aller relevanten Systemaktivitäten für Audit-Trail.
  • Konformitätsbewertung: Selbstbewertung (für die meisten Hochrisiko-Systeme) oder externe Prüfung.
  • KI-Kompetenz (Art. 4): Alle Mitarbeiter und Partner die KI-Systeme deployen müssen geschult sein. → Siehe unser Code of Conduct und Ethik-Codex.
  • Post-Market Monitoring: Systematische Überwachung nach Deployment. Feedback-Loop vom Betreiber zurück zum Anbieter.
05

Was wir konkret tun: Compliance-by-Design statt Compliance-by-Panik

Bei EconLab AI haben wir die EU-AI-Act-Anforderungen nicht als nachgelagertes Compliance-Projekt behandelt, sondern als architektonische Entscheidung von Tag eins:

Audit-Trail in jedem Agent-Workflow: Jeder Agent-Output wird mit Co-Authored-By-Tag gekennzeichnet, jede Entscheidung protokolliert. Das ist nicht nur Context Engineering — es ist Art. 12 (automatische Protokollierung) und Art. 13 (Transparenz) in einem.

Gestufte Kontrollarchitektur: Unser Multi-Agent-Setup implementiert Human-in-the-Loop für alle mandantenrelevanten Outputs. Kein Agent kommuniziert direkt mit dem Mandanten. Das ist Art. 14 (Human Oversight) — eingebaut, nicht aufgesetzt.

Partner Compliance Framework: Jeder externe Partner unterschreibt unsere Ethischen Leitlinien, den Code of Conduct und eine KI-Nutzungsrichtlinie mit Modell-Tiering — bevor die Zusammenarbeit beginnt. Das adressiert Art. 4 (KI-Kompetenz) und die Sorgfaltspflichten gegenüber der Wertschöpfungskette.

Risiko-Klassifikation pro Mandant: Nicht pro Produkt. Wenn dasselbe Agent-System für einen Mandanten Website-Code schreibt (minimal) und für einen anderen Finanzdaten analysiert (hochrisiko), bekommt der zweite strengere Kontrollen, dokumentierte Human Oversight und einen Audit-Trail.

Das ist der Vorteil von sieben Jahren Wirtschaftsprüfung: Wir wissen, welche Fragen ein Auditor stellen wird — und bauen die Antworten in die Architektur ein, bevor die Frage gestellt wird.

06

Die 5 häufigsten Fehler von KI-Agenturen

Was wir in Gesprächen mit anderen Agenturen und Entwicklern beobachten:

1. "Wir sind kein Anbieter, wir nutzen nur APIs."
Falsch. Wenn Sie ein System bauen, das auf Claude oder GPT aufbaut und es einem Mandanten bereitstellen — sind Sie Anbieter eines KI-Systems. Die Nutzung eines GPAI-Modells als Basis ändert daran nichts.

2. "Der Digital Omnibus verschiebt alles."
Der Digital Omnibus ist ein Vorschlag des EU Council (Stand März 2026). Er ist nicht beschlossen. Und selbst wenn — die GPAI-Pflichten und Verbote gelten bereits. Wer jetzt nichts tut, hat ein dokumentiertes Risiko, auch wenn High-Risk um 16 Monate verschoben wird.

3. "Unsere Systeme sind alle minimal-risk."
Oft eine Fehleinschätzung. Ein Agent der "nur Code schreibt" kann trotzdem hochrisiko sein — wenn der Code in kritischer Infrastruktur deployed wird, wenn er Personalentscheidungen unterstützt, oder wenn er Finanzdaten verarbeitet. Die Risiko-Klasse hängt vom Einsatzkontext ab, nicht von der Technologie.

4. "Technische Dokumentation machen wir am Ende."
Art. 11 verlangt technische Dokumentation vor dem Inverkehrbringen. Nachträgliche Dokumentation ist nicht nur aufwändiger — sie ist oft lückenhaft, weil Designentscheidungen nicht mehr rekonstruierbar sind.

5. "KI-Kompetenz betrifft nur uns, nicht unsere Partner."
Art. 4 verlangt KI-Kompetenz aller beteiligten Akteure. Wenn Ihre Freelancer oder Partner-Agenturen nicht geschult sind, ist das Ihr Problem. Ein Partner Compliance Framework adressiert genau das.

07

5 Monate: Ein realistischer Zeitplan

Für eine KI-Agentur mit 1–20 Mitarbeitern ist die Vorbereitung machbar — wenn man jetzt startet:

MonatAufgabeAufwand
AprilKI-Inventar + Risiko-Klassifikation pro Deployment2–3 Tage
April–MaiTechnische Dokumentation (Anhang IV) für Hochrisiko-Systeme5–10 Tage
MaiRisikomanagement-System + Daten-Governance dokumentieren3–5 Tage
JuniHuman-Oversight-Mechanismen + Audit-Trail implementieren5–10 Tage
JuliKonformitätsbewertung + Post-Market-Monitoring einrichten3–5 Tage
August 2026Vollständige Anwendbarkeit

Gesamtaufwand: 20–35 Arbeitstage für eine kleine Agentur. Kein Monsterprojekt — aber auch kein Wochenend-Task.

Wer aus der Audit-Welt kommt, erkennt das Muster: Dokumentation, Risikobewertung, Kontrollen, Monitoring. Es ist ISA 315 für KI-Systeme. Die Methodik ist dieselbe — nur das Prüfungsobjekt ist neu.

Weiter lesen: EU AI Act + Agentic Coding: Was im März 2026 passiert ist · Unser Ethik-Codex · Code of Conduct

EconLab AI berät KI-Agenturen und Entwickler bei der EU-AI-Act-Vorbereitung — aus Anbieter-Perspektive, nicht Betreiber-Perspektive. 7 Jahre Audit-Erfahrung + tägliche Agentic-Coding-Praxis. Gespräch vereinbaren | Unsere Beratung

Über den Autor

Giuliano Falco

Founder, EconLab AI

7 Jahre Wirtschaftsprüfung und IT-Audit. Jetzt baut er mit Agentic Coding die nächste Generation von Audit- und Enterprise-Software.

Bereit für den nächsten Schritt?

Wir beraten zu KI-Strategie, EU AI Act und Agentic Coding.

Gespräch vereinbaren