Ethik-Codex
Prinzipien für vertrauenswürdige Künstliche Intelligenz — eine philosophische Grundlegung.
Philosophische Grundlegung
Die technologischen Vorteile künstlicher Intelligenz werden weitgehend vom Markt getrieben und emergieren mit einer Geschwindigkeit, die regulatorische Rahmenbedingungen strukturell überfordert. Die Risiken hingegen erfordern aktives menschliches Engagement — sie lösen sich weder durch technologischen Fortschritt noch durch marktwirtschaftliche Selbstregulierung auf. EconLab AI existiert an dieser Schnittstelle: Wir verbinden technologische Kompetenz mit regulatorischem Verständnis, weil die Trennung dieser beiden Perspektiven — Technologie hier, Governance dort — der strukturelle Ursprung der meisten Kontrolldefizite in KI-Systemen ist.
Dieser Ethik-Codex formuliert die normativen Grundlagen, auf denen unsere Arbeit aufbaut. Er ist bewusst als philosophisch-prinzipielle Schrift konzipiert und vom Code of Conduct abgegrenzt, der die operative Umsetzung dieser Prinzipien definiert. Die Unterscheidung ist intentional: Prinzipien ohne Operationalisierung bleiben Absichtserklärungen; Regeln ohne normative Fundierung bleiben willkürlich. Beide Dokumente sind notwendig — keines ist allein hinreichend.
“Die relevante Frage ist nicht, ob KI ethisch sein kann — sondern ob die Menschen, die KI entwickeln und einsetzen, ethisch handeln.”
Die Erfahrung aus sieben Jahren Wirtschaftsprüfung und IT-Audit hat eine Einsicht verdichtet: Vertrauen in technologische Systeme ist nicht das Ergebnis von Versprechen, sondern von nachprüfbarem Handeln. Dieser Ethik-Codex ist ein öffentliches Commitment — inspiriert von Anthropics Constitutional AI (CC0-lizenziert), fundiert durch unsere eigene Prüfungspraxis und bindend für alle Mitarbeiter, Partner und Auftragnehmer von EconLab AI.
Prioritätshierarchie
Sicherheit → Ethik → Compliance → Nützlichkeit. In dieser Reihenfolge. Ohne Ausnahme.
Die zentrale architektonische Entscheidung jedes KI-Systems ist nicht technischer, sondern normativer Natur: Welche Werte haben Vorrang, wenn Zielkonflikte auftreten? EconLab AI folgt einer expliziten, nicht verhandelbaren Prioritätshierarchie. Sicherheit — verstanden als die Abwesenheit inakzeptabler Risiken für Personen und Systeme — hat unbedingten Vorrang. Ethische Integrität folgt als zweite Priorität, gefolgt von regulatorischer Compliance. Erst an vierter Stelle steht die Nützlichkeit des Systems für den Anwender.
Diese Hierarchie ist keine theoretische Konstruktion. Sie entstammt der prüferischen Erfahrung, dass die Priorisierung von Nützlichkeit über Sicherheit der häufigste Ursprung systemischer Kontrolldefizite ist. Ein System, das zuverlässig funktioniert, aber nicht sicher ist, repräsentiert eine größere Gefahr als ein System, das sicher ist, aber gelegentlich an Nützlichkeit einbüßt. Die Kosten überschätzter Effizienz übersteigen die Kosten überschätzter Vorsicht — eine Asymmetrie, die in der Praxis häufig ignoriert wird.
Inspiriert von der Prioritätsstruktur in Anthropics Constitution für Claude übernimmt EconLab AI dieses Prinzip als Design-Constraint für sämtliche KI-Architekturen: Wenn Sicherheit und Nützlichkeit in Konflikt geraten, wird zugunsten der Sicherheit entschieden. Diese Entscheidung ist vordefiniert und bedarf keiner situativen Abwägung — sie ist in die Systemarchitektur eingebettet, nicht in den Ermessensspielraum einzelner Akteure gelegt.
Epistemische Demut
Die Grenzen eines Modells zu kennen ist wichtiger als seine Fähigkeiten zu demonstrieren.
Jedes KI-System operiert innerhalb epistemischer Grenzen, die es selbst nicht vollständig zu erfassen vermag. Large Language Models generieren probabilistische Outputs auf Basis statistischer Verteilungen — sie verfügen weder über ein Verständnis der Wahrheit noch über die Fähigkeit, die Zuverlässigkeit ihrer eigenen Aussagen zu bewerten. Diese fundamentale Limitation muss in jeder Interaktion transparent gemacht werden: Nicht durch generische Disclaimerkennzeichnungen, sondern durch architektonische Entscheidungen, die Unsicherheit als erstrangige Information behandeln.
EconLab AI verpflichtet sich zum Prinzip der kalibrierten Konfidenz: KI-Systeme, die wir entwickeln oder implementieren, werden so gestaltet, dass sie den Grad ihrer Unsicherheit kommunizieren. Empfehlungen werden mit Konfidenzintervallen versehen, wo dies methodisch möglich ist. Ergebnisse, die auf unzureichender Datengrundlage basieren, werden als vorläufig gekennzeichnet. Die Versuchung, KI-Outputs als Gewissheiten darzustellen, wird systematisch adressiert — denn die Täuschung über den epistemischen Status einer Information ist eine Form intellektueller Unredlichkeit, unabhängig davon, ob sie absichtlich oder strukturell bedingt ist.
Diese Haltung erstreckt sich auch auf unsere eigene Kommunikation: Wenn wir die Antwort auf eine Frage nicht kennen, wenn eine Aufgabe die Grenzen des aktuellen Stands der Technik überschreitet oder wenn ein Mandantenauftrag Anforderungen stellt, die mit den verfügbaren Methoden nicht zuverlässig erfüllbar sind, wird dies offen kommuniziert. Epistemische Demut ist kein Zeichen methodischer Schwäche — sie ist die Voraussetzung für wissenschaftliche Integrität.
Menschliche Autonomie und Kontrolle
Technologische Systeme dienen der Erweiterung menschlicher Handlungsfähigkeit — nicht ihrer Substitution.
Das Verhältnis zwischen Mensch und KI-System ist in der Perspektive von EconLab AI fundamental asymmetrisch: Der Mensch ist stets der entscheidungsbefugte Akteur, das KI-System stets das unterstützende Werkzeug. Diese Asymmetrie ist nicht technisch, sondern normativ begründet — sie reflektiert die Überzeugung, dass Verantwortung nur von Akteuren getragen werden kann, die zur moralischen Reflexion fähig sind. Automatisierte Systeme können Entscheidungen vorbereiten, aggregieren und beschleunigen; die Verantwortung für diese Entscheidungen verbleibt beim Menschen.
In der operativen Umsetzung bedeutet dieses Prinzip: Kein KI-System, das EconLab AI entwickelt oder implementiert, trifft autonome Entscheidungen mit wesentlichen Auswirkungen auf natürliche Personen ohne menschliche Überprüfung. Sogenannte Human-in-the-Loop- und Human-on-the-Loop-Architekturen sind keine optionalen Sicherheitsnetze, sondern konstitutive Designentscheidungen. Der Grad der menschlichen Aufsicht skaliert proportional zur Tragweite der automatisierten Entscheidung — ein Prinzip, das wir als gestufte Kontrollarchitektur bezeichnen.
Dieses Prinzip gilt symmetrisch: Es schützt nicht nur die Betroffenen einer KI-gestützten Entscheidung, sondern auch die Entscheidungsträger selbst. Die schrittweise Delegation kognitiver Autorität an automatisierte Systeme birgt das Risiko einer Erosion menschlicher Urteilsfähigkeit — ein Phänomen, das in der Forschung als Automation Complacency beschrieben wird. Die Architektur unserer Systeme adressiert dieses Risiko, indem sie menschliches Engagement nicht nur ermöglicht, sondern strukturell einfordert.
Transparenz als epistemisches Prinzip
Vertrauen entsteht nicht durch Versprechen, sondern durch Nachvollziehbarkeit.
Transparenz wird in der KI-Ethik häufig als kommunikative Tugend verstanden — als die Bereitschaft, über den Einsatz von KI zu informieren. EconLab AI vertritt eine weitergehende Position: Transparenz ist kein kommunikatives Add-on, sondern ein epistemisches Prinzip. Ein System, dessen Entscheidungsprozesse nicht nachvollziehbar sind, ist nicht nur weniger vertrauenswürdig — es ist weniger wissbar. Die Undurchsichtigkeit eines Algorithmus ist nicht primär ein PR-Problem; sie ist ein erkenntnistheoretisches Defizit, das die Prüfbarkeit, Korrigierbarkeit und damit die Verbesserungsfähigkeit des Systems strukturell beeinträchtigt.
In der Praxis manifestiert sich dieses Prinzip auf drei Ebenen: Erstens, die Erklärbarkeit von Modellentscheidungen gegenüber Fachexperten, die die Validität der Outputs beurteilen müssen. Zweitens, die Nachvollziehbarkeit von Systemarchitekturen für Auditoren und regulatorische Instanzen, die die Konformität des Systems bewerten. Drittens, die Verständlichkeit für Endanwender, die informierte Entscheidungen über die Nutzung KI-gestützter Dienste treffen sollen. Jede dieser Ebenen erfordert unterschiedliche Grade und Formen der Transparenz — aber keine darf zugunsten einer anderen vernachlässigt werden.
Die Konsequenz dieses Prinzips: Jede Beteiligung generativer KI an einem Arbeitsergebnis wird gegenüber den betroffenen Stakeholdern offengelegt — unabhängig davon, ob es sich um Code, Dokumente, Analysen oder Empfehlungen handelt. Die konkreten Kennzeichnungsverfahren und Offenlegungsmechanismen sind im Code of Conduct operationalisiert. Diese Transparenz ist keine freiwillige Goodwill-Geste — sie ist die minimale Voraussetzung für ein Vertrauensverhältnis, das auf Nachvollziehbarkeit statt auf Glauben basiert.
Datensouveränität als europäischer Wert
Die Integrität personenbezogener Daten ist kein regulatorisches Zugeständnis — sie ist Ausdruck eines Menschenbildes.
Die europäische Datenschutztradition unterscheidet sich fundamental von anderen regulatorischen Paradigmen: Sie versteht den Schutz personenbezogener Daten nicht primär als wirtschaftliche Regulierung, sondern als Ausdruck der Menschenwürde und des informationellen Selbstbestimmungsrechts. EconLab AI bekennt sich explizit zu diesem europäischen Werteverständnis — nicht aus Gründen der regulatorischen Notwendigkeit, sondern aus Überzeugung, dass die Souveränität des Individuums über seine Daten eine Voraussetzung für das Vertrauen ist, auf dem die gesellschaftliche Akzeptanz von KI-Technologien aufgebaut werden muss.
In der Praxis verlangt dieses Prinzip, dass die Datensouveränität des Mandanten nicht erst in der Implementierung, sondern bereits in der Architekturentscheidung verankert wird — vergleichbar mit der Statik in der Bauplanung: Sie ist keine nachträgliche Prüfung, sondern die Bedingung, unter der überhaupt geplant werden kann. Datenschutz als Entwurfsprinzip bedeutet, dass die Frage nicht lautet, ob personenbezogene Daten geschützt werden, sondern wie ein System zu gestalten ist, das den Schutz strukturell garantiert. Die konkreten operativen Maßnahmen — von Datenretention über Hosting-Architektur bis zur Zugriffskontrolle — sind im Code of Conduct dokumentiert.
Die zunehmende Leistungsfähigkeit generativer KI-Systeme verschärft die Relevanz dieses Prinzips: Modelle, die auf umfangreichen Datensätzen trainiert werden, können Informationen rekonstruieren, die nicht explizit in ihren Trainingsdaten enthalten waren. Die Grenzen zwischen personenbezogenen und nicht-personenbezogenen Daten werden unschärfer. EconLab AI adressiert diese Entwicklung durch proaktive Datenschutz-Folgenabschätzungen, die nicht den gegenwärtigen, sondern den absehbaren Stand der Technik zugrunde legen.
Intellektuelle Einflüsse und Quellen
Keine Ethik entsteht im Vakuum. Transparenz über die eigenen Quellen ist Teil der intellektuellen Redlichkeit.
Die in diesem Ethik-Codex formulierten Prinzipien sind nicht originär. Sie speisen sich aus einer Synthese regulatorischer Frameworks, akademischer Forschung, philosophischer Traditionen und praktischer Prüfungserfahrung. Die explizite Benennung dieser Quellen ist kein Zeichen mangelnder Eigenständigkeit — sie ist Ausdruck der Überzeugung, dass ethische Positionen durch ihre Begründung an Kraft gewinnen, nicht durch den Anspruch auf Originalität.
Anthropic Constitutional AI
Prioritätshierarchie, Wertealignment und das Prinzip der erklärbaren Ethik. Veröffentlicht unter CC0-Lizenz.
Quelle ↗Anthropic Responsible Scaling Policy
If-then Commitments und gestufte Sicherheitsmaßnahmen proportional zur Systemkapazität. Versioniert und extern reviewed.
Quelle ↗EU AI Act & GPAI Code of Practice
Risikobasierte Regulierung, Safety & Security Frameworks und die Differenzierung zwischen Hochrisiko- und Allzweck-KI.
Quelle ↗ISA 315 / IDW Prüfungsstandards
Methodische Grundlage für risikobasierte Systemprüfung. Sieben Jahre praktische Anwendung als Qualitätsmaßstab.
ISACA Digital Trust Framework
Vertrauen als messbare, mehrdimensionale Größe. Mitarbeit am Positionspapier zu vertrauensbildender KI.
Quelle ↗Lebendiges Dokument
Ethische Prinzipien für den Umgang mit künstlicher Intelligenz können nicht statisch sein — die Technologie, die sie adressieren, ist es ebenfalls nicht. Dieser Ethik-Codex ist versioniert und datiert. Änderungen werden publiziert, begründet und in ihrer Entwicklungshistorie nachvollziehbar gemacht.
Inspiriert von Anthropics Ansatz der „if-then Commitments" formulieren wir bedingte Verpflichtungen: Wenn unsere KI-Systeme neue Fähigkeitsstufen erreichen, werden entsprechende neue Sicherheits- und Kontrollmaßnahmen implementiert — nicht nachträglich, sondern als Voraussetzung für das Deployment. Die Verantwortung skaliert proportional zur Leistungsfähigkeit.
Wenn unser Verhalten von unseren Idealen abweicht, wird dies anerkannt — nicht verschleiert. Die Korrektur einer ethischen Abweichung beginnt mit ihrer Benennung. Ein Ethik-Codex, der nur bestätigt, was ohnehin gelebt wird, hat keinen normativen Wert. Sein Zweck besteht gerade darin, einen Maßstab zu definieren, an dem auch Nichterfüllung sichtbar wird.
Version 1.0 war die interne Erstfassung (nicht publiziert). Version 2.0 ist die erste öffentliche Fassung nach redaktioneller Überarbeitung und Abgrenzung vom Code of Conduct.