Blog
LLM WikiWirtschaftsprüfungKarpathyAuditISA 315IDWKnowledge Management

Das Prüfungs-Wiki: Wie Karpathys LLM Wiki Audit-Wissen KI-ready macht

Der ehemalige Tesla-KI-Chef hat ein Pattern veröffentlicht, das Wissensmanagement revolutioniert. Wir haben es auf die Wirtschaftsprüfung übertragen — mit konkretem Framework für WP-Gesellschaften.

AutorGiuliano FalcoFounder, EconLab AI
Datum
Lesezeit13 min
01

Euer Prüfungshandbuch ist wertlos — für eure KI

Jede WP-Gesellschaft hat ein Prüfungshandbuch. Manchmal 200 Seiten, manchmal 800. Es beschreibt die Methodik, die Prozesse, die Qualitätsstandards. Es ist das Herzstück der Prüfungsqualität.

Und es ist für KI-Systeme komplett unbrauchbar.

Warum? Weil Audit-Wissen in drei Formen existiert, die kein LLM verarbeiten kann:

  1. PDFs, die kein Modell versteht: Prüfungshandbücher als eingescannte Dokumente, ISA-Standards als formatierte PDFs mit Tabellen und Querverweisen, IDW Prüfungsstandards hinter Paywalls
  2. Köpfe, die nicht skalieren: Die Prüfungslogik — wann prüfe ich was, welche Risiken sind relevant, welche Stichproben reichen — lebt in den Köpfen der Senior-Manager. Wenn sie gehen, geht das Wissen mit.
  3. Excel-Tabellen, die niemand versteht: Arbeitspapiere, Mapping-Tabellen, Checklisten — historisch gewachsen, von Person zu Person weitergegeben, ohne Dokumentation der Logik dahinter.

Das Ergebnis: Wirtschaftsprüfer verbringen bis zu 60% ihrer Prüfungszeit mit Dokumentation statt mit Prüfung. Neue Mitarbeiter brauchen Jahre, bis sie die implizite Methodik verstehen. Und jede KI-Initiative scheitert daran, dass das Wissen nicht in einer Form vorliegt, die ein Modell nutzen kann.

Die Big 4 lösen das gerade still und leise — mit Millionenbudgets und proprietären Plattformen. KPMG hat $2 Milliarden für KI angekündigt. Deloitte hat "Zora AI" mit Nvidia gebaut. EY lässt 80.000 Mitarbeiter mit KI arbeiten.

Der Mittelstand schaut zu.

Bis jetzt.

02

Karpathys Lösung: Ein LLM baut Ihr Wiki

Andrej Karpathy — ehemaliger Director of AI bei Tesla, Mitgründer von OpenAI — hat im April 2026 ein Pattern veröffentlicht, das er "LLM Wiki" nennt. Sein Ergebnis: 100 Artikel und 400.000 Wörter, ohne ein einziges Wort selbst geschrieben zu haben.

Die Kernidee: Sie füttern ein KI-System mit Rohmaterial. Das System schreibt nicht nur eine Zusammenfassung — es baut ein strukturiertes, verlinktes Wiki, das sich mit jedem neuen Input selbst verbessert.

"You never write the wiki yourself — the LLM writes and maintains all of it. You're in charge of sourcing, exploration, and asking the right questions."
— Andrej Karpathy

Karpathys entscheidender Vergleich: Die meisten Unternehmen nutzen heute RAG (Retrieval-Augmented Generation) — bei jeder Frage wird das Wissen neu zusammengesucht. Das ist, als würde die Bibliothekarin bei jeder Anfrage alle Bücher erneut lesen, statt einen Katalog zu pflegen.

Ein LLM Wiki ist das Gegenteil: Einmal verdichtet, immer verfügbar. Jede neue Quelle aktualisiert 10–15 bestehende Seiten. Querverweise entstehen automatisch. Widersprüche werden geflagt.

Für eine allgemeine Einführung in Karpathys Konzept: Karpathys LLM Wiki für Unternehmenswissen.

Hier geht es um die Frage: Was passiert, wenn man dieses Pattern auf die Wirtschaftsprüfung anwendet?

03

Die drei Schichten — übertragen auf Audit

Karpathys Architektur besteht aus drei Schichten. Übertragen auf die Wirtschaftsprüfung ergibt sich ein klares Bild:

SchichtKarpathy (allgemein)Prüfungs-Wiki
Raw SourcesArtikel, Papers, BücherISA-Standards, IDW PS, Prüfungshandbuch, HGB, GoBD, Mandantenakten, Interview-Transkripte, Arbeitspapiere
WikiLLM-generierte Zusammenfassungen und SynthesenPrüfungslogik-Seiten, Entscheidungsbäume, Risikobewertungen, Checklisten, Branchenspezifika, Mandanten-Profile
SchemaStruktur und KonventionenMethodik-Regeln, Qualitätsstandards, Namenskonventionen, Frontmatter-Templates für Prüfungstypen

Raw Sources: Was ins System fließt

Für eine WP-Gesellschaft sind das:

  • Regulatorische Standards: ISA 315 (Risk Assessment), ISA 240 (Fraud), ISA 330 (Audit Responses), IDW PS 261, IDW PS 330, IDW PS 850, IDW PS 861 (KI-Systeme)
  • Rechtsvorschriften: HGB, GoBD (2024), KHBV, BilRUG, DCGK, EU AI Act
  • Internes Wissen: Prüfungshandbuch, Quality Manual, Arbeitspapier-Templates, Partner-Entscheidungen
  • Mandantenwissen: Branchenspezifika, Vorjahresprüfungen, Feststellungen, IKS-Dokumentation

Wiki: Was das LLM daraus baut

Das Wiki enthält keine Kopien der Standards — sondern verdichtetes, verlinktes Prüfungswissen:

  • Entitäts-Seiten: "ISA 315" → Was sagt der Standard? Welche Anlagen sind relevant? Wie setzen wir das konkret um? Welche IDW-PS ergänzen ihn?
  • Konzept-Seiten: "Wesentlichkeit" → Definition, Berechnung, Schwellenwerte pro Branche, Beispiele aus Vorjahren
  • Entscheidungsbäume: "Wann erweitertes Prüfungsvorgehen?" → Wenn Risiko hoch UND IKS-Schwäche → ISA 330 Tz. 21 → konkrete Prüfungshandlungen
  • Mandanten-Profile: "Mandant XY" → Branche, Risikoprofil, Vorjahresfeststellungen, IKS-Besonderheiten, zuständiger Partner

Schema: Die Regeln des Systems

Das Schema definiert, wie das Wiki gepflegt wird:

  • Jede Seite hat Frontmatter: type (Standard, Konzept, Mandant, Entscheidung), status, last_verified
  • Namenskonventionen: Standards als "ISA 315 — Risikobewertung.md", Mandanten als "Mandant — Firma XY.md"
  • Verlinkungsregeln: Jede Risikobewertung verlinkt auf den zugrunde liegenden Standard
  • Freshness-Regeln: Standards-Seiten werden bei jedem IDW-Update geprüft, Mandanten-Seiten bei jeder neuen Prüfung
04

Vier Operationen für die Wirtschaftsprüfung

Karpathy definiert vier Operationen für sein Wiki. Für die Wirtschaftsprüfung werden sie konkret:

Ingest: Neues Wissen einspeisen

Beispiel: Das IDW veröffentlicht den überarbeiteten PS 861 zur Prüfung von KI-Systemen (erschienen 03/2023, FAIT-Arbeitsgruppe arbeitet an EU-AI-Act-Ergänzung). Das LLM:

  1. Liest den neuen Standard vollständig
  2. Erstellt eine Zusammenfassungs-Seite "IDW PS 861 — Prüfung von KI-Systemen"
  3. Aktualisiert die Seite "Relevante Standards" mit dem neuen Eintrag
  4. Verlinkt zu ISA 315 (Risikobewertung auch für KI-Risiken relevant)
  5. Aktualisiert die Seite "EU AI Act" mit dem Hinweis auf die IDW-Ergänzung
  6. Erstellt eine Checkliste "Prüfung von KI-Systemen — Mindestanforderungen"
  7. Flaggt: "Mandant A nutzt KI-System → PS 861 Prüfung erforderlich?"

Ein einziger Ingest berührt 7+ Seiten. Manuell würde das niemand tun.

Query: Prüfungswissen abfragen

Beispiel: Ein Prüfungsassistent fragt: "Was muss ich bei der Erstprüfung eines Krankenhauses beachten?"

Das LLM navigiert über den Index zu:

  • "Branchenspezifika — Gesundheitswesen" → KHBV, DRG-System, Erlösaufteilung
  • "Erstprüfung — Checkliste" → Eröffnungsbilanzen, Vorprüfer-Informationen, ISA 510
  • "IKS-Risiken — Krankenhaus" → Typische Schwächen, Erfahrungen aus Vorjahren

Die Antwort basiert nicht auf einer spontanen Internetsuche, sondern auf dem vorverdichteten Wissen der gesamten Kanzlei.

Und wenn die Antwort besonders wertvoll ist? Wird sie als neue Wiki-Seite abgelegt: "Leitfaden Erstprüfung Krankenhaus".

Lint: Wissen aktuell halten

Beispiel: Wöchentlicher Health-Check des Prüfungs-Wikis:

  • "Die Seite 'GoBD-Anforderungen' referenziert die Version 2019 — die GoBD wurde 2024 aktualisiert. Bitte prüfen."
  • "Die Seite 'Mandant A — IKS-Bewertung' wurde seit 14 Monaten nicht aktualisiert. Nächste Prüfung in 2 Monaten."
  • "Widerspruch: Seite 'Wesentlichkeit' sagt 5% der Bilanzsumme, Seite 'Branche Gesundheit' sagt 3%. Was gilt?"
  • "Fehlende Konzept-Seite: 'ITGC-Prüfung' wird 12x referenziert, hat aber keine eigene Seite."

Das ist der Punkt, an dem menschliche Wikis sterben. Niemand macht wöchentliche Konsistenzprüfungen über 800 Seiten. Ein LLM tut es in Minuten.

Log: Lückenloser Audit Trail

Jede Operation wird protokolliert:

## [2026-04-16] ingest | IDW PS 861 Update
7 Seiten aktualisiert. Neue Checkliste erstellt.
Flagged: Mandant A → PS 861 Prüfung erforderlich.

## [2026-04-16] query | Erstprüfung Krankenhaus
Leitfaden erstellt: "Erstprüfung Krankenhaus"
Quellen: KHBV, ISA 510, Branchenspezifika Gesundheit.

## [2026-04-14] lint | Weekly Health Check
3 veraltete Referenzen gefunden. 1 Widerspruch geflagt.
1 fehlende Konzept-Seite identifiziert.

Dieser Log ist selbst ein Audit Trail — nachvollziehbar, wer (oder was) wann welches Wissen aktualisiert hat. Für die Qualitätssicherung und APAS-Prüfungen ist das Gold wert.

05

Was die Big 4 machen — und warum der Mittelstand eine Chance hat

Die großen Vier investieren massiv in KI für Audit:

FirmaPlattformInvestment
KPMGIgnite Platform$2 Mrd. über 5 Jahre
DeloitteZora AI (mit Nvidia)Automatisierung von Rechnungsverarbeitung, Trendanalyse
EYHelix80.000 Tax Professionals nutzen KI
PwCGL.ai (mit H2O.ai)Journal Entry Testing

Aber: Das sind proprietäre Analytics-Plattformen. Nicht LLM Wiki Patterns. Sie automatisieren einzelne Prüfungsschritte — sie machen nicht das gesamte Prüfungswissen maschinenlesbar.

Und genau hier liegt die Chance für den Mittelstand.

Hywel Ball, ehemaliger EY UK Chair, sagte es direkt:

"The bigger you are, the slower change can be. Even small process tweaks can take months or years. Meanwhile, smaller firms can roll out a tool in weeks."

Ein Prüfungs-Wiki nach Karpathys Muster kostet keine $2 Milliarden. Es braucht:

  • Einen Markdown-Editor (Obsidian, kostenlos)
  • Zugang zu einem LLM (Claude oder GPT, ab $50/Monat)
  • Ein gut definiertes Schema (die Regeln des Systems)
  • Und jemanden, der sowohl KI als auch Wirtschaftsprüfung versteht

Eine mittelständische WP-Gesellschaft kann in 4–6 Wochen ein funktionierendes Prüfungs-Wiki aufbauen, das die Big 4 mit ihren Milliardenbudgets so nicht haben — weil ihre Systeme monolithisch sind und das Wiki-Pattern dezentral.

06

Konkretes Framework: In 5 Schritten zum Prüfungs-Wiki

Schritt 1: Schema definieren

Bevor eine einzige Seite entsteht, braucht das Wiki Regeln. Welche Seitentypen gibt es? (Standard, Konzept, Mandant, Entscheidung, Checkliste) Welche Metadaten? (Typ, Status, letztes Review-Datum, zuständiger Partner) Welche Ordnerstruktur? Das Schema ist Ihre Methodik — digitalisiert.

Schritt 2: Kernstandards einspeisen

Beginnen Sie mit den Standards, die in jeder Prüfung relevant sind: ISA 315 (Risikobewertung), HGB (Bilanzierung), GoBD (Buchführung). Das LLM erstellt für jeden Standard eine Zusammenfassung, verlinkt Querverweise und baut Entscheidungsbäume: "Wann ist dieser Standard relevant? Welche Prüfungshandlungen folgen daraus?"

Schritt 3: Prüfungshandbuch integrieren

Ihr bestehendes Prüfungshandbuch wird zum Raw Material. Das LLM extrahiert die implizite Logik: Welche Prozesse gelten wann? Welche Schwellenwerte? Welche Entscheidungsketten? Das Ergebnis: 50–100 Wiki-Seiten, die das Wissen explizit und maschinenlesbar machen.

Schritt 4: Mandantenwissen aufbauen

Für jeden aktiven Mandanten entsteht ein Profil: Branche, Risikoprofil, IKS-Besonderheiten, Vorjahresfeststellungen, zuständiges Team. Bei jeder neuen Prüfung wird das Profil aktualisiert. Nach zwei Prüfungszyklen haben Sie ein institutionelles Gedächtnis, das nicht an einzelne Köpfe gebunden ist.

Schritt 5: Lint-Rhythmus etablieren

Einmal pro Woche: Das LLM prüft das gesamte Wiki auf Widersprüche, veraltete Referenzen, fehlende Seiten und Lücken. Einmal pro Quartal: Review der Standards-Seiten gegen aktuelle IDW-Veröffentlichungen. Das ist der Moment, in dem das Wiki sich von einem statischen Dokument zu einem lebenden System wandelt.

Zeitplan und Aufwand

PhaseDauerAufwand
Schema definieren1 Woche8–16 Stunden (mit Berater)
Kernstandards einspeisen1–2 WochenAutomatisiert (LLM-Arbeit)
Prüfungshandbuch integrieren1–2 Wochen4–8 Stunden Review
Mandantenwissen (erste 5)2 Wochen2–4 Stunden pro Mandant
Lint-RhythmusLaufend30 Minuten pro Woche
Gesamt bis produktiv4–6 Wochen~40–60 Stunden
07

IDW PS 861: Warum der Zeitpunkt perfekt ist

Das IDW hat mit dem PS 861 (03.2023) den weltweit ersten Prüfungsstandard für KI-Systeme veröffentlicht. Basierend auf ISAE 3000 (Revised) definiert er Mindestanforderungen für die Prüfung von KI — von Governance über Algorithmus-Transparenz bis zum Change Management.

Aktuell arbeitet eine FAIT-Arbeitsgruppe an der Verbindung zwischen IDW PS 861 und dem EU AI Act — die Frage, wie die Prüfungspflichten des AI Acts (ab August 2026) in bestehende IDW-Prüfungsroutinen integriert werden.

Was das für Ihr Prüfungs-Wiki bedeutet:

  • Der PS 861 wird Teil Ihrer Raw Sources — und das LLM baut automatisch Prüfungsprogramme für KI-Systeme
  • Wenn die EU-AI-Act-Ergänzung kommt, wird sie ingestiert — und alle betroffenen Mandanten-Profile werden geflagt
  • WP-Gesellschaften, die PS 861 bereits in ihrem Prüfungs-Wiki haben, können KI-Prüfungen als neue Dienstleistung anbieten — mit konsistenter Methodik ab Tag 1

Der regulatorische Druck steigt: ISA 315 (revised 2019) verlangt zeitgemäße Risikobewertung in einer digitalen Welt. Die GoBD wurde 2024 aktualisiert. Der EU AI Act tritt August 2026 in Kraft. Jeder dieser Standards erzeugt Aktualisierungsbedarf in dutzenden Wiki-Seiten. Manuell ist das nicht mehr zu schaffen.

08

Unsere Erfahrung: 7 Jahre Audit + LLM Wiki in Produktion

Wir reden nicht theoretisch. EconLab AI vereint zwei Dinge, die es so am Markt nicht gibt:

7 Jahre Wirtschaftsprüfung und IT-Audit — ISA 315, IDW PS 330, DCGK, IT-Grundschutz. Nicht aus Büchern, sondern aus echten Prüfungen. ISACA Fachgruppe Digital Trust, Positionspapier "Vertrauensbildende KI" mitentwickelt.

Ein funktionierendes LLM-Wiki-System in Produktion — über 2.500 Dateien, 7 spezialisierte Workflows, wöchentlicher Lint-Rhythmus. Karpathys Pattern, implementiert und täglich genutzt.

Was wir bereits für die WP-Branche gebaut haben

VisionDocs — KI-gestützte Audit-Dokumentationsplattform:

  • Von der Audioaufnahme zum ISA-315-konformen Prüfungsbericht in Minuten
  • ISA 315, HGB, GoBD, KHBV vollständig integriert — automatische Normreferenzierung
  • Ergebnis: 90% Zeiteinsparung bei der Dokumentation
  • Referenzkunde: Curacon GmbH Wirtschaftsprüfungsgesellschaft

LMAT — Ledger Migration Audit Trail:

  • Kontenmigrationsprüfung zwischen ERP-Systemen (SAP, Diamant, Business Central u.a.)
  • 13 hierarchische Matching-Strategien statt Excel-VLOOKUP
  • IDW PS 850-konforme Reports mit SHA-256 Audit-Siegel
  • Ergebnis: 85–90% schneller als manuelle Prüfung

Diese Produkte existieren, weil jemand sowohl KI als auch Wirtschaftsprüfung versteht. Und genau das braucht ein Prüfungs-Wiki: Nicht nur technische Implementierung, sondern die richtige Struktur, die richtigen Standards, die richtigen Entscheidungsbäume.

09

Ehrliche Einordnung: Was ein Prüfungs-Wiki nicht kann

Ein LLM Wiki ist kein Ersatz für professionelles Urteil. Es ist ein Werkzeug, das Wissen zugänglich macht — nicht eines, das Entscheidungen trifft.

  • Skalierungs-Grenze: Ab 50.000–100.000 Tokens (ca. 200–500 Seiten) stößt das Wiki-Pattern an Context-Window-Grenzen. Für sehr große Kanzleien mit tausenden Mandanten ist ein Hybrid-Ansatz nötig (Wiki für Kernwissen + RAG für Mandantendetails).
  • Halluzinations-Risiko: Ein LLM kann falsche Standards-Referenzen generieren. Deswegen ist Human-in-the-Loop bei Standards-Seiten Pflicht — und der wöchentliche Lint unverzichtbar.
  • Multi-User: Wenn mehrere Partner gleichzeitig das Wiki nutzen, braucht es Versionierung (Git) und Zugriffskontrolle. Ein lokaler Ordner reicht für den Einstieg, nicht für den Dauerbetrieb.
  • Kein Ersatz für Urteil: Das Wiki liefert Kontext und Logik — die Prüfungsentscheidung trifft der Wirtschaftsprüfer. Das ist nicht nur eine Einschränkung, sondern ein Feature: Nachvollziehbarkeit durch den Audit Trail.

Diese Grenzen sind lösbar — mit der richtigen Architektur. Aber sie ehrlich zu benennen unterscheidet seriöse Beratung von Buzzword-Bingo.

10

Fazit: Das Prüfungs-Wiki als Wettbewerbsvorteil

Karpathys LLM Wiki ist ein Pattern, das für persönliches Wissensmanagement entwickelt wurde. Aber seine Stärken — persistente Verdichtung, automatische Querverweise, wöchentlicher Lint — machen es ideal für die Wirtschaftsprüfung:

  • Eine Branche mit hoher Wissensdichte (hunderte Standards, tausende Seiten Methodik)
  • Einer Branche mit regulatorischem Aktualisierungsdruck (ISA, IDW, EU AI Act)
  • Einer Branche wo implizites Wissen in Köpfen lebt (Senior-Abgang = Wissensverlust)
  • Einer Branche die Nachvollziehbarkeit verlangt (APAS, Qualitätssicherung, Audit Trail)

Die Big 4 lösen das mit proprietären Plattformen und Milliardenbudgets. Der Mittelstand kann es mit einem LLM Wiki in 4–6 Wochen lösen — wenn die richtige Expertise dahintersteht.

"Humans abandon wikis because the maintenance burden grows faster than the value. LLMs don't get bored, don't forget to update a cross-reference, and can touch 15 files in one pass."
— Andrej Karpathy

In der Wirtschaftsprüfung ist das kein Nice-to-have. Es ist der Unterschied zwischen einer Kanzlei, die mit jedem Prüfungszyklus klüger wird — und einer, die jedes Jahr bei null anfängt.

Bereit für Ihr Prüfungs-Wiki?

EconLab AI verbindet 7 Jahre Wirtschaftsprüfungs-Erfahrung mit einem funktionierenden LLM-Wiki-System in Produktion. Wir helfen WP-Gesellschaften, ihr Prüfungswissen KI-ready zu machen — von der Schema-Definition über den Ingest bis zum laufenden Lint.

Über den Autor

Giuliano Falco

Founder, EconLab AI

7 Jahre Wirtschaftsprüfung und IT-Audit. Jetzt baut er mit Agentic Coding die nächste Generation von Audit- und Enterprise-Software.

Bereit für den nächsten Schritt?

Wir beraten zu KI-Strategie, EU AI Act und Agentic Coding.

Gespräch vereinbaren