Blog
Andrej KarpathyAgentic CodingKI-AgentenEnde des ProgrammierensAuto ResearchMulti-Agent-SystemeClaude CodeZukunft SoftwareentwicklungKI PsychoseToken-DurchsatzProgram.md

Das Ende des Programmierens — Andrej Karpathy über Agents, Psychose und die Loop-Ära der KI

Seit Dezember 2025 hat Karpathy keine Zeile Code mehr geschrieben. Stattdessen orchestriert er 10–20 Agenten parallel und nennt es eine 'KI-Psychose'. Was das für die Softwareentwicklung bedeutet — und warum Europa eine andere Antwort braucht als das Silicon Valley.

AutorGiuliano FalcoFounder, EconLab AI
Datum
Lesezeit19 min
01

Warum dieses Interview anders ist

Am 20. März 2026 erschien auf dem No-Priors-Podcast ein 66-minütiges Gespräch mit Andrej Karpathy — Mitgründer von OpenAI, ehemaliger Director of AI bei Tesla, einer der einflussreichsten KI-Forscher weltweit. Innerhalb einer Woche: knapp 500.000 Views. Fortune titelte: "OpenAI cofounder says he's in a 'state of psychosis'."

Es gibt dutzende Zusammenfassungen dieses Interviews. Dieser Artikel ist keine davon.

Was wir stattdessen tun: Karpathys acht Paradigmenwechsel mit unserer eigenen Praxis konfrontieren — als Unternehmen, das seit über einem Jahr Multi-Agent-Systeme in Produktion betreibt, über 672 dokumentierte Stunden Agentic Coding verfügt und gleichzeitig aus sieben Jahren Wirtschaftsprüfung kommt. Die Frage ist nicht was Karpathy sagt — die Frage ist, was es für europäische Unternehmen bedeutet, die nicht in Palo Alto sitzen und nicht unbegrenzt Compute haben.

Die zentrale These vorab: Karpathys Interview markiert den Moment, an dem Agentic Coding aufgehört hat, eine Nischen-Praxis zu sein. Es ist der neue Default. Und wer das bis Dezember 2025 nicht verstanden hat, versteht es jetzt.

02

Die KI-Psychose: Ein kollektives Phänomen mit Namen

Karpathys stärkstes Statement ist kein technisches. Es ist ein psychologisches:

"Ich habe seit Dezember buchstäblich keine einzige Zeile Code mehr geschrieben. Das ist eine extrem große Veränderung."

Er beschreibt seinen Zustand als "AI Psychosis" — permanente Aufregung, FOMO auf Twitter, Token-Angst (das Gefühl, Subscriptions nicht maximal auszulasten), und die Unfähigkeit aufzuhören, weil die nächste Idee sofort umsetzbar wäre.

Was auffällt: Geoffrey Huntley beschrieb exakt dasselbe Phänomen drei Wochen zuvor. In seinem Essay "Teleporting into the Future" nannte er es die "milde kreative Psychose" — Schlafprobleme, Ideen-Overload, die Erkenntnis dass Projekte die man für die Rente aufgeschoben hatte plötzlich in Tagen machbar sind. Gergely Orosz bestätigte über seine E-Mail-Liste agentischer Coder: Schlafprobleme durch Agent-Schwärme sind weit verbreitet.

Wenn der Mitgründer von OpenAI, ein Anthropic-Entwickler und der meistgelesene Tech-Blogger Europas unabhängig voneinander dasselbe Phänomen beschreiben, ist es kein individuelles Problem. Es ist ein kollektives Symptom eines Paradigmenwechsels. Die kreative Psychose ist der psychologische Preis der Teleportation — und sie ist temporär. Was bleibt, ist eine fundamental andere Einschätzung der eigenen Handlungsfähigkeit.

03

Macro Actions: Die neue atomare Einheit der Arbeit

Die tiefgreifendste strukturelle Veränderung, die Karpathy beschreibt, betrifft die Granularität der Arbeit:

Früher war die atomare Einheit eine Zeile Code — oder bestenfalls eine Funktion. Heute ist sie eine Macro Action: eine ganze Funktionalität, die an einen Agenten delegiert wird. Agent 1 implementiert Feature A. Agent 2 arbeitet an Feature B. Agent 3 recherchiert. Agent 4 schreibt einen Plan. Der Mensch orchestriert, verteilt und reviewed.

Karpathys Vorbild: Peter Steinberg, Entwickler von OpenClaw. Ein virales Foto zeigt ihn vor einem Monitor mit dutzenden parallelen Codex-Sessions. Sein Setup: ~10 Repositories gleichzeitig ausgecheckt, jeder Agent bekommt eine ~20-Minuten-Aufgabe, er wechselt zwischen ihnen wie ein Dirigent zwischen Instrumenten.

Die neue Metrik ist nicht Tippgeschwindigkeit, sondern Token-Durchsatz: Wie viele Tokens pro Sekunde kann man auf die eigenen Ziele einsetzen? Wenn das Subscription-Limit bei Anthropic erreicht ist, wechselt man zu OpenAI. Die Parallele zu GPU-Compute im PhD ist frappierend — nur dass der Engpass jetzt nicht FLOPs sind, sondern Tokens.

Was wir daraus gelernt haben: Bei EconLab AI nutzen wir seit Monaten ein tmux-basiertes Multi-Agent-Setup mit dedizierten Teammates in eigenen Panes. Die Macro-Action-Denkweise ist genau das, was wir täglich praktizieren — und es ist beruhigend zu sehen, dass Karpathy denselben Ansatz beschreibt, den wir unabhängig entwickelt haben.

04

Claws: Persistente Agenten als nächste Evolutionsstufe

Karpathy führt einen neuen Begriff ein: Claws. Nicht zu verwechseln mit klassischen Agents. Die Taxonomie:

SchichtWas es istStatus 2026
LLMToken-Generator (rohe Primitive)Selbstverständlich
AgentLLM + Tools + einzelne SessionSelbstverständlich
ClawAgent + Persistenz + Memory + Sandbox + AutonomieIm Aufbau
Meta-LayerOptimierung der Instructions / Program.mdNächster Schritt

Ein Claw läuft im Hintergrund, hat seine eigene Sandbox, arbeitet auch wenn der Nutzer nicht hinschaut und verfügt über ein deutlich ausgefeilteres Memory-System als Standard-Agenten. Karpathys Praxisbeispiel: "Dobby the Elf Claw" — ein Agent, der sein komplettes Smart Home steuert. Drei Prompts genügten:

  1. "Finde mein Sonos-System" → Agent scannt das Netzwerk, reverse-engineered die API
  2. Gleiches für Licht, HVAC, Rolläden, Pool
  3. Erstellt ein Dashboard als Command Center

"Dobby, Schlafenszeit" → alle Lichter aus. Kamera erkennt FedEx-Truck → WhatsApp-Nachricht mit Bild. Sechs Apps ersetzt durch eine einzige natürlichsprachliche Schnittstelle.

Die tiefere Implikation: "Apps sollten vielleicht gar nicht existieren. Alles sollte nur APIs sein, und Agenten sind die intelligente Verbindungsschicht." Der Kunde ist nicht mehr der Mensch — sondern der Agent, der im Auftrag des Menschen handelt.

05

Auto Research: Wenn Agenten über Nacht forschen

Wir haben Karpathys Autoresearch-Repository bereits ausführlich analysiert — 630 Zeilen Python, die den gesamten ML-Forschungszyklus automatisieren. Im Interview ergänzt Karpathy den Kontext, der im Code allein nicht sichtbar ist:

"Um das Maximum aus den verfügbaren Tools herauszuholen, musst du dich selbst als Flaschenhals entfernen. Du darfst nicht da sein, um den nächsten Prompt einzugeben."

Sein Testfall: NanoGPT — ein Modell, das er selbst bereits gründlich von Hand optimiert hatte. Zwei Jahrzehnte Erfahrung. Trotzdem fand Auto Research über Nacht Optimierungen, die er übersehen hatte: vergessenes Weight Decay auf den Value Embeddings, suboptimale Adam-Betas, Wechselwirkungen zwischen Hyperparametern.

Die Skalierung dieses Prinzips führt zu einem revolutionären Konzept: Program.md — die Beschreibung einer ganzen Forschungsorganisation als Set von Markdown-Dateien. Rollen, Prozesse, Risikobereitschaft, Experimentier-Strategien. Karpathys Gedankenexperiment: Verschiedene Teams schreiben verschiedene Program.mds, bekommen dieselbe Hardware — wer erreicht die meiste Verbesserung? Dann: Gib alle Daten dem Modell und lass es eine bessere Program.md schreiben.

Das ist nicht Science-Fiction. Das ist eine Extrapolation dessen, was wir bei EconLab AI mit Context Engineering und CLAUDE.md-Dateien täglich tun — nur auf Organisationsebene statt auf Projektebene.

06

Die Zackigkeit: Warum 'brillanter PhD' und '10-Jähriger' kein Widerspruch ist

Karpathys irritierendste Beobachtung betrifft die Jaggedness — die Zackigkeit — aktueller Modelle:

"Ich fühle mich gleichzeitig so, als würde ich mit einem extrem brillanten PhD-Studenten sprechen, der sein ganzes Leben Systemprogrammierer war, und einem 10-Jährigen."

Das Paradebeispiel: Alle Modelle erzählen seit vier Jahren denselben Witz ("Warum vertrauen Wissenschaftler Atomen nicht? Weil sie alles erfinden!"). Die Modelle sind in verifizierbaren Domänen — Code, Mathematik, CUDA-Optimierung — dramatisch besser geworden. Bei Humor, Nuance, Intentionserkennung und der Fähigkeit zu wissen wann man eine klärende Frage stellen sollte: kaum Fortschritt.

Karpathys Erklärung: Was durch Reinforcement Learning optimiert wird, verbessert sich. Was nicht gemessen wird, stagniert. Code-Generierung hat Unit Tests als Verifikation. Humor hat kein Äquivalent. Die Behauptung, dass Intelligenz in verifizierbaren Domänen auf alles generalisiert, scheint nicht zuzutreffen.

Seine Lösung: Speziation statt Monokultur. Analog zur Artenvielfalt im Tierreich — verschiedene Tiere haben überdimensionierte visuelle Cortices oder andere Spezialisierungen. Es muss nicht ein Orakel geben, das alles weiß. Kleinere Modelle mit kognitivem Kern plus Spezialisierung wären effizienter in Latenz und Durchsatz.

Das resoniert mit unserer eigenen Erfahrung: In der CLAUDE.md-Konfiguration unserer Agent-Teams verwenden wir bereits eine Modell-Strategie pro Rolle — Haiku für Research, Sonnet für Code, Opus für autonome komplexe Entscheidungen. Karpathys "Speziation" ist das, was wir "gestufte Modell-Allokation" nennen.

07

Open Source vs. Frontier: Das Linux-Moment der KI

Karpathy zeichnet eine Zeitlinie, die Mut macht:

  • 2023: Open Source 18+ Monate hinter Frontier
  • 2024: ~12 Monate
  • 2025: ~8 Monate
  • 2026: ~6 Monate — und für Consumer Use Cases bereits ausreichend

Seine Analogie: Windows/macOS sind die geschlossenen Modelle. Linux ist Open Source — und läuft auf ~60% aller Computer. Die Industrie hat einen natürlichen Bedarf an einer gemeinsamen, offenen Plattform. Der Unterschied: LLMs sind kapitalintensiv, was es schwieriger macht.

Gleichzeitig warnt er eindringlich vor Zentralisierung:

"Zentralisierung hat in meiner Sicht eine sehr schlechte Erfolgsbilanz in der Vergangenheit. Ich will, dass es Ensembles von Menschen gibt, die über die schwersten Probleme nachdenken."

Für europäische Unternehmen ist das besonders relevant: Wir sind abhängig von US-basierten Frontier-Modellen, deren APIs dem EU AI Act und dem CLOUD Act gleichzeitig unterliegen. Open Source — lokal ausgeführt — ist nicht nur eine technologische Option, sondern ein strategischer Souveränitätshebel. In unserer KI-Nutzungsrichtlinie bilden wir das als Tier-System ab: Frontier-APIs für Qualität, lokale Open-Source-Modelle für Datensouveränität.

08

Acht Paradigmenwechsel — und was jeder für europäische Unternehmen bedeutet

#VorherJetztImplikation für Unternehmen
1Zeilen Code schreibenMacro Actions delegierenHiring-Kriterium: Orchestrierungs-Kompetenz, nicht Tippgeschwindigkeit
2Einzelne Agent-SessionMulti-Agent-Teams parallelTooling-Investition: tmux, Agent Harness, SharedContext > IDE-Plugins
3GPU-Compute als EngpassToken-Durchsatz als EngpassBudgets umschichten: weniger Hardware, mehr API-Subscriptions
4Forscher im LoopAuto Research LoopsJede Metrik die automatisch auswertbar ist, kann autonom optimiert werden
5Apps mit UIAPIs + Agent-GlueProduct-Architektur überdenken: API-first, Agent-kompatibel
6Dokumentation für MenschenMarkdown für AgentenInvestition in CLAUDE.md, Context Engineering, Agent-optimierte Docs
7Monokultur-ModelleSpeziationModell-Allokation pro Aufgabe statt One-Size-Fits-All
8Lineares LernenSkills für AgentenTraining-Material als Agent-Skills statt als Slide Decks

Die strategische Konsequenz für ein europäisches KI-Unternehmen mit Audit-Hintergrund:

1. Token-Durchsatz als KPI einführen. Nicht Lines of Code, nicht Story Points. Die Frage lautet: Wie viele Tokens pro Stunde kann das Team auf Mandantenziele einsetzen?

2. Program.md als Organisationsdesign ernst nehmen. Wenn Karpathy ganze Forschungsorganisationen als Markdown beschreibt, dann ist die CLAUDE.md keine technische Konfigurationsdatei — sie ist ein strategisches Steuerungsinstrument.

3. "Was nicht bauen" als Beratungsleistung anbieten. Karpathy sagt: In einer Welt wo alles baubar ist, ist die Entscheidung was man nicht baut die wertvollste. Das ist exakt das, was ein Unternehmen mit Audit-Denkweise besser kann als ein reines Tech-Team: strategische Bewertung vor technischer Machbarkeit.

4. Die Jaggedness als Governance-Problem behandeln. Modelle die brillant coden aber miserabel Nuancen erkennen brauchen unterschiedliche Kontrollmechanismen pro Domäne. Audit-Trail für Code-Outputs. Vier-Augen-Prinzip für Mandantenkommunikation. Automatische Tests für verifizierbare Domänen. Das ist kein technisches Problem — es ist ein Governance-Problem.

5. Open Source als Souveränitätsstrategie behandeln. Karpathys Linux-Analogie + europäische Regulierung = ein klarer Case für hybride Modell-Stacks. Frontier-APIs wo Qualität zählt, lokale Modelle wo Daten sensitiv sind. Nicht entweder-oder — beides, mit dokumentierter Begründung.

09

Epilog: 'Coden ist nicht mal mehr das richtige Verb'

Das vielleicht eindrücklichste Zitat des gesamten Interviews:

"Coden ist nicht mal mehr das richtige Verb. Ich drücke meinen Willen gegenüber meinen Agenten aus. 16 Stunden am Tag. Manifest."

Karpathy, der Mann der NanoGPT geschrieben hat, der Generationen von ML-Engineers mit seinen YouTube-Tutorials ausgebildet hat, der als Director of AI bei Tesla Autopilot leitete — dieser Mann schreibt seit drei Monaten keinen Code mehr.

Das ist kein Trend-Artikel. Das ist kein Hype-Zyklus. Das ist ein Bruch.

Die Forscher bei OpenAI und Anthropic, die Karpathy als "verherrlichte Auto-Researcher, die sich aktiv selbst automatisieren" beschreibt, spüren die Psychose ebenfalls. Die Frage ist nicht mehr ob sich die Softwareentwicklung fundamental verändert. Die Frage ist: Bist du der Orchestrierer — oder wirst du orchestriert?

Bei EconLab AI haben wir unsere Antwort gefunden: Wir orchestrieren — mit der Disziplin eines Wirtschaftsprüfers und den Werkzeugen eines Agentic Engineers. Wer beides kann, hat einen Vorsprung, den reine Tech-Teams nicht aufholen können.

Quelle: Andrej Karpathy im Gespräch mit Sarah Guo, No Priors Podcast, 20. März 2026 (1:06:31). Karpathy ist Mitgründer von OpenAI und ehemaliger Director of AI bei Tesla.

Weiter lesen im Agentic-Coding-Ökosystem: Autoresearch Deep Dive · Huntleys kreative Psychose · Der Ralph Loop · Context Engineering · 672 Stunden AI Coding · Architektur-Stack

EconLab AI verbindet Agentic AI Engineering mit sieben Jahren Audit-Expertise. Die Paradigmenwechsel die Karpathy beschreibt, sind unsere tägliche Praxis. Gespräch vereinbaren | Unsere Beratung

Über den Autor

Giuliano Falco

Founder, EconLab AI

7 Jahre Wirtschaftsprüfung und IT-Audit. Jetzt baut er mit Agentic Coding die nächste Generation von Audit- und Enterprise-Software.

Bereit für den nächsten Schritt?

Wir beraten zu KI-Strategie, EU AI Act und Agentic Coding.

Gespräch vereinbaren