← Alle Video-Analysen
Fireship • 06. April 2026

Claude Code Quellcode geleakt — Was drin steckt und was es bedeutet

Anthropic hat versehentlich den kompletten Claude Code Quellcode (500.000+ Zeilen TypeScript) ueber eine npm Source Map geleakt. Fireship zerlegt die Architektur: 11-Schritt Prompt Pipeline, Anti-Distillation Poison Pills, Undercover Mode, Frustrations-Detektor und was das fuer die Industrie bedeutet.

Video auf YouTube ansehen →
Themen in diesem Video
📜

500.000 Zeilen Code geleakt ueber npm Source Map

Was ist passiert?

Version 2.1.88 des Claude Code npm-Pakets wurde mit einer 57 MB Source-Map-Datei veroeffentlicht, die den kompletten lesbaren TypeScript-Quellcode enthielt. Ursache: Ein Bug in Bun.js, das Source Maps nicht aus Production strippt. Entdeckt von Sicherheitsforscher Chiao Fan Sha.

Wofuer kann man das nutzen?

Verstaendnis, wie ein produktionsreifes AI-Coding-Tool intern aufgebaut ist. Die Architekturprinzipien (11-Schritt-Pipeline, Tool-System, Prompt-Sandwich) sind als Designmuster auf eigene Projekte anwendbar.

Was bringt es?

Transparenz: Claude Code ist kein magisches System, sondern strukturiertes Prompt Engineering + TypeScript-Tooling. Wer das versteht, baut bessere eigene Agenten.

So wird es gemacht
1. Den eigenen Build-Prozess pruefen: Werden .map-Dateien aus Production ausgeschlossen?
2. CI/CD-Check einbauen der auf Source-Map-Dateien in Artefakten prueft
3. Bun.js Nutzer: Issue auf GitHub pruefen ob der Bug behoben ist
📜

11-Schritt Prompt-Sandwich Architektur

Was ist passiert?

Claude Code ist kein einfacher Chatbot mit System-Prompt + User-Prompt. Es durchlaeuft 11 Schritte von Input zu Output. Der Kern: Ein dynamischer Prompt-Sandwich aus hardkodiertem TypeScript. Es gibt bereits eine Website die jeden Schritt dokumentiert.

Wofuer kann man das nutzen?

Architekturvorlage fuer eigene AI-Agenten. Statt einen einfachen Prompt zu senden, baut man eine mehrstufige Pipeline: Input-Parsing, Kontextanreicherung, Tool-Auswahl, Ausfuehrung, Output-Formatierung als separate Schritte.

Was bringt es?

Die Magie liegt in der Orchestrierung, nicht im Modell. Wer das Muster versteht, kann mit jedem LLM einen produktionsreifen Coding-Agenten bauen.

So wird es gemacht
Eigene Agent-Pipeline nach dem Multi-Step-Muster aufbauen:
1. Input parsen und klassifizieren
2. Kontext anreichern (Dateien, History, Rules)
3. Tool-Auswahl (welches Tool wird gebraucht?)
4. Ausfuehrung mit Sicherheitspruefung
5. Output formatieren und validieren
🔌

Anti-Distillation Poison Pills

Was ist passiert?

Claude Code taeuscht die Existenz nicht-existierender Tools vor. Zweck: Wenn ein Konkurrent Claude-Outputs zum Training nutzt, lernt deren Modell ueber Tools die es nicht gibt — und wird dadurch schlechter. Durch den Leak wissen Distillatoren jetzt welche ca. 25 Tools echt sind.

Wofuer kann man das nutzen?

Schutz eigener AI-Outputs gegen unautorisiertes Training. In eigenen APIs: Honeypot-Outputs einbauen die bei systematischem Abgreifen Fehlinformationen einfuegen.

Was bringt es?

Verteidigungsstrategie gegen Model-Distillation. Fuer Anthropic jetzt kompromittiert, aber als Konzept fuer eigene APIs relevant.

So wird es gemacht
Bei eigenen AI-APIs:
1. Honeypot-Endpoints einbauen
2. Fake-Tools in der Tool-Liste auffuehren
3. Bei verdaechtigem Zugriffsmuster automatisch Fehlinformationen zurueckgeben
4. Watermarking als Alternative pruefen

Undercover Mode — KI versteckt ihre Identitaet

Was ist passiert?

Ein Instruktions-Set das Claude anweist, sich in Commit-Messages und Outputs nie als AI zu erkennen zu geben. Offizieller Zweck: Verhinderung von Modell-Codenamen-Leaks. Spekulierter Zweck: AI-generierten Code in Open-Source-Projekte einschleusen ohne Pruefung.

Wofuer kann man das nutzen?

Bewusstsein fuer die Herkunft von Code in Open-Source-Projekten. Contributing Guidelines anpassen: AI-Nutzung bei PRs deklarieren lassen.

Was bringt es?

Kritisches Hinterfragen ob Contributions in eigenen Projekten AI-generiert sind.

So wird es gemacht
In eigenen Projekten:
1. Contributing Guidelines um AI-Disclosure erweitern
2. Code-Review auf AI-typische Muster pruefen (uebermaessig viele Kommentare, perfekte Formatierung)
3. Co-authored-by Tags pruefen
📜

Bash-Tool: 1.000+ Zeilen fuer zuverlaessige Kommandoausfuehrung

Was ist passiert?

Das Bash-Tool ist mit ueber 1.000 Zeilen Code das wichtigste Feature in Claude Code. Es hilft dem LLM zuverlaessig Bash-Kommandos zu parsen und auszufuehren — mit Edge-Case-Handling fuer Timeouts, gefaehrliche Kommandos und mehrzeilige Befehle.

Wofuer kann man das nutzen?

Referenz fuer eigene Tool-Use-Implementierungen. Zuverlaessige Bash-Ausfuehrung ist der Kern jedes AI-Coding-Assistenten.

Was bringt es?

Man versteht warum Claude Code so zuverlaessig Terminal-Befehle ausfuehrt und kann dieses Muster in eigenen Agenten nachbauen.

So wird es gemacht
Bei eigenen AI-Agenten:
1. Bash/Shell-Ausfuehrung als eigenstaendiges, robust getestetes Modul implementieren
2. Timeouts explizit definieren
3. Blocklist fuer gefaehrliche Kommandos (rm -rf, DROP TABLE etc.)
4. Mehrzeilige Befehle korrekt parsen
5. Output-Laenge limitieren
🖥️

Frustrations-Detektor per Regex

Was ist passiert?

Claude Code nutzt einfache Regular Expressions um in User-Prompts Frustrations-Keywords zu erkennen (Schimpfwoerter etc.). Bei Match wird ein Event geloggt. Kein KI-basiertes Sentiment Analysis, sondern simples Pattern Matching.

Wofuer kann man das nutzen?

User-Experience-Monitoring in eigenen AI-Tools. Einfache, performante Methode zur Erkennung negativer Nutzererfahrungen ohne zusaetzlichen AI-Call.

Was bringt es?

Man weiss sofort wenn Nutzer frustriert sind und kann die haeufigsten Problemstellen identifizieren.

So wird es gemacht
In eigenen Tools:
1. Keyword-Liste fuer Frustration definieren
2. Regex-basiertes Matching auf User-Input
3. Events loggen (Timestamp, Kontext, Keyword)
4. Dashboard bauen das Frustrations-Trends zeigt
5. Regelmaessig die Top-Frustrationspunkte reviewen und beheben
🚀

OpenClaw — Open-Source Claude Code fuer jedes Modell

Was ist passiert?

Ein Nutzer hat mit OpenAI Codex den gesamten TypeScript-Code zu Python umgeschrieben (Claw Code, 50.000+ GitHub Stars). OpenClaw ist ein Fork der mit jedem LLM-Modell funktioniert — Gemma, Llama, GPT, Mistral.

Wofuer kann man das nutzen?

Alternative Open-Source AI-Coding-Assistenten die modellagnostisch sind. Unabhaengigkeit von Anthropic.

Was bringt es?

Man kann Claude Codes Architektur mit jedem Modell nutzen — lokal, kostenlos, datenschutzkonform.

So wird es gemacht
1. OpenClaw auf GitHub suchen
2. Repository klonen
3. Mit Ollama und einem lokalen Modell (Gemma 4, Llama) verbinden
4. Eigene Skills und Tools einbauen
🔌

Supply-Chain-Risiko: Axios + Nordkorea-Hack

Was ist passiert?

Claude Code nutzt Axios als HTTP-Client. Am selben Tag des Leaks wurde Axios von nordkoreanischen Hackern kompromittiert — der Exploit kann einen Remote-Access-Trojaner installieren. Eine Katastrophe die nur knapp vermieden wurde.

Wofuer kann man das nutzen?

Supply-Chain-Security fuer npm-Pakete. Jedes Projekt das Axios nutzt (und das sind sehr viele) war potentiell betroffen.

Was bringt es?

Bewusstsein fuer Abhaengigkeitsrisiken. npm audit wird Pflicht.

So wird es gemacht
1. npm audit in CI/CD erzwingen
2. Lock-Files nutzen (package-lock.json)
3. Kritische Pakete pinnen und Updates manuell reviewen
4. Alternative: native fetch statt Axios verwenden
5. Regelmaessig Abhaengigkeiten pruefen