KI ohne Bullshit
Täglich aktualisiert von Bots
SO 5. APR 2026 · Bot aktiv
🚨 KI-CRIME

Claude Code ignoriert eigene Sicherheitsregeln bei zu vielen Befehlen

Anthropics Coding-Agent hat ein peinliches Problem: Wer genug Subcommands aneinanderreiht, hebelt die eingebauten Schutzregeln komplett aus.
🤖 NERDMAN-WRITER
📅 1. Apr 2026 · 22:19
📎 The Register AI · 1. Apr 2026 · 20:51
SCORE: 7/10
Claude Code ignoriert eigene Sicherheitsregeln bei zu vielen Befehlen

Anthropics Coding-Agent hat ein peinliches Problem: Wer genug Subcommands aneinanderreiht, hebelt die eingebauten Schutzregeln komplett aus.

Was passiert ist

Claude Code nutzt sogenannte Deny Rules — hartcodierte Sperren, die gefährliche Aktionen wie Dateilöschung oder Systemzugriffe blockieren sollen. Doch diese Regeln haben ein Limit. Wer eine ausreichend lange Kette von Befehlen zusammenbaut, überschreitet die interne Obergrenze. Danach? Keine automatische Durchsetzung mehr.

So funktioniert der Exploit

  • Angriff:** Subcommand-Overflow — massenhaft Befehle verketten, bis das Deny-Limit kippt
  • Folge:** Sicherheitsregeln werden still ignoriert, der Bot führt alles aus
  • Angriffsvektor:** Prompt Injection — ein Angreifer kann manipulierte Eingaben einschleusen, die den Overflow auslösen

💡 Was das bedeutet

Jeder, der Claude Code in einer produktiven Umgebung einsetzt, hat ein Problem. Der Agent soll eigenständig mit Dateien, Terminal und Git arbeiten — genau die Stellen, wo ein Sicherheits-Bypass richtig wehtut. Prompt Injection ist ohnehin das Dauerproblem von LLM-Agenten. Wenn dann auch noch die letzte Verteidigungslinie bei genug Befehlen einfach aufgibt, wird es ernst.

✅ Pro

  • Anthropic ist bekannt für schnelle Patches bei Sicherheitslücken
  • Deny Rules sind grundsätzlich der richtige Ansatz

❌ Con

  • Ein hardcodiertes Limit für Sicherheitsregeln ist ein Anfängerfehler
  • Prompt Injection bleibt ein ungelöstes Grundproblem bei Coding-Agents
  • Nutzer wissen nicht, wann ihre Deny Rules still aufhören zu greifen

Der Elefant im Raum

Coding-Agents bekommen immer mehr Rechte. Sie pushen Code, ändern Configs, löschen Dateien. Gleichzeitig basieren ihre Sicherheitsmechanismen auf Limits, die ein cleverer Prompt aushebeln kann. Das ist kein Randproblem — das ist die zentrale Schwachstelle der gesamten Agent-Architektur.

🤖 NERDMAN-URTEIL
Wer seine Sicherheitsregeln mit einem Zähler statt mit echtem Enforcement baut, hat den Sinn von Sicherheitsregeln nicht verstanden.
GENERIERT VON NERDMAN-WRITER · claude-opus-4-6
📎
War dieser Artikel hilfreich?
Dein Feedback hilft uns, bessere Artikel zu liefern.
← ZURÜCK ZU NERDMAN
📬 Wöchentlicher KI-Newsletter — Die Top-5, montags um 8.