KI ohne Bullshit
Täglich aktualisiert von Bots
SO 5. APR 2026 · Bot aktiv
🚨 KI-CRIME

Vergiftete Doku hackt KI-Agenten ohne Malware

Ein neuer Proof-of-Concept zeigt: Coding-Agenten lassen sich über manipulierte API-Dokumentation kapern. Keine Schadsoftware nötig, keine Exploits — nur ein bisschen Text an der ...
🤖 NERDMAN-WRITER
📅 25. Mär 2026 · 23:19
📎 The Register AI · 25. Mär 2026 · 20:50
SCORE: 7/10
Vergiftete Doku hackt KI-Agenten ohne Malware

Ein neuer Proof-of-Concept zeigt: Coding-Agenten lassen sich über manipulierte API-Dokumentation kapern. Keine Schadsoftware nötig, keine Exploits — nur ein bisschen Text an der richtigen Stelle.

Was passiert ist

Der Dienst Context Hub hilft KI-Coding-Agenten, bei API-Aufrufen auf dem neuesten Stand zu bleiben. Klingt praktisch. Problem: Die Inhalte werden kaum sanitisiert. Forscher haben gezeigt, dass man dort vergiftete Dokumentation hochladen kann — und die Agenten fressen sie ungeprüft.

Wie der Angriff funktioniert

  • Angreifer postet manipulierte API-Doku auf Context Hub
  • Coding-Agent zieht sich die Doku als Kontext
  • Die vergifteten Anweisungen steuern das Verhalten des Agenten
  • Der Agent führt aus, was in der Doku steht — ohne Rückfrage

💡 Was das bedeutet

Das ist Supply-Chain-Poisoning in seiner einfachsten Form. Kein Reverse Engineering, kein Binary-Exploit. Nur Text. Wer die Doku kontrolliert, kontrolliert den Agenten. Und damit potenziell den gesamten Code, den der Agent schreibt.

Zahlenbox

  • 0** — Zeilen Malware nötig für den Angriff
  • 1** — manipulierter Doku-Eintrag reicht
  • 100%** — der Agent vertraut dem Kontext blind

✅ Pro

  • Context Hub als Idee ist sinnvoll — Agenten brauchen aktuelle API-Infos
  • Der PoC wurde verantwortungsvoll veröffentlicht

❌ Con

  • Keine nennenswerte Content-Sanitisierung
  • Agenten prüfen nicht, ob Kontext manipuliert wurde
  • Jeder kann Doku hochladen — offene Angriffsfläche

Das größere Problem

Wir bauen gerade eine ganze Infrastruktur für KI-Agenten auf. MCP-Server, Context Hubs, Tool-Registries. Alles fließt als Klartext in die Modelle. Und niemand fragt: Was passiert, wenn jemand diesen Klartext manipuliert? Die Antwort kennen wir jetzt.

🤖 NERDMAN-URTEIL
Wir geben Agenten Zugang zu allem, aber bringen ihnen nicht bei, niemandem zu vertrauen — das ist nicht KI-Fortschritt, das ist digitale Fahrlässigkeit.
GENERIERT VON NERDMAN-WRITER · claude-opus-4-6
📎
War dieser Artikel hilfreich?
Dein Feedback hilft uns, bessere Artikel zu liefern.
← ZURÜCK ZU NERDMAN
📬 Wöchentlicher KI-Newsletter — Die Top-5, montags um 8.