← Zur Übersicht
KI & Sicherheit

OWASP Top 10 für Agentic Applications: Die neue Security-Bibel für KI-Agenten

Das OWASP Top 10 for Agentic Applications definiert erstmals standardisierte Sicherheitsrisiken für autonome KI-Agenten. Was Entwickler jetzt wissen müssen.

OWASP Top 10 für Agentic Applications: Die neue Security-Bibel für KI-Agenten
  • #OWASP
  • #KI-Agenten
  • #Security
  • #Agentic AI
  • #Sicherheit
  • #Shadow AI
  • #Supply Chain

Wer in den letzten Monaten KI-Agenten in Produktion gebracht hat, kennt das Gefühl: Da läuft ein System, das eigenständig Entscheidungen trifft, Tools aufruft, Code ausführt — und irgendwo im Hinterkopf fragt man sich, ob man wirklich alle Angriffsvektoren bedacht hat. Seit März 2026 gibt es darauf eine strukturierte Antwort: Das OWASP Top 10 for Agentic Applications katalogisiert erstmals die kritischsten Sicherheitsrisiken für autonome KI-Systeme.

Und ehrlich? Es wurde höchste Zeit. Denn die Realität sieht düster aus: Laut Deloittes aktuellem „State of AI in the Enterprise”-Report operieren über die Hälfte aller eingesetzten KI-Agenten ohne jegliche Sicherheitsüberwachung. Shadow-AI-Breaches kosten im Schnitt 670.000 Dollar mehr als herkömmliche Sicherheitsvorfälle. Das sind keine theoretischen Szenarien mehr — das passiert gerade, in Unternehmen jeder Größe.

In diesem Artikel gehe ich die zehn wichtigsten Risiken durch und erkläre, was sie für uns als Webentwickler und KI-Integratoren konkret bedeuten.

Die Ausgangslage: Warum brauchen KI-Agenten eine eigene Sicherheitsliste?

OWASP kennt jeder Webentwickler. Die klassische Top-10-Liste für Webanwendungen ist seit über 20 Jahren der De-facto-Standard. Aber KI-Agenten sind fundamental anders als Web-Apps: Sie agieren autonom, verketten mehrere Tools, greifen auf externe APIs zu und treffen Entscheidungen ohne menschliche Freigabe.

Die bisherige OWASP Top 10 für LLM Applications (2025) adressierte zwar Prompt Injection und ähnliche Angriffe, aber nicht die Risiken, die entstehen, wenn KI-Systeme als eigenständige Akteure operieren. Ein Chatbot, der auf eine Frage antwortet, ist ein komplett anderes Bedrohungsszenario als ein Agent, der selbstständig Dateien erstellt, APIs aufruft und Deployment-Pipelines triggert.

Genau diese Lücke schließt das OWASP Top 10 for Agentic Applications. Schauen wir uns die einzelnen Risiken an.

ASI01: Agent Goal Hijacking — Wenn der Agent manipuliert wird

Das erste und vielleicht gefährlichste Risiko: Ein Angreifer manipuliert das Ziel eines KI-Agenten durch eingeschleuste Anweisungen. Das kann über manipulierte Eingaben, vergiftete Kontextdaten oder kompromittierte externe Quellen passieren.

Stellt euch vor, ein Agent verarbeitet E-Mails automatisch. Eine präparierte Mail enthält versteckte Anweisungen, die den Agenten dazu bringen, vertrauliche Daten an eine externe Adresse weiterzuleiten. Das klingt nach Science-Fiction, ist aber mit aktuellen Modellen reproduzierbar.

Was hilft: Eingabevalidierung auf mehreren Ebenen, klare Systemprompte mit expliziten Grenzen, und vor allem: kritische Aktionen niemals ohne menschliche Bestätigung. Wer sich tiefer mit Prompt Injection beschäftigen will, dem empfehle ich meinen Artikel zu Prompt Injection und Agent Hijacking.

ASI02: Tool Misuse — Wenn Werkzeuge zur Waffe werden

KI-Agenten definieren sich über ihre Tool-Nutzung. Sie rufen APIs auf, führen Datenbankabfragen durch, schreiben Dateien. ASI02 beschreibt Szenarien, in denen diese Tools durch mehrdeutige Anweisungen oder geschicktes Chaining zweckentfremdet werden.

Ein Beispiel aus meiner Praxis: Ein Coding-Agent mit Zugriff auf ein Terminal könnte theoretisch nicht nur Code schreiben, sondern auch curl-Befehle absetzen, die sensible Daten exfiltrieren. Nicht weil er „böse” ist, sondern weil das Tooling ihm diese Möglichkeit gibt und die Eingabe entsprechend manipuliert wurde.

Was hilft: Schema-Validierung für alle Tool-Aufrufe, strikte Berechtigungskonzepte nach dem Least-Privilege-Prinzip, und ein Monitoring, das ungewöhnliche Tool-Sequenzen erkennt. Sandboxing ist hier nicht optional — es ist überlebenswichtig. Mehr dazu in meinem Beitrag über Sandboxing für KI-Agenten.

ASI03: Privilege Abuse — Zu viel Macht, zu wenig Kontrolle

Eng verwandt mit Tool Misuse, aber auf einer anderen Ebene: ASI03 adressiert das Problem, dass KI-Agenten oft mit weitreichenden Berechtigungen laufen. Viele Entwickler geben ihren Agenten Admin-Zugriff, weil es „einfacher ist” — und schaffen damit ein massives Sicherheitsrisiko.

Die Deloitte-Studie zeigt: 29 Prozent der Mitarbeiter haben bereits eigenmächtig KI-Agenten im Unternehmen deployed. Diese „Shadow Agents” laufen mit den Berechtigungen ihrer menschlichen Ersteller — ohne separate Identität, ohne Audit-Log, ohne Governance. Mein Artikel zu Shadow AI beleuchtet dieses Problem ausführlich.

Was hilft: Dedizierte Service-Accounts für jeden Agenten, regelmäßige Privilege-Audits und eine klare Separation zwischen dem, was ein Agent lesen darf und dem, was er ausführen darf. Lese-Zugriff ist fast immer unkritisch. Schreib- und Ausführungsrechte dagegen müssen einzeln begründet werden.

ASI04: Supply Chain Vulnerabilities — Vergiftete Abhängigkeiten

Dieses Risiko kennen Webentwickler bereits aus dem NPM-Ökosystem, aber bei KI-Agenten bekommt es eine neue Dimension. Wenn ein Coding-Agent Pakete empfiehlt, die nicht existieren — sogenannte halluzinierte Dependencies —, können Angreifer genau diese Paketnamen in öffentlichen Registries registrieren und mit Malware versehen.

Klingt unwahrscheinlich? Studien zeigen, dass KI-generierter Code in 45 Prozent der Testfälle Sicherheitslücken enthält. Halluzinierte Package-Namen sind dabei ein besonders tückischer Angriffsvektor, weil sie auf den ersten Blick plausibel aussehen.

Was hilft: Dependency-Verification in der CI/CD-Pipeline, Lockfiles konsequent nutzen, und vor allem: jede neue Dependency aus KI-generiertem Code manuell prüfen. Das klingt unsexy und langsam, aber es ist der einzige verlässliche Schutz. Wer mehr über die versteckten Risiken von KI-generiertem Code wissen will, findet in meinem Artikel über Technical Debt durch KI-Code weitere Einblicke.

ASI05: Unexpected Code Execution — Der gefährlichste Punkt

Für mich persönlich das kritischste Risiko der ganzen Liste. ASI05 beschreibt Szenarien, in denen KI-Agenten Code generieren und ausführen, der unbeabsichtigte oder schädliche Aktionen durchführt. Das betrifft nicht nur offensichtlichen Schadcode, sondern auch subtile Logikfehler: Ein Agent, der einen Datenbank-Cleanup-Script erstellt und dabei versehentlich Produktionsdaten löscht, fällt ebenfalls unter ASI05.

In der Praxis sehe ich das ständig bei Coding-Agenten. Sie schreiben Shell-Scripts, die auf den ersten Blick korrekt aussehen, aber Befehle enthalten, die in einem Produktionskontext katastrophal wären. Ein rm -rf an der falschen Stelle, ein DROP TABLE ohne WHERE-Clause, ein API-Call ohne Rate-Limiting.

Was hilft: Jegliche Code-Ausführung durch KI-Agenten muss in einer Sandbox laufen — ohne Zugriff auf Produktionscredentials, ohne Netzwerkzugriff zu kritischen Systemen. Zusätzlich sollte generierter Code immer durch statische Analyse (SAST) und automatisierte Tests validiert werden, bevor er in irgendeiner Umgebung läuft.

ASI06: Memory Poisoning — Vergiftetes Langzeitgedächtnis

Viele moderne KI-Agenten verfügen über persistenten Speicher, um Kontext über Sitzungen hinweg zu behalten. ASI06 beschreibt Angriffe, bei denen dieser Speicher gezielt manipuliert wird, um das Verhalten des Agenten langfristig zu beeinflussen.

Das ist besonders hinterhältig, weil der Angriff zeitversetzt wirkt. Ein Angreifer injiziert manipulierte Informationen in den Agentenkontext — und Tage oder Wochen später trifft der Agent auf Basis dieser falschen Informationen fehlerhafte Entscheidungen. Das Thema Memory-Architekturen habe ich bereits in einem früheren Beitrag behandelt — dort wird klar, wie zentral (und angreifbar) diese Komponente ist.

Was hilft: Integritätsprüfungen für den Agentenspeicher, versionierte Memory-Snapshots und regelmäßige Anomalie-Erkennung auf gespeicherte Daten. Und ganz pragmatisch: Der Agent sollte nie blind seinem eigenen Gedächtnis vertrauen, sondern kritische Informationen aus dem Speicher gegen externe Quellen validieren.

ASI07: Insecure Multi-Agent Communication — Wenn Agenten sich gegenseitig vertrauen

In Multi-Agent-Systemen kommunizieren mehrere KI-Agenten miteinander, delegieren Aufgaben und teilen Ergebnisse. ASI07 adressiert die Risiken, die entstehen, wenn diese Inter-Agent-Kommunikation nicht ausreichend abgesichert ist.

Ohne Authentifizierung und Verschlüsselung zwischen Agenten können Angreifer sich als vertrauenswürdiger Agent ausgeben und Aufgaben einschleusen oder Ergebnisse manipulieren. Gerade mit Protokollen wie A2A (Agent-to-Agent), die aktuell stark an Traktion gewinnen, ist dieses Thema brandaktuell. Mein Artikel zum A2A-Protokoll erklärt die Grundlagen dieser neuen Kommunikationsstandards.

Was hilft: Mutual TLS zwischen Agenten, signierte Nachrichten mit Integritätsvalidierung und eine Zero-Trust-Architektur, bei der jeder Agent jeden anderen Agent bei jeder Interaktion authentifizieren muss.

ASI08: Cascading Failures — Der Dominoeffekt

Wenn ein Agent in einem verketteten System versagt oder kompromittiert wird, können sich die Auswirkungen durch das gesamte System kaskadieren. ASI08 beschreibt dieses Risiko, das besonders in komplexen Orchestrierungen zum Tragen kommt.

Ein klassisches Szenario: Agent A liefert fehlerhafte Daten an Agent B, der darauf basierend Entscheidungen trifft und Aktionen an Agent C delegiert. Bis der Fehler erkannt wird, hat die Kaskade bereits irreversible Aktionen ausgelöst.

Was hilft: Circuit-Breaker-Pattern zwischen Agenten, unabhängige Validierung an jedem Übergabepunkt und klare Rollback-Mechanismen. Jeder Agent muss die Fähigkeit haben, eine Kette zu unterbrechen, wenn die Eingabedaten nicht seinen Erwartungen entsprechen.

ASI09 und ASI10: Logging-Defizite und übermäßige Autonomie

Die letzten beiden Punkte der Liste fasse ich zusammen, weil sie thematisch zusammengehören. ASI09 behandelt unzureichendes Logging und Monitoring — ein Problem, das bei 53 Prozent aller deployten KI-Agenten besteht, wenn man der Deloitte-Studie glaubt. Ohne vollständiges Audit-Log ist es nach einem Vorfall praktisch unmöglich festzustellen, was genau passiert ist.

ASI10 adressiert übermäßige Autonomie: Agenten, die ohne menschliche Checkpoints kritische Entscheidungen treffen. Das mag bei einem Chatbot noch harmlos sein, aber bei einem Agenten, der eigenständig Infrastruktur provisioniert oder Finanztransaktionen durchführt, wird es existenzgefährdend.

Was hilft: Structured Logging für alle Agentenaktionen, unveränderliche Audit-Trails und konfigurierbare Autonomie-Stufen. Für kritische Aktionen sollte immer ein Human-in-the-Loop-Mechanismus existieren — egal wie „intelligent” der Agent ist.

Was bedeutet das für die Praxis?

Die OWASP-Liste ist kein akademisches Papier. Sie ist ein konkreter Handlungsrahmen, den jeder Entwickler kennen sollte, der KI-Agenten baut oder einsetzt. Hier meine Top-5-Takeaways für die sofortige Umsetzung:

1. Least Privilege ist nicht optional

Jeder Agent bekommt genau die Berechtigungen, die er braucht — nicht mehr. Dedizierte Service-Accounts, keine geteilten Credentials, und regelmäßige Access-Reviews. Wer seine KI-Agenten-Sicherheit ernst nimmt, fängt hier an.

2. Sandbox Everything

Code-Ausführung, Tool-Aufrufe, Netzwerk-Zugriff: Alles in isolierten Umgebungen. Container, VMs oder spezialisierte Sandbox-Lösungen — Hauptsache, ein kompromittierter Agent kann keinen Schaden außerhalb seiner Box anrichten.

3. Trust Nothing, Verify Everything

Weder dem Input anderer Agenten noch dem eigenen Gedächtnis blind vertrauen. Jede Information validieren, jede Aktion verifizieren. Zero-Trust ist bei Agenten-Architekturen nicht Paranoia, sondern gesunder Menschenverstand.

4. Logging als Pflicht, nicht als Kür

Jede Agenteninteraktion muss protokolliert werden: welches Tool aufgerufen wurde, mit welchen Parametern, was das Ergebnis war. Ohne Logs keine Forensik — und ohne Forensik keine Verbesserung.

5. Human in the Loop für kritische Pfade

Autonomie ist großartig für Routineaufgaben. Aber für alles, was irreversibel ist oder externe Auswirkungen hat, braucht es menschliche Bestätigung. Ein Agent, der selbstständig E-Mails verschickt oder Infrastruktur ändert, muss vorher fragen — Punkt.

Fazit: Sicherheit als Enabler, nicht als Bremse

Das OWASP Top 10 for Agentic Applications ist ein Meilenstein für die KI-Agenten-Sicherheit. Nicht weil es revolutionäre neue Erkenntnisse liefert — viele der beschriebenen Risiken kennen erfahrene Entwickler bereits —, sondern weil es einen gemeinsamen Referenzrahmen schafft. Wenn wir über Agenten-Sicherheit reden, haben wir jetzt ein standardisiertes Vokabular und eine priorisierte Risikoliste.

Für mich als Entwickler, der täglich mit KI-Agenten arbeitet, ist die Liste vor allem eines: ein Reminder, dass Geschwindigkeit ohne Sicherheit keine Innovation ist, sondern Risiko. Wir können beides haben — schnelle, autonome Agenten und robuste Sicherheit. Aber nur, wenn wir Security von Anfang an mitdenken und nicht als Afterthought behandeln.

Die gute Nachricht: Die meisten Maßnahmen sind keine Rocket Science. Sandboxing, Least Privilege, Logging, Human-in-the-Loop — das sind bekannte Patterns. Die Herausforderung liegt nicht im Wissen, sondern im konsequenten Umsetzen. Und genau dafür ist die OWASP-Liste da: als Checkliste, als Audit-Framework und als gemeinsame Sprache für Teams, die KI-Agenten sicher in Produktion bringen wollen.