← Zur Übersicht
KI & Business

Agent Washing: Wenn KI-Agenten mehr versprechen als sie halten

Agent Washing ist das neue Greenwashing der Tech-Branche. Warum viele KI-Agenten nur umgelabelte Chatbots sind und wie du echte Autonomie erkennst.

Agent Washing: Wenn KI-Agenten mehr versprechen als sie halten
  • #KI-Agenten
  • #Agent Washing
  • #AI Hype
  • #Agentic AI
  • #Automatisierung
  • #LLM
  • #Enterprise AI
  • #Regulierung

Ein neues Buzzword erobert die Tech-Welt

Jede Woche landet ein neues Produkt auf meinem Radar, das sich als „KI-Agent” vermarktet. Ein Formular-Ausfüller hier, ein Auto-Responder dort, eine glorifizierte If-Then-Kette mit ChatGPT-API-Anbindung dazwischen. Alle nennen sich „agentic”. Und bei den meisten muss ich nach fünf Minuten feststellen: Das ist kein Agent. Das ist ein Chatbot mit Marketing-Budget.

Willkommen in der Ära des Agent Washing — das neue Greenwashing der Tech-Branche. Einfache Automatisierungen werden als autonome Agenten verkauft, regelbasierte Workflows bekommen ein „Agentic AI”-Label, und API-Wrapper werden als revolutionäre digitale Mitarbeiter positioniert. Das Problem ist nicht nur Marketing-Getöse. Es hat echte Konsequenzen.

Was einen echten KI-Agenten ausmacht

Bevor wir über das Washing reden, müssen wir klären, was ein KI-Agent eigentlich ist. Denn genau hier beginnt die Verwirrung. In meinem Artikel über den Unterschied zwischen KI-Agenten und Chatbots habe ich das schon ausführlicher beschrieben, aber hier die Kurzfassung:

Ein echter KI-Agent hat vier Kernmerkmale:

Autonomie. Er kann eigenständig Entscheidungen treffen und mehrstufige Workflows selbstständig planen — nicht blind, aber ohne dass ein Mensch jeden Schritt absegnen muss.

Werkzeugnutzung. Ein Agent interagiert aktiv mit seiner Umgebung: Dateien lesen, APIs aufrufen, Code ausführen, Browser steuern. Ein Chatbot antwortet. Ein Agent handelt.

Persistenz und Gedächtnis. Ein Agent merkt sich Kontext über Sitzungen hinweg — welche Entscheidungen getroffen wurden und warum. Mehr dazu in meinem Beitrag zu Langzeitgedächtnis-Architekturen für KI-Agenten.

Zielorientierung. Er bekommt ein Ziel, keine exakte Anweisung. „Finde und behebe den Bug im Login-Flow” statt „Ändere Zeile 47 in auth.js”. Der Weg ist seine Sache.

Erfüllt ein Produkt keines oder nur eines dieser Merkmale, ist es kein Agent. Punkt.

Die drei Stufen des Agent Washing

In der Praxis begegnen mir drei typische Muster, wie Agent Washing betrieben wird. Und sie sind so weit verbreitet, dass ich sie mittlerweile fast reflexartig erkenne.

Stufe 1: Der umgelabelte Chatbot

Das ist die häufigste Variante. Ein Unternehmen nimmt einen LLM-API-Wrapper, packt ein hübsches Frontend drum, fügt vielleicht einen System-Prompt hinzu und nennt das Ganze einen „KI-Agenten für Kundensupport”. In Wahrheit ist es ein Chatbot, der auf eine Wissensdatenbank zugreift — also klassisches RAG, kein Agenten-Verhalten.

Erkennungsmerkmal: Kann das Tool nur auf Anfragen reagieren, oder kann es proaktiv handeln? Wenn es nur antwortet, ist es ein Chatbot.

Stufe 2: Die glorifizierte Automatisierung

Hier wird es schon subtiler. Ein Workflow-Tool wie Zapier, Make oder n8n wird mit einem LLM-Schritt versehen — zum Beispiel „Analysiere diese E-Mail und kategorisiere sie”. Das ist eine sinnvolle Automatisierung. Aber es ist keine agentic AI. Der Workflow ist fest definiert, die Schritte sind vorprogrammiert, das LLM wird nur als Klassifikator eingesetzt. Kein eigenständiges Planen, kein Anpassen der Strategie, kein Lernen aus Fehlern.

Erkennungsmerkmal: Sind die Schritte fest definiert oder plant das System seinen eigenen Weg? Wenn jeder Schritt vorprogrammiert ist, ist es Automatisierung — nicht Agentik.

Stufe 3: Der Demo-Agent

Die gefährlichste Variante. Hier wird tatsächlich agentic Behaviour demonstriert — aber nur in kontrollierten Szenarien. Die Demo zeigt einen Agenten, der einen komplexen Multi-Step-Workflow autonom erledigt. Beeindruckend. Nur: In der Produktionsumgebung bricht er bei jeder zweiten Aufgabe zusammen, braucht ständig menschliches Eingreifen oder produziert stille Fehler, die erst Wochen später auffallen.

Dieses Phänomen habe ich im Detail in meinem Beitrag zur Benchmark-Mirage beschrieben: 80 Prozent auf dem Benchmark, 30 Prozent in der Praxis.

Warum Agent Washing gefährlich ist

„Na und?”, könnte man sagen. „Ist doch nur Marketing.” Aber Agent Washing hat sehr reale Konsequenzen.

Fehlgeleitete Investitionen

Wenn ein Unternehmen glaubt, einen echten KI-Agenten einzusetzen, plant es seine Prozesse entsprechend um. Mitarbeiter werden anders eingesetzt, Workflows neu strukturiert, Budgets verschoben. Wenn sich dann herausstellt, dass der „Agent” eigentlich nur ein besserer Chatbot ist, stehen Unternehmen vor der Wahl: Weitermachen mit einem untauglichen Tool oder nochmal von vorn anfangen. Beides kostet.

Sicherheitsrisiken durch falsches Vertrauen

Wer denkt, er hat einen autonomen Agenten im Einsatz, gibt diesem Agenten oft mehr Berechtigungen als nötig. Zugriff auf Datenbanken, APIs, interne Systeme. Bei einem echten Agenten mit robusten Sicherheitsmechanismen — wie ich sie im Artikel über Sicherheitsrisiken und Schutzmaßnahmen bei KI-Agenten beschrieben habe — ist das vertretbar. Bei einem umgelabelten Chatbot mit lückenhafter Fehlerbehandlung ist es eine Einladung für Prompt Injection und Datenlecks.

Laut einer aktuellen Analyse der Cloud Security Alliance sind KI-Agenten in 56 Prozent aller internen Unternehmens-Apps aktiv — aber 73 Prozent der IT-Sicherheitsexperten können oft nicht unterscheiden, ob eine Aktion von einem Menschen oder einem Agenten ausgelöst wurde.

Vertrauensverlust in die gesamte Technologie

Und das ist vielleicht der schlimmste Schaden. Wenn genug Unternehmen auf Agent-Washing-Produkte hereinfallen und schlechte Erfahrungen machen, entsteht eine pauschale Skepsis gegenüber KI-Agenten insgesamt. Auch gegenüber den Produkten, die tatsächlich funktionieren. Das hatten wir schon beim ersten KI-Hype in den 1980ern — und der resultierende „AI Winter” hat die Forschung um Jahrzehnte zurückgeworfen.

Die Regulierung reagiert — endlich

Die gute Nachricht: Die Regulierungsbehörden haben das Problem erkannt. Und sie handeln schneller, als viele erwartet hätten.

Die britische Competition and Markets Authority (CMA) hat im März 2026 neue Richtlinien für KI-Agenten veröffentlicht, die klare Regeln setzen: Unternehmen sind verantwortlich für das, was ihre KI-Agenten tun — einschließlich irreführender Aussagen, die der Agent im Namen des Unternehmens macht. Unter dem Digital Markets, Competition and Consumers Act drohen Bußgelder von bis zu zehn Prozent des weltweiten Jahresumsatzes für irreführende KI-Claims.

Das Besondere: Die Regulierer setzen nicht auf neue KI-spezifische Gesetze, sondern wenden bestehende Verbraucherschutzgesetze konsequent auf KI-Produkte an. Die Regel ist simpel: Wer sein Produkt falsch darstellt, haftet. Egal ob mit KI oder ohne. Wer „Agent” draufschreibt, muss auch Agent drin haben.

So erkennst du echte KI-Agenten — ein Praxisleitfaden

Nach Hunderten von Tool-Evaluierungen habe ich mir einen Fragenkatalog zurechtgelegt, der zuverlässig zwischen echten Agenten und Agent Washing unterscheidet. Hier meine Checkliste:

Die Autonomie-Frage

Gib dem System eine mehrstufige Aufgabe. „Analysiere die Performance unserer Landingpage und schlage drei Verbesserungen vor.” Ein Chatbot fragt nach URL, Metriken, Zeitraum. Ein Agent öffnet die Seite, misst Core Web Vitals, vergleicht und liefert priorisierte Empfehlungen.

Die Fehler-Frage

Was passiert, wenn der erste Ansatz scheitert? Echte Agenten haben Retry-Logik und Fallback-Strategien. Pseudo-Agenten brechen ab.

Die Werkzeug-Frage

Welche Tools funktionieren wirklich — nicht nur in der Doku? Ein solides Function-Calling-Setup mit getesteten Integrationen ist ein gutes Zeichen. Ein Dropdown mit zwanzig „Integrationen”, von denen drei funktionieren, nicht.

Die Gedächtnis-Frage

Erinnert sich das System an frühere Sitzungen? Ein Agent ohne Gedächtnis ist wie ein Mitarbeiter, der jeden Morgen alles vergisst.

Die Transparenz-Frage

Kann das System erklären, warum es eine Entscheidung getroffen hat? Echte agentic Systeme legen ihren Entscheidungsbaum offen. Blackbox-Wrapper können das nicht.

Infrastruktur statt Etiketten — was echte Agent-Plattformen anders machen

Ein Gegenbeispiel zum Agent Washing hat Oracle diese Woche mit der AI Database 26ai geliefert. Statt einen generischen „KI-Agenten” auf den Markt zu werfen, gehen sie es von der Infrastruktur-Seite an: containerisierte Agenten mit der Open Agent Specification, persistentes Gedächtnis mit ACID-Garantien direkt in der Datenbank, Sicherheitskontrollen auf Zeilen- und Spaltenebene.

Der Ansatz zeigt den entscheidenden Unterschied: Statt agentic Behaviour zu simulieren, wird die Infrastruktur geschaffen, die echte Agenten brauchen. „Wir haben einen KI-Agenten” ist oft Agent Washing. „Wir bauen die Plattform für echte Agenten” ist Engineering.

Was Entwickler jetzt tun sollten

Agent Washing wird nicht von alleine verschwinden. Solange „Agentic AI” als Verkaufsargument funktioniert, werden Unternehmen ihre Produkte entsprechend labeln. Aber als Entwickler und technische Entscheider können wir etwas dagegen tun:

Hinterfragt die Claims. Stellt die Fragen aus der Checkliste oben. Lasst euch nicht von Demos blenden — testet in eurer Umgebung, mit euren Daten.

Baut eigene Evaluations. Generische Benchmarks sind nutzlos, wie im Benchmark-Mirage-Artikel beschrieben. Ein Agent, der eure spezifischen Aufgaben zuverlässig erledigt, ist mehr wert als einer, der auf SWE-Bench Rekorde bricht.

Versteht die Architektur. Wenn ein Anbieter nicht erklären kann, wie sein Agent Entscheidungen trifft, ist das ein Warnsignal. Wer über Context Engineering und Koordinationsschichten sprechen kann, versteht, was er baut.

Setzt auf Transparenz. Nennt einen Chatbot einen Chatbot. Eine Automatisierung eine Automatisierung. Und einen echten Agenten demonstriert nicht mit einer geskripteten Demo, sondern mit einem Live-Test.

Das große Bild

Gartner prognostiziert, dass bis Ende 2026 vierzig Prozent aller Enterprise-Anwendungen KI-Agenten einbetten — gegenüber unter fünf Prozent in 2025. Beeindruckend. Aber nachhaltig nur, wenn die Technologie die Versprechen einlöst.

Die Geschichte der Tech-Branche ist voll von Hype-Zyklen: Cloud Washing, Blockchain für alles, Big Data als Allheilmittel. Immer dasselbe Muster — echte Innovation, übertriebene Versprechen, Ernüchterung, und dann die stille Arbeit, die tatsächlichen Mehrwert schafft.

Bei KI-Agenten sind wir mitten in der Hype-Phase. Die Technologie ist real und mächtig — ich erlebe das täglich in meiner eigenen Arbeit, wie im Beitrag über KI-Agenten im Alltag beschrieben. Aber die Marketing-Maschine dreht sich schneller als die Technologie reifen kann.

Agent Washing ist das Symptom. Die Ursache ist eine Branche, die Versprechen schneller verkauft als sie einlöst. Die Lösung sind wir — die Entwickler und Entscheider, die den Unterschied zwischen Marketing und Substanz kennen.

Das nächste Mal, wenn euch jemand seinen „autonomen KI-Agenten” vorstellt: Fragt ihn, was passiert, wenn der erste API-Call fehlschlägt. Die Antwort sagt euch alles.

Thorsten Heß – KI-Beratung

Kann dein Unternehmen von KI-Automation profitieren?

Die meisten Teams verschenken Stunden pro Woche an Aufgaben, die KI längst übernehmen könnte. Lass uns gemeinsam herausfinden, wo bei dir das größte Potenzial liegt.

Kostenlos beraten lassen