Begriffe in der KI
Kapitel: Agenten in der Welt der Large Language Models
Einleitung
Die jüngsten Fortschritte im Bereich der großen Sprachmodelle (Large Language Models, LLMs) haben eine Fülle neuer Anwendungsfälle hervorgebracht, die weit über einfache Frage-Antwort-Systeme hinausgehen. Eines dieser aufregenden Anwendungsfelder sind sogenannte Agenten. In diesem Kapitel widmen wir uns der Frage, was Agenten im Kontext von LLMs genau sind, welche grundlegenden Konzepte sie ausmachen und welche typischen Architekturmuster und Workflows es gibt.
Dabei orientieren wir uns an aktuellen Erkenntnissen aus der Forschung und Praxis, wie sie unter anderem in einem Artikel von Anthropic (Dezember 2024) dargestellt wurden. Dieser Artikel verdeutlicht, dass viele erfolgreiche Lösungen—entgegen einer verbreiteten Annahme—nicht zwangsläufig auf komplexen Frameworks basieren, sondern oft mit einfachen und gut durchdachten Bausteinen (sogenannten „Building Blocks“) arbeiten.
In den folgenden Abschnitten werden wir schrittweise aufbauen: Wir beginnen mit einer grundlegenden Definition von Agenten und dem Unterschied zwischen Workflows und vollwertigen Agenten. Anschließend zeigen wir verschiedene Zusammensetzungen dieser Bausteine—von einfachen Arbeitsabläufen über komplexere Orchestrierungs- und Evaluationsschritte bis hin zu autonomen Agenten. Abschließend betrachten wir gängige Anwendungsfälle und gehen auf Tipps und Best Practices ein, etwa wie man Werkzeuge (Tools) gestaltet, damit Agenten sie effektiv und zuverlässig nutzen können.
1. Was sind Agenten?
Der Begriff Agent ist im Umfeld der Künstlichen Intelligenz nicht neu; jedoch gewinnt er durch LLMs eine neue Qualität. Laut Anthropic lassen sich Agenten in einem breiten Spektrum einordnen. Auf der einen Seite stehen agentische Systeme, die hochgradig preskriptiv sind und sich an feste Workflows halten. Auf der anderen Seite finden sich wirklich autonome Agenten, die aus einer groben Aufgabenbeschreibung heraus selbstständig planen, Teilaufgaben erkennen, Tools auswählen und einsetzen und schließlich ein Ziel erreichen können.
Agentische Workflows
Hier ist der Prozess streng geregelt: Ein LLM greift sequentiell auf eine Reihe von vordefinierten Schritte zurück und nutzt gegebenenfalls externe Werkzeuge. Die Reihenfolge dieser Schritte ist meist fest im Code hinterlegt.Agenten
Sie erhalten eine Aufgabe oder ein Ziel und entscheiden dann dynamisch, welche Schritte erforderlich sind, welche Werkzeuge zu nutzen sind und wann sie gegebenenfalls Rückfragen an den Menschen stellen müssen.
Beide Varianten—Workflows und Agenten—lassen sich unter dem Oberbegriff agentische Systeme zusammenfassen. Entscheidend ist, dass Workflows vor allem auf vordefinierten Abläufen beruhen, während Agenten mehr Autonomie und Flexibilität zeigen.
2. Wann und warum Agenten einsetzen?
Nicht für jede Anwendung sind Agenten die beste Lösung. Oftmals genügt es, ein LLM gezielt zu prompten—ggf. mit Retrieval-Mechanismen oder kurzen Ketten (Chains) einfacher Aufrufe—und eine Antwort zu liefern. Komplexere, mehrstufige Agenten sind häufig teurer (höhere Rechen- und API-Kosten) und langsamer (längere Wartezeiten), weil mehrere Schritte und Tool-Aufrufe durchlaufen werden.
Daher sollte man sich die Frage stellen, ob die höhere Komplexität gerechtfertigt ist:
- Gut strukturierte, voraussehbare Aufgaben – Hier kann ein einfacher Workflow oder ein einzelner LLM-Aufruf genügen.
- Offene, nur grob definierte Problemstellungen – Hier hingegen kann ein autonomer Agent Mehrwert schaffen, weil er in der Lage ist, dynamisch zu planen und seine Schritte an die aktuelle Situation anzupassen.
Gerade in Umgebungen, in denen Skalierung gefragt ist, kann ein Agent langfristig viel Zeit sparen, da er Aufgaben teilweise ohne menschliches Eingreifen erledigt. Wo man mit einem klassischen Bot irgendwann an starre Grenzen stößt, können Agenten kreative Lösungen finden—allerdings immer mit dem Risiko, dass sie sich „verirren“.
3. Building Blocks: Das „Augmented LLM“
Bevor wir uns den eigentlichen Agenten zuwenden, betrachten wir den elementaren Baustein aller agentischen Systeme: das “Augmented LLM”. Der Begriff beschreibt ein Sprachmodell, das um bestimmte Fähigkeiten erweitert wird:
- Retrieval: Das LLM kann auf externe Wissensquellen zugreifen, z. B. eine Datenbank oder ein Dokumenten-Repository.
- Tools: Hierunter fallen Schnittstellen (APIs, Services, Plugins, etc.), mit denen das LLM interagieren kann—wie etwa ein Buchungssystem, ein Bezahldienst, eine Code-Compiler-Umgebung oder eine Such-Engine.
- Memory: Das LLM kann wichtige Informationen „merken“, zum Beispiel Zwischenergebnisse oder Zusammenfassungen, um den Kontext über mehrere Schritte hinweg aufrechtzuerhalten.
Eine zentrale Rolle spielt die Schnittstelle zwischen LLM und diesen Ressourcen—oft als Agent-Computer-Interface (ACI) bezeichnet. Damit ein LLM Tools effektiv nutzen kann, müssen sie klar dokumentiert sein. Je verständlicher die Beschreibung, desto geringer die Fehleranfälligkeit.
Tipp: Halte Tool-Definitionen möglichst einfach. Ein Sprachmodell lernt aus statistischen Mustern. Wenn dein Tool zu kompliziert strukturiert ist (z. B. erfordert es korrekt formatierte, komplizierte JSON-Strukturen), steigen die Chancen, dass das Modell Fehler macht. Nutze stattdessen Formate, die dem Modell möglichst vertraut sind (z. B. Markdown für Code-Snippets).
4. Agentische Workflows: Basismuster
Anthropic unterscheidet mehrere einfache Muster, wie man LLM-Aufrufe verkoppeln kann, um komplexere Aufgaben zu lösen. Diese Muster lassen sich einzeln oder kombiniert einsetzen und bilden die Grundlage für viele produktive Systeme.
4.1 Prompt Chaining
Beim Prompt Chaining wird eine Aufgabe in mehrere Schritte unterteilt. Jeder Schritt ist ein eigener LLM-Aufruf, dessen Ergebnis in den nächsten Schritt einfließt. Zwischen den Schritten können Gates (programmgesteuerte Prüfungen) eingesetzt werden, um z. B. zu überprüfen, ob ein Zwischenresultat sinnvoll aussieht, bevor man fortfährt.
Wann einsetzen?
- Wenn sich eine Aufgabe eindeutig in Teilaufgaben unterteilen lässt (z. B. das Schreiben eines Textes und anschließend dessen Übersetzung).
- Wenn jeder Teilschritt klar und fest definiert ist.
Beispiel
- Teilschritt 1: Erstelle einen Gliederungsentwurf eines Artikels.
- Gate: Prüfe programmgesteuert, ob die Gliederung gewisse Kriterien erfüllt (z. B. alle relevanten Themen abdeckt).
- Teilschritt 2: Schreibe auf Basis der genehmigten Gliederung den vollständigen Artikel.
Dieses Vorgehen kann die Genauigkeit erhöhen und Fehler verringern, hat aber den Nachteil zusätzlicher LLM-Aufrufe (erhöhte Latenz und Kosten).
4.2 Routing
Beim Routing geht es darum, zunächst den Eingabekontext (die Frage oder das Problem) zu klassifizieren und dann an die passende spezialisierte Pipeline oder Prompt-Variante weiterzuleiten. So kann man verschiedene LLM-Modelle oder verschiedene Prompt-Sets nutzen.
Wann einsetzen?
- Wenn es verschiedene Kategorien von Eingaben gibt, die unterschiedliche Bearbeitungsstrategien erfordern.
- Wenn sich durch eine frühe Klassifikation Kosten sparen lassen, z. B. indem einfache Fälle an ein günstigeres Modell geschickt werden.
Beispiel
- Automatischer Kundendienst: Einfachere Fragen landen bei einem Kleinmodell, komplexere Anfragen werden an ein leistungsstärkeres Modell eskaliert.
- Inhaltliche Kategorisierung (z. B. Produktanfragen vs. Reklamationen vs. Technischer Support).
4.3 Parallelisierung
Bei der Parallelisierung wird eine Aufgabe in unabhängige Teilaufgaben zerlegt, welche gleichzeitig (parallel) von unterschiedlichen LLM-Aufrufen abgearbeitet werden können. Anschließend werden die Ergebnisse zusammengeführt.
Man unterscheidet zwei Hauptvarianten:
- Sectioning: Das LLM wird in mehrere Sub-Aufgaben aufgeteilt (z. B. verschiedene Aspekte eines Textes überprüfen oder verschiedene Kapitel parallel zusammenfassen).
- Voting: Dieselbe Aufgabe wird mehrmals in leicht unterschiedlicher Form gestellt, damit man verschiedene Lösungsvorschläge sammeln oder eine „Mehrheitsabstimmung“ nutzen kann.
Wann einsetzen?
- Wenn Teilaufgaben unabhängig voneinander bearbeitbar sind und dadurch Zeit gespart werden kann.
- Wenn Mehrfachausgaben kombiniert zu einer robusteren Gesamtlösung führen (z. B. mehrere LLMs prüfen Code auf Bugs).
4.4 Orchestrator-Workers
In diesem Muster delegiert ein „Orchestrator“ (ein zentrales LLM) Aufgaben an mehrere „Worker“-Instanzen. Anders als bei fester Parallelisierung ist nicht schon zu Beginn klar, wie viele Worker-Aufrufe nötig sind und in welcher Reihenfolge. Stattdessen entscheidet der Orchestrator dynamisch, was als Nächstes getan werden muss.
Wann einsetzen?
- Für komplexe Aufgaben, bei denen man nicht vorhersehen kann, wie viele Teilschritte nötig sind.
- Wenn ein zentraler „Dirigent“ sinnvoll ist, der auf Basis der Zwischenergebnisse weitere Schritte plant.
Beispiel
- Ein coding Agent, der herausfindet, wie viele Dateien geändert werden müssen und welcher Code in jeder Datei anzupassen ist.
- Recherche-Aufgaben, bei denen zuerst unklar ist, wie viele Datenquellen relevant sind, bis man erste Ergebnisse gesichtet hat.
4.5 Evaluator-Optimizer
Hier agieren zwei LLMs in einem Feedback-Loop:
- Ein Optimizer erzeugt eine Lösung.
- Ein Evaluator prüft die Lösung, gibt Feedback oder Korrekturhinweise.
- Das Feedback fließt in die nächste Iteration des Optimizers ein.
Wann einsetzen?
- Wenn sich klare Evaluationkriterien definieren lassen.
- Wenn eine iterative Verbesserung realistisch ist (z. B. Übersetzungen feinschleifen, Texte stilistisch anpassen).
Beispiel
- Eine iterative Suche, bei der ein Optimizer relevante Informationen zusammensucht und der Evaluator feststellt, ob die Ergebnisse wirklich ausreichend sind.
- Ein literarisches Übersetzungsprojekt, bei dem ein Evaluator auf sprachliche Feinheiten achtet und Feedback gibt, bis die Übersetzung stimmig ist.
5. Autonome Agenten
Agenten im engeren Sinne sind Systeme, die weitestgehend autonom handeln können, nachdem ihnen ein Ziel oder eine Aufgabe gegeben wurde. Dabei durchlaufen sie meist einen Zyklus aus Planung, Tool-Nutzung, Bewertung der Ergebnisse und ggf. Rückfragen an den Menschen.
- Ziel oder Befehl: Der Agent erhält eine Aufgabenstellung (z. B. „Finde heraus, welche Marketingstrategie für unser neues Produkt am besten ist.“).
- Planung: Der Agent überlegt sich, welche Schritte nötig sind und ob bestimmte externe Quellen, Tools oder Schnittstellen einbezogen werden müssen.
- Aktion: Der Agent ruft Tools auf, holt Informationen, schreibt Texte, führt Code aus oder fragt nach Feedback.
- Iteration: Auf Basis der Ergebnisse überlegt der Agent erneut, welche Schritte noch erforderlich sind.
- Abschluss: Er gibt entweder eine abschließende Lösung aus oder erreicht den programmierten Abbruch- bzw. Erfolgspunkt.
Vorteile
- Größtmögliche Flexibilität, da der Agent nicht an einen starren Workflow gebunden ist.
- Kann komplexe Aufgaben, die mehrere Schritte oder Tools erfordern, teils ohne menschliches Eingreifen bearbeiten.
Herausforderungen
- Kosten & Latenz: Da Agenten iterativ und dynamisch arbeiten, summieren sich Anfragen leicht zu einer teuren und zeitaufwändigen Lösung.
- Fehlerkumulation: Jeder Zwischenschritt birgt das Risiko, Fehler zu machen, die sich potenziell verstärken.
- Bedarf an klaren Grenzen: In produktiven Umgebungen sollten Sicherheitsmechanismen (z. B. maximal erlaubte Schleifendurchläufe, menschliche Freigabeprozesse) vorhanden sein.
Beispiel aus der Praxis:
Viele moderne Code-Assistenten arbeiten bereits agentenhaft. Sie analysieren ein Problem, schlagen Codeänderungen vor, führen Tests aus, werten Testergebnisse aus und passen den Code iterativ an.6. Anwendungsszenarien
Zwei besonders vielversprechende Anwendungen für agentische Systeme—insbesondere für weiterentwickelte, autonome Agenten—sind laut Anthropic:
Kundensupport
- Chatbots, die Kundenanfragen (z. B. Rücksendungen, Beschwerden, Informationen) nicht nur beantworten, sondern direkt Aktionen einleiten können (etwa eine Rückerstattung tätigen oder den Versandstatus ändern).
- Messbare Erfolge dank klarer Zieldefinition („Kundenanliegen gelöst oder nicht?“).
- Weitere Tools wie CRM-Systeme oder Wissensdatenbanken werden einfach angebunden.
Coding Agents
- Die Qualität von Code lässt sich relativ objektiv messen (z. B. durch Tests und Kompilierung).
- Agenten können iterativ Verbesserungen vornehmen, Tests ausführen, Fehlschläge analysieren und den Code schrittweise anpassen.
- Typischer Anwendungsfall: GitHub-Issues automatisch lösen, Pull Requests generieren und per Tests validieren.
7. Best Practices: Tools als Herzstück
Damit Agenten verlässlich agieren können, ist die Ausgestaltung der Tools—also aller Schnittstellen, die sie aufrufen dürfen—besonders wichtig. Dieser Aspekt wird laut Anthropic oft unterschätzt, beansprucht in der Praxis jedoch viel Zeit. Einige zentrale Empfehlungen:
Einfache Formate
Vermeide unnötig komplizierte Ausgaben (z. B. verschachtelte JSON-Strukturen), wenn Markdown oder ein einfacher Text-Output genügen.Klare Dokumentation
Beschreibe jedem Tool so, dass das LLM (wie ein Junior-Entwickler) versteht, welche Parameter wie zu füllen sind und welche Ergebnisse zurückkommen.Beispiele
Zeige dem LLM (bzw. dem Prompt) konkrete Beispiele, wie ein Tool-Aufruf aussehen soll.Poka-yoke (aus dem Lean-Management entlehnt)
Gestalte Tools so, dass Fehler schwerer möglich sind. Beispiel: Anstatt relative Dateipfade zuzulassen, verlange stets absolute Pfade. Das reduziert Missverständnisse.Iteratives Testing
Probiere die Tools mit Beispiel-Inputs aus und beobachte, ob das LLM sie korrekt verwendet. Passe entweder die Tool-Definition oder den Prompt an, wenn Fehler auftreten.
8. Fazit und Ausblick
Agenten sind ein faszinierender Fortschritt in der Anwendung von Large Language Models. Sie ermöglichen komplexe, mehrstufige Interaktionen mit einer Flexibilität, die weit über statische Chatbots hinausgeht. Dabei muss man stets Kosten, Latenz und mögliche Fehlerrisiken im Blick behalten. Die entscheidende Frage lautet: Wie viel Autonomie brauchen wir wirklich? Oft reichen einfache Workflows völlig aus—oder man beginnt mit einer minimalen Agenten-Variante, testet und erweitert sie bei Bedarf.
Für den produktiven Einsatz empfiehlt Anthropic unter anderem:
- Keep it simple: Komplexität nur dort einführen, wo sie einen echten Mehrwert bringt.
- Transparenz: Soweit möglich, dem Nutzer (oder dem Entwickler) aufzeigen, welche Schritte der Agent plant oder bereits ausgeführt hat.
- Agent-Computer-Interface (ACI): Tools sind die Schnittstellen zur Welt. Eine sorgfältige Gestaltung dieser Schnittstellen entscheidet maßgeblich über Erfolg oder Misserfolg.
Schließlich bleibt zu erwarten, dass die Weiterentwicklung von LLMs Agenten immer leistungsfähiger, stabiler und sicherer machen wird. Die Fähigkeit, kontextbezogen zu planen, Fehler zu erkennen und sich selbst zu korrigieren, wird weiterwachsen. Wer jedoch bereits heute agentische Systeme einsetzt, sollte vor allem gründliche Tests und robuste Sicherheitsmechanismen vorsehen, um ungewollte Aktionen oder Fehlentscheidungen zu vermeiden.
Ausblick
Zukünftige Forschung und Produktinnovationen könnten Agenten hervorbringen, die noch besser mit Echtweltdaten umgehen, sicherheitskritische Szenarien bewältigen und sich nahtlos in Unternehmensprozesse integrieren. Dabei wird die Balance aus menschlicher Kontrolle und maschineller Autonomie ein Schlüsselthema bleiben.Literatur und weiterführende Quellen
- Anthropic: „Building effective agents“, Dezember 2024.
- Verschiedene Frameworks wie LangChain, Amazon Bedrock's AI Agent, Rivet, Vellum (Beispieltools für agentische Systeme).
- Diverse Forschungsarbeiten zu Workflow- vs. Agency-Konzepten in LLM-Umgebungen (Fortlaufend, vgl. Arxiv.org).
Zusammenfassung
Agenten im Kontext von LLMs repräsentieren einen neuartigen Ansatz, KI-Systeme nicht nur auf statische Abfragen reagieren zu lassen, sondern ihnen ein gewisses Maß an Autonomie und Entscheidungsfähigkeit zu verleihen. Dabei sind grundlegende Bausteine (Augmented LLMs), Workflows (z. B. Chaining, Routing, Parallelisierung, Evaluator-Optimizer) und schließlich autonome Agenten selbst zu unterscheiden. Die Implementierung hängt stark vom Anwendungsfall ab: Je flexibler und weniger vorhersagbar die Aufgabe, desto eher lohnt sich ein Agenten-Ansatz. Wer jedoch vordefinierte, klar abgrenzbare Prozesse hat, fährt oft mit simplen Workflows und klassischen Prompting-Techniken am besten.
Mias Empfehlung: Beginne stets mit einfachen Lösungen und skaliere erst, wenn deine Anwendung tatsächlich von mehr Autonomie profitiert. Teste deine Tools gründlich und sorge für eine klare Dokumentation, damit das LLM auch wirklich versteht, wie es mit seiner Umgebung interagieren soll. Erfolge stellen sich in der Praxis am zuverlässigsten ein, wenn du einen schrittweisen Entwicklungsprozess durchläufst—und zwar immer mit realen Testfällen und Nutzern, die Feedback liefern. So kannst du sichergehen, dass dein Agent nicht nur theoretisch, sondern auch praktisch hält, was er verspricht.
Quelle: https://www.anthropic.com/engineering/building-effective-agents
