Blogserie «Anforderungen an moderne KI-Infrastruktur» – Teil 7

Transparenz – was passiert im Inneren des KI-Agenten?

Dieser Beitrag ist Teil unserer achtteiligen Serie zu den wichtigsten Anforderungen an eine robuste, skalierbare und betriebssichere KI-Infrastruktur. Während wir in den vorherigen Teilen u. a. die Bedeutung des LLM-Gateways (Teil 2), der Kostenkontrolle (Teil 3), von RAG (Teil 4), Ingestion-Pipelines (Teil 5) und Evaluation-Frameworks (Teil 6) beleuchtet haben, geht es nun um ein weiteres zentrales Element, das in der Praxis häufig unterschätzt wird: Nachvollziehbarkeit.

Ein Kunde meldet ein Problem: Der KI-Agent hat eine völlig falsche Antwort gegeben. Ihre Entwickler stehen vor einem Rätsel. War das Modell schuld oder war der RAG-Kontext falsch? Oder wurde die Frage des Nutzers falsch interpretiert? Ohne detaillierte Logs tappen Sie im Dunkeln. Das LLM ist eine Blackbox und alles davor und danach darf es nicht sein.

Moderne KI-Anwendungen sind selten nur ein einziger Aufruf an ein LLM. Sie sind komplexe Ketten (Chains) oder Agenten, die mehrere Schritte ausführen, bevor sie eine Antwort geben.

Ein typischer RAG-Agent (siehe Teil 4) führt im Hintergrund mindestens folgende Schritte aus:

  1. Frage-Verarbeitung: Der Agent analysiert die Frage des Nutzers (und formuliert ggf. um).
  2. Retrieval: Das RAG-System sucht nach relevanten Dokumenten.
  3. Prompt-Building: Der finale Prompt wird aus der Frage und den gefundenen Dokumenten zusammengebaut.
  4. Guardrails (Input): Eine Prüfung stellt sicher, dass die Anfrage keine unerwünschten Inhalte enthält.
  5. LLM-Aufruf: Die Anfrage geht an das Sprachmodell.
  6. Tool-Nutzung (Optional): Das LLM entscheidet vielleicht, ein Tool aufzurufen (z.B. eine API-Abfrage).
  7. Guardrails (Output): Die Prüfung der Antwort des Modells.
  8. Finale Antwort: Der Nutzer erhält die Antwort.

Wenn in diesem 8-stufigen Prozess ein Fehler passiert, ist die Fehlersuche ohne das richtige Werkzeug unmöglich.

KI-Beratung für Unternehmen

Strategien und Lösungen

KI-Beratung für KMU

Von der Strategie bis zur Umsetzung: Unsere KI-Beratung unterstützt Ihr Unternehmen mit passgenauen AI-Lösungen.

Das Problem: Die Blackbox-Kette

Das LLM selbst ist eine Blackbox. Aber wenn die gesamte Kette zur Blackbox wird, haben Sie ein ernstes Betriebsproblem, denn Sie können grundlegende Fragen nicht beantworten:

Die Lösung: Tracing für granulare Nachvollziehbarkeit

Die Lösung heisst Tracing (Nachverfolgung). Tracing ist eine Kernfunktion von «Observability» (Beobachtbarkeit). Es bedeutet, dass jeder einzelne Verarbeitungsschritt in der Kette einen detaillierten Log-Eintrag (einen «Trace») mit Input, Output und Metadaten (wie Dauer, Kosten) aufzeichnet.

Diese Traces werden in einem zentralen System gesammelt und visualisiert.

Ein Entwickler kann nun eine fehlgeschlagene Anfrage anklicken und sieht eine “Wasserfall”-Ansicht:

Trace 1: Frage-Verarbeitung (Input: “Spesen DE?”, Output: “Wie hoch ist die Spesenpauschale für Deutschland?”)

Mit einem Blick sieht der Entwickler, welche Dokumente in Trace 1.1 gefunden wurden und was das LLM in Trace 1.2.1 geantwortet hat. Die Fehlersuche reduziert sich von von Stunden auf Minuten.

Praxis-Beispiel: Tracing-Standards und Frameworks

Dies ist ein so fundamentales Bedürfnis, dass sich Standards etabliert haben.

Transparenz und Nachvollziehbarkeit sind keine «Nice-to-have-Features». Sie sind eine betriebliche Notwendigkeit, um eine KI-Infrastruktur professionell zu betreiben.

FAQ KI Transparenz

Ist Tracing nicht dasselbe wie normales Logging?
Tracing ist eine Form von strukturiertem Logging. Ein normales «Log» ist oft eine einzelne Textzeile («Fehler aufgetreten») und ein «Trace» ist ein strukturierter Datenblock (Input, Output, Metadaten), der in einer Hierarchie (Eltern/Kind-Beziehung) zu anderen Traces steht. Dies ermöglicht die Visualisierung ganzer Prozessketten.

Bremst dieses detaillierte Logging nicht das System aus?
Moderne Tracing-Systeme arbeiten hochperformant und asynchron. Das Logging wird «out-of-band» gesendet, damit der eigentliche Anfrage-Prozess nicht blockiert wird.

Wer nutzt diese Traces? Nur Entwickler?
Primär Entwickler (für Debugging) und Ops-Teams (für Performance-Monitoring). Die aggregierten Daten (z.B. «Welche Dokumente werden am häufigsten gefunden?») sind auch für Produktmanager und Fachexperten extrem wertvoll, um das System zu verstehen und zu verbessern.

DAS KÖNNTE SIE AUCH INTERESSIEREN

Data protection and cybersecurity concept with businessman holding hologram icon of secure personal information, digital privacy policy, and confidential identity management
Update Text Written on Speech Bubble
Symbolbild automatisierte ingestion Pipelines
Symbolbild KI Wissen ohne zu Halluzinieren
Marius Högger Portrait
Der Experte

Marius Högger

Marius Högger vereint als AI Engineer und AI Consultant bei bbv umfassendes Fachwissen in Künstlicher Intelligenz mit einem ausgeprägten Blick für innovative Geschäftspotenziale. Im KI-Team von bbv entwickelt er fortschrittliche KI-Applikationen und integriert Unternehmensdaten gezielt in KI-Modelle, um Kunden wertvolle Erkenntnisse und nachhaltige Effizienzsteigerungen zu ermöglichen.

Unser Wissen im Abo

Attention!

Sorry, so far we got only content in English for this section.

Achtung!

Entschuldigung, bisher haben wir für diesen Abschnitt nur deutschsprachige Inhalte.