KI-Agenten, die autonom arbeiten, sind beeindruckend. KI-Agenten, die wissen, wann sie einen Menschen fragen müssen, sind nützlich. Der Unterschied liegt in der Architektur. In diesem Artikel stellen wir drei Patterns vor, die wir in Produktionssystemen einsetzen — mit Enterprise BPM als Orchestrierungsplattform und KI-Agenten als intelligenten Akteuren.
Warum Human-in-the-Loop?
Die Frage ist nicht, ob KI Fehler macht. Sie macht Fehler. Die Frage ist, ob Ihr System darauf vorbereitet ist. Human-in-the-Loop bedeutet nicht, dass ein Mensch jede KI-Entscheidung prüft. Das wäre weder effizient noch skalierbar. Es bedeutet, dass das System klare Regeln hat, wann ein Mensch eingeschaltet wird. Diese Regeln sind nicht pauschal, sondern kontextabhängig: Bei einem Routinevorgang mit 99% Konfidenz braucht es keinen Menschen. Bei einer Kreditentscheidung über 500.000 Euro mit 78% Konfidenz schon.
Pattern 1: Confidence-Threshold-Routing
Das einfachste und häufigste Pattern. Jeder KI-Agent bewertet seine eigene Sicherheit auf einer Skala. Liegt der Wert über dem definierten Schwellenwert, arbeitet der Agent autonom weiter. Liegt er darunter, wird im Workflow automatisch ein Human Task erstellt. Die Implementierung: Der KI-Agent gibt neben seinem Ergebnis einen Confidence-Score zurück. Ein Gateway im Workflow evaluiert den Score gegen den konfigurierbaren Schwellenwert. Bei Unterschreitung wird ein Human Task erstellt — nicht mit einer nackten Aufgabe, sondern mit dem vollständigen Kontext: Eingangsdaten, Verarbeitungsschritte, Ergebnis, Konfidenz, alternative Vorschläge. Der Schwellenwert ist pro Prozessschritt konfigurierbar und wird im laufenden Betrieb angepasst.
Pattern 2: Multi-Agent-Orchestrierung
Für komplexe Aufgaben setzen wir mehrere spezialisierte Agenten ein. Einer recherchiert, einer validiert, einer erstellt das Ergebnis. Der Workflow orchestriert die Zusammenarbeit — inklusive Konflikterkennung. Wenn zwei Agenten zu unterschiedlichen Ergebnissen kommen, eskaliert der Workflow automatisch. Die Stärke dieses Patterns: Jeder Agent hat einen klar definierten Verantwortungsbereich. Das macht das System testbar, debuggbar und erklärbar. Wenn ein Ergebnis falsch ist, wissen wir, welcher Agent in welchem Schritt welche Entscheidung getroffen hat.
Pattern 3: Regulatory Gate
In regulierten Branchen gibt es Entscheidungen, die immer ein Mensch treffen muss — unabhängig von der Konfidenz der KI. Kreditvergabe über bestimmten Grenzen, medizinische Diagnosen, Compliance-Freigaben. Das Regulatory-Gate-Pattern definiert diese Pflicht-Checkpoints als unveränderliche Prozessschritte. Die KI bereitet die Entscheidung vor — Daten zusammentragen, Risiken bewerten, Empfehlung aussprechen — aber die Entscheidung selbst trifft der Mensch. Das klingt nach Bremse. Ist es nicht. In der Praxis verkürzt dieses Pattern die Entscheidungszeit trotzdem drastisch, weil der Mensch nicht mehr recherchieren muss, sondern nur noch entscheiden.
Implementierungs-Tipps
Fangen Sie mit Pattern 1 an. Es deckt 80% der Anwendungsfälle ab. Definieren Sie Schwellenwerte konservativ und lockern Sie sie basierend auf Produktionsdaten. Loggen Sie jeden Confidence-Score und jede menschliche Entscheidung. Dieses Datenset ist Gold wert für die Optimierung der Schwellenwerte. Planen Sie die Human-Task-UI sorgfältig. Der Mensch muss in unter 30 Sekunden verstehen, warum er gefragt wird und was die KI vorschlägt. Testen Sie die Eskalation. Nicht den Happy Path. Die Eskalation.