Verborgene Logik: Warum LLMs tiefe Prozesse nicht sofort "verstehen"
#BPMNAgent #LLMLimitations #ProcessIntelligence #AIinBPM
Die Illusion des einfachen "Verstehens"
Große Sprachmodelle (LLMs) faszinieren uns mit ihrer Fähigkeit, komplexe Texte zu verarbeiten und kohärente Antworten zu generieren. Sie scheinen "zu verstehen", was wir schreiben. Doch wenn es um die präzise Extraktion von Prozesslogik aus unstrukturiertem Text geht – insbesondere um zeitliche Abhängigkeiten, kausale Zusammenhänge und parallele Abläufe –, stoßen auch die besten LLMs an ihre Grenzen. Warum ist das so? Warum kann eine KI, die Romane zusammenfassen kann, Schwierigkeiten mit einer einfachen Prozessanleitung haben?
Von Worten zu Abläufen: Die "Warum-ist-es-so-schwer-Frage"
Das Problem liegt nicht in der Sprachverarbeitung selbst, sondern in der Natur der Prozessmodellierung und der Art, wie LLMs "lernen":
- Statistische Assoziation vs. Kausaler Mechanismus: LLMs sind Meister der statistischen Korrelation. Sie lernen, dass, wenn in ihren Trainingsdaten oft "Wasser kochen" vor "Nudeln hinzufügen" steht, dies eine wahrscheinliche Abfolge ist. Für sie ist es eine linguistische Sequenz. Ein Mensch hingegen versteht die kausale Beziehung: Man kocht Wasser, damit es heiß genug ist, um die Nudeln zu garen. Wir haben ein eingebautes Weltmodell, das die physikalischen Eigenschaften und den Zweck eines Vorgangs erfasst. Das LLM "weiß" nicht, dass heißes Wasser Nudeln kocht; es kennt nur die Wortpaare. Diese fehlende Ursache-Wirkung-Verständnis macht es schwer, zwischen einer zufälligen Reihenfolge ("Ich ging einkaufen, dann sah ich einen Freund") und einer notwendigen kausalen Abhängigkeit ("Pfanne erhitzen, dann Öl hinzufügen, damit nichts anklebt") zu unterscheiden.
- Fehlendes Formales Zeitmodell: LLMs verarbeiten Text in Tokens und Sequenzen. Sie haben keine "interne Uhr" oder ein formales Verständnis von Zeit. Phrasen wie "irgendwann nach A", "gleichzeitig", "parallel dazu", "bevor X, aber nach Y" oder "innerhalb von 5 Minuten" sind für uns klare zeitliche Constraints. Ein LLM kann diese sprachlich erkennen, aber es tut sich schwer, sie in die präzise logische Notation eines Prozessmodells (z.B. A muss abgeschlossen sein, bevor B beginnt; C kann starten, sobald A beginnt oder endet) zu übersetzen. Die feine Nuance zwischen "A und B geschehen" (potenziell parallel) und "A, dann B" (sequenziell) ist in natürlicher Sprache oft subtil und kann von einem statistischen Modell leicht falsch interpretiert werden.
- Implizite Parallelität vs. Explizite Reihenfolge: Unsere Alltagssprache ist oft sequenziell, selbst wenn Aktionen gleichzeitig stattfinden. "Ich toastete das Brot und kochte Kaffee" klingt linear, obwohl beides parallel ablaufen kann. LLMs, die stark von der sequenziellen Natur ihrer Trainingsdaten beeinflusst sind, tendieren dazu, eine sequentielle Interpretation vorzuziehen, es sei denn, es gibt sehr explizite Hinweise auf Parallelität ("während", "gleichzeitig", "in parallel"). Selbst dann ist es eine Herausforderung, genaue Start- und Endpunkte paralleler Aktivitäten aus Prosa zu bestimmen.
- Fehlende Implikationen und Bedingungen: Kausale Beziehungen hängen oft von Bedingungen ab, die in natürlicher Sprache impliziert, aber nicht explizit genannt werden. "Gieße die Pflanze, und sie wird wachsen" impliziert viele ungenannte Voraussetzungen (genug Licht, nicht überwässert etc.). Für die Prozessmodellierung müssen diese Bedingungen jedoch explizit sein. LLMs tun sich oft schwer, diese ungesagten Prämissen oder Post-Conditions zu identifizieren, die präzise kausale Verbindungen definieren.
- Subjektivität und Granularität: Was in einer Kette von Ereignissen einen eigenständigen Schritt oder eine eigene Aufgabe darstellt, kann subjektiv sein. "Abendessen vorbereiten" ist eine Aufgabe, umfasst aber viele kleinere, kausal verknüpfte Unteraufgaben. Ein LLM kann Schwierigkeiten haben, ohne klare Beispiele eine konsistente Granularität für kausale Verknüpfungen zu identifizieren.
- Mangelndes Domänenspezifisches Prozesswissen: LLMs haben zwar ein enormes allgemeines Wissen, aber sie besitzen kein inhärentes spezifisches Wissen über Prozessmodellierungs-Patterns, gängige Workflow-Konstrukte oder Best Practices in bestimmten Domänen (z.B. im Gesundheitswesen oder in der Fertigung). Menschen, insbesondere Prozessanalysten, nutzen jahrelange Erfahrung und domänenspezifisches Wissen, um komplexe zeitliche und kausale Beziehungen abzuleiten, die im Text nur angedeutet sind.
Die Hybrid-Lösung: Der BPMN Agent
Im Kern sind LLMs phänomenal im Musterabgleich und in der Generierung von Text, der intelligent klingt. Aber sie besitzen nicht die zugrunde liegende Denkmaschine oder das Weltmodell, das Menschen nutzen, um Ursache und Wirkung, Zeitlogik und gleichzeitige Ausführung in komplexen Prozessen wirklich zu verstehen. Sie verlassen sich auf statistische Schlussfolgerungen aus beobachteten linguistischen Mustern – was für die Anforderungen an ein klares Prozessmodell oft nicht ausreicht.
Genau hier setzt unser BPMN Agent an: Er ist dein Werkzeug, das die Brücke zwischen dem Chaos unstrukturierter Textbeschreibungen und der Klarheit eines formalen BPMN-Diagramms schlägt. Er kombiniert die Sprachstärke der LLMs mit der Sicherheit bewährter Regeln, um eine erste, solide Struktur zu schaffen.
Doch hier kommt das Wichtigste: Der BPMN Agent ersetzt nicht den menschlichen Experten, sondern macht ihn noch effektiver. Er liefert dir ein maschinen- und gleichzeitig menschenlesbares Diagramm – eine Ausgangsbasis, die du als Prozessberater:in schnell validieren, verfeinern und an die tatsächlichen Gegebenheiten anpassen kannst. Er fungiert als dein Human-Machine-Interface für die Prozessmodellierung, indem er die mühsame Erstkonvertierung übernimmt und dir eine perfekte Basis für deine Expertise bietet. So transformieren wir gemeinsam Chaos zu Klarheit – effizient, nachvollziehbar und mit der entscheidenden Intelligenz im Loop: deiner.
Ausblick: Die Evolution von Text zu BPMN – bald mit Chat2BPMN!
Unser Ziel ist es, die Modellierung von Prozessen so intuitiv wie möglich zu gestalten. Der BPMN Agent ist ein großer Schritt in diese Richtung, indem er komplexe Texterfassungen automatisiert. Die nächste Stufe? Stell dir vor, du könntest deine Prozessideen einfach im Dialog formulieren und sie entfalten sich direkt vor deinen Augen als BPMN-Diagramm. Das ist unsere Vision für Chat2BPMN – ein interaktiver Ansatz, der die menschliche Absicht noch direkter in ein formalisiertes Modell überführt. Bleib dran für mehr!