Was sagt die meta:proc zum Einsatz kognitiver Techniken?

Die aktuellen Entwicklungen auf Basis von künstlicher Intelligenz und kognitiven Fähigkeiten drängen kontinuierlich in die Bereiche vor, in denen zuvor ein statisches Abarbeiten von vordefinierten Prozessen üblich war. „Cognitive Automation“ ist in diesem Kontext derzeit ein prominentes Beispiel, auf das viele Unternehmen ihre Hoffnungen stützen. Idealerweise wird erwartet, ein selbstlernendes System an die Hand zu bekommen, das, nach Installation und möglichst geringem Konfigurationsaufwand, bei der Bearbeitung von Prozessen zuschaut und nach kurzer Zeit diese Prozesse selbst beherrscht und ausführt. Die tatsächlichen Ergebnisse darauf aufbauender Lösungen bleiben, stand heute, jedoch noch in vielen Fällen teils weit hinter den Erwartungen potentieller Nutzer zurück und führen nicht selten zu Ernüchterung bezogen auf die neue Technologie. Das kann verschiedene Gründe haben.
Das Vokabular um die Begrifflichkeiten Cognitive Automation, Machine Learning, Big Data und künstliche Intelligenz ist zwar nicht mehr neu, wird dieser Tage aber bisweilen inflationär in Hinblick auf die eigentlichen Funktionen verwendet. Bevor also kein allgemeingütiges Verständnis der Fachbegriffe und deren Definitionen besteht, führen individuelle Interpretationen an manchen Stellen zu Missverständnissen, die den tatsächlichen Leistungsumfang, als auch die Leistungsqualität der kognitiven Systeme negativ beeinflussen.
Nicht selten beruht die Ernüchterung aber auch auf einer Fehleinschätzung des initialen, manuellen Aufwandes, sowie des Pflegeaufwandes in der Betriebsphase, der notwendig ist, eine solche Lösung auf den Weg zu bringen und letzten Endes auch aktiv zu betreiben.
Einer der Gründe für einen potentiell fehlenden Funktionsumfang oder schlechte Qualität kann eine Kombination aus beiden Punkten sein. Dann nämlich, wenn das Überschreiten eines initialen Projektaufwandes, durch Verringerung des Scopes, oder Einschränkung der Steuerungsmechanismen bei der notwendigen, agilen Projektleitung mitigiert werden soll. Das kann unter anderem von der Reduzierung der Trainingsdaten, dem Vernachlässigen von Qualitätssicherungsaktivitäten, bis hin zum Reduzieren der Sprintzyklen reichen. Das alles hat im Ergebnis negative Auswirkungen auf die Genauigkeit und den Erfassungsbereich und damit auf die Qualität einer kognitiven Lösung.

Was ist zu beachten?
In diesem Sinne bringt der Einsatz von künstlicher Intelligenz Herausforderungen mit sich, derer man sich bewusst sein sollte, bevor man sich entscheidet, ein Projekt an entsprechender Technologie auszurichten, oder deren Einsatz in Betracht zu ziehen.
Der Aufbau von Systemen auf Basis künstlicher Intelligenz bedarf einer großen Menge an Daten, die, je nach Anwendungsfall, nur bedingt anonymisiert werden können. Datenschutz ist daher ein nicht zu unterschätzendes Thema. Grundsätzlich gilt nämlich: Je mehr und je variantenreicher der Datenpool ist, desto besser. Allgemein ist die Anzahl der Varianten wichtiger als das Volumen (1.000 Varianten eines Prozesses sind zielführender als 1.000 mal exakt die gleichen Abläufe).
Das Aufzeichnen dieser Daten (Data Mining) wird zwar gerne im Rahmen eines „Supervised Learing“ Prozesses als künstliche Intelligenz dargestellt, ist aber in der Mehrheit der Fälle lediglich ein statisches Mittel zum Zweck und birgt, wenn überhaupt nur wenig „Verständnis“ für das Aufgezeichnete. Genau dieses „Verstehen“ der Daten wäre aber die Grundlage dafür, den Prozess als „kognitiv“ deklarieren zu können. Erst die nachgelagerte Analyse der gesammelten Daten wird in der Regel in Grenzen der Bezeichnung „kognitives Verfahren“ gerecht.
Bei einer nicht ausreichenden Datenbasis ist die künstliche Intelligenz in ihrer Funktion beschränkt. Dieser Umstand wirkt sich signifikant auf die Zuverlässigkeit und Genauigkeit einer zu treffenden Entscheidungen aus. Auch ist die Beschaffenheit der zu analysierenden Prozesse ist ein wichtiger Faktor in Bezug auf die Qualität eines kognitiven Systems.
Sind die zu erwartenden Prozesse von Ihrer Ausgestaltung und der durchgeführten Prozessschritte sehr unterschiedlich, so bedarf es in bestimmten Szenarien einer geringeren Anzahl an Trainingsfällen, als bei gleichartigen Prozessen, um zuverlässige Unterscheidungen treffen zu können. Eine höhere Trennschärfe bei ähnlichen Aufgabenstellungen bedarf immer einer höheren Anzahl an Daten, da in solchen Fällen Nuancen in den Aufgabenstellungen zu verschiedenen Verhaltensweisen führen können. Um diese Nuancen heraus zu arbeiten, müssen die Muster feingranularer analysiert werden.
Das Training eines kognitiven Systems auf die individuellen Bedürfnisse erzeugt einen signifikanten Arbeitsaufwand seitens des Fachbereiches, der auch in der Regel nicht deliriert werden kann, da das Wissen um die Prozesse und vor allem notwendiger Workarounds, um Prozesse erfolgreich durchlaufen zu können mehr oder minder in den Köpfen der Mitarbeiter steckt. Dieser Aufwand steht in einem direkten Verhältnis zur Datenmenge und Datenqualität. Je mehr aufgezeichnete Use Cases existieren, umso genauer wird zwar üblicherweise die Erkennung von Mustern. Der Aufwand zur Qualitätssicherung und dem initialen manuellen supervised Learning, um das man heute nicht herumkommt, wächst allerdings ebenfalls.
Hinzu kommt, dass das unabdingbare Aufzeichnen von Daten in vielen Unternehmen Datenschutzbeauftragte, Mitarbeitervertretungen und Rechtsabteilungen auf den Plan ruft. Die Aufwände und Laufzeiten sollten unbedingt mit eingeplant werden. Grundsätzlich ist es sinnvoll alle relevanten Bereiche so früh wie möglich und so transparent wie möglich einzubinden.
Eine weitere Besonderheit kognitiver Systeme liegt darin, dass Entscheidungen, die auf den Ergebnissen aus Deep Learning Algorithmen basieren, unter Umständen für ein Test-Team nicht mehr nachvollziehbar sind. Das hat Auswirkungen auf Regression-Tests, aber auch auf Compliance-Themen im späteren Betrieb. Kognitive System generieren zwar detaillierte Log-Files, jedoch kann eine Entscheidung eines solchen Systems nicht immer vorausgesagt, oder logisch nachvollzogen werden. In diesen Fällen sind daher üblicherweise nur Teilbereiche testbar, oder die Wahrscheinlichkeit eines Eintreffens definierbar. Die Belastbarkeit einer Vorhersage sinkt zudem bei Kaskadierung von solchen Methodiken im Rahmen statistischer Gesetzmäßigkeiten (Fehlerfortpflanzung).
Ein weiterer Faktor für die Qualität ist die Sprache des Kernsystems, vor allem wenn es sich um das Verständnis und die Verarbeitung von natürlicher Sprache handelt. Viele Systeme setzten hier auf ein einsprachiges Kernsystem (üblicherweise Englisch) und versuchen weitere Sprachen durch Übersetzung der Ein- und Ausgabedaten zu realisieren. Dies gelingt mit der aktuell verfügbaren Technik nicht immer zufriedenstellend. Es gibt Stimmen, die angeben, dass sich diese Problematik mittelfristig lösen soll, was aber dem Status Quo nicht hilft. Grammatikalische Herausforderungen, wie deutscher Satzbau, Kommaregeln und trennbare Präfixe in der deutschen Sprache bringen semantische Netzwerke mit einem englischen Kern heute noch an ihre Grenzen. Zudem ist ein Verständnis regionaler Idiome und vor allem eines unternehmensspezifischen Vokabulars teils mit tiefen Eingriffen in das Kernsystem verbunden und kann nicht einfach nachtrainiert werden. Der Nachteil eines sprachenspezifischen Kernes hingegen ist der Trainingsaufwand bei Mehrsprachigkeit. Während Systeme, die mit einem Übersetzungsmodul arbeiten, zwar im Funktionsumfang für nicht native Sprachen in der Regel eingeschränkt sind, müssen Systeme, die sprachenspezifisch aufgebaut werden in der jeweiligen Sprache trainiert werden. Für besagte multilinguale Systeme kann dies daher einen enormen Mehraufwand bedeuten, da in vielen Fällen die Dokumentationen nur in einer Sprache vorliegen. Diese müssen übersetzt und einzeln trainiert werden.
Beim Einsatz einer „Cognitive Automation“ Lösung ist es ratsam zu definieren, bei welchen der Funktionen man auf integrale Bestandteile z.B. der RPA-Lösung selbst und bei welchen man auf eine Verarbeitung durch externe Lösungen setzen möchte.
Diese Entscheidung sollte auf Basis benötigter Funktionen und nicht auf Toolebene getroffen werden. Auch die bereits bestehende Landschaft zählt hier zu den Entscheidungskriterien. Nicht selten sind bereits kognitive Funktionalitäten in Bestandssystemen vorhanden, die man in das RPA Gesamtlösungskonzept mit einbinden kann, wenn es über offene Schnittstellen verfügt. Dies gewährleisten den vollen Funktionsumfang ohne Technik zu duplizieren und damit den späteren Administrationsaufwand zu erhöhen.


Ein klassisches Beispiel ist die Verwendung von Funktionen einer bereits bestehenden Sprach- (STT), bzw. Schrifterkennung (OCR), oder einer bereits initial erstellten und gepflegte Ontologie, welche unternehmensspezifisches Vokabular und Zusammenhänge von Begriffen widerspiegelt.
In bestimmten Fällen ist es zielführend, Tools von verschiedenen Anbietern in eine offenen RPA Lösung einzubinden, um sich somit in diesen Bereich unabhängig vom eigentlichen RPA Produkt zu machen. Dies kann von großem Vorteil sein, wenn man in einem IT-Projekt die RPA Lösung an sich „nur“ als Brückentechnologie einsetzen möchte, die Bearbeitung von Ein- und Ausgaben eines Prozesses jedoch als Teil der strategischen, finalen Lösung betrachtet. Ein Beispiel für ein solches Vorgehen ist die Modernisierung einer Applikationslandschaft in einem mittel- oder langfristigen Projekt. Wenn hier die Strategie darin besteht, mehr und mehr die Verwendung von Standardschnittstellen (API/CLI) in den Fokus der Automation zu rücken, kurzfristig aber schon die Vorteile einer Automatisierung auf UI Basis nutzen möchte, ist man mit einem solchen modularen Ansatz gut beraten, weil die Aufwände zum Training der KI-Systeme nicht notwendigerweise wiederholt werden müssen.

Vorgehensweise
Idealerweise führt man kognitive Lösungen schrittweise in die Prozessautomatisierung ein. In einer ersten Phase wird sich typischerweise in solchen Fällen auf Analyse- und Beratungsfunktionen beschränkt. Die ermöglichen eine Optimierung des Planungs- und Implementierungsaufwandes und bieten im Betrieb eine gute Entscheidungsgrundlage für Weiterentwicklungen der Prozessautomation und der kognitiven Fähigkeiten. In dieser Phase werden keine automatisierten Eingriffe in den Prozessablauf und die Prozessgestaltung durch das System selbst durchgeführt. Alle Entscheidung treffen Projekt- bzw. Betriebsteams. Zu den typischen Bereichen in denen diese Funktionen eingesetzt werden gehören unter anderem

In der Planungsphase:
- Analyse von aufgezeichneten Prozessen und Erstellung von Prozessablaufvorschlägen.
- Erkennen von Prozessoptimierungspotential auf Basis verschiedener Vorgehensweisen unterschiedlicher Personen bei der Ausführung.

In der Entwicklungsphase:

- Testanalyse zur Ermittlung von Entwicklungsbugs und unregelmäßigem Verhalten von Endgeräten.
- Erkennen von gleichen Schritten in unterschiedlichen Prozessen um eine potentielle Modularisierung zu ermöglichen. Dies resultiert in einem Aufwandsersparnis bei der Entwicklung durch Erzeugung von Prozess Makros.

In der Betriebsphase:

- Kontinuierliche Verbesserung der automatisierten Prozesse durch Monitoring und Auswertung der Erfolgsrate.
- „Predictive Maintenance“ für Software Roboter, um, basierend auf entsprechenden Massendaten des Betriebs, einen Ausfall vorab zu diagnostizieren. Andererseits hilft Mustererkennung beim Erkennen von tolerierbaren Regelabweichungen.
- Analyse von Monitoring Daten zum Zweck der „Root Cause Analyse“ im Falle eines eingetretenen Fehlverhaltens.

Die Einführung von Digitalisierungslösungen zur Intensions-, Sprach- und Schrifterkennung kann ebenfalls Teil dieser Phase sein. Dabei wird eine Aufarbeitung von unstrukturierten und für eine Maschine nicht ohne weiteres lesbaren Daten zur automatisierten Weiterverarbeitung durchgeführt. Dies sind im Wesentlichen:
- Optimierte Schrift und/oder Bild/Grafikerkennung, um notwendigen Content für den Prozess zu generieren, aber auch Entscheidungen basierend auf diesem Content innerhalb eines Prozesses zu ermöglichen
- „Intent Recognition“ zur Ermittlung des eigentlichen Anliegens. Darauf aufbauend die Entscheidung, welcher Geschäftsprozesses zur Bearbeitung des Anliegens passt und welche Software-Robots zur Ausführung eingesetzt werden sollten. In diesem Fall wird eine Kombination aus Erkennung natürlicher Sprache (NLP) und Klassifizierung verwendet. Da die Genauigkeit der Entscheidung maßgeblich zum Erfolg der Bearbeitung und damit zur Zufriedenheit des Beauftragenden beiträgt, ist die Intent Recognition allerdings eher im späteren Verlauf der Phase 1 bzw. als Teil der Phase 2 zu sehen.

Hat man sich mit der Funktion und den möglichen Auswirkungen vertraut gemacht und somit ein gewisses Vertrauen in die Entscheidungsfindung der Systeme aufgebaut, kann in Phase 2 eine automatisierte Optimierung der Prozesse selbst anstreben werden. Dieser Bereich ist allerdings technologisch noch in einem sehr frühen Stadium. Ein Einsatz in einer produktiven Umgeben sollte derzeit wohl bedacht werden.
Eine weitere Automatisierung, die in dieser Phase auf Basis von Mustererkennungen bereits möglich sind, ist eine Vorhersage von Ressourcen-Verfügbarkeit zu bestimmten Zeiten, um als Resultat Prozessgeschwindigkeit und System-Ressourcen automatisiert anzupassen. Die Herausforderung hier, wie bei allen Themen, die auf Infrastruktur-Monitoring-Daten zurückgreifen, liegt nicht in der Technik, sondern der Verfügbarkeit des notwendigen Datenbestandes. Der ist üblicherweise, wenn vorhanden, in der Verantwortung des IT-Departments und für eine reine Fachbereichslösung in der Regel nicht ohne weiteres zugänglich.

Wo steht meta:proc in diesem Zusammenhang?
All dies zeigt, dass meta:proc sich intensiv mit dem Thema Cognitive Automation auseinandersetzt. Wir sind uns der Vor- und Nachteile einer solchen Lösung bewusst und möchten auch unsere Kunden in dem Bereich zu seinem größten Nutzen und vor allem ehrlich und transparent genübertreten. Auf der technischen Ebene befasst sich meta:proc mit Cognitive Automation in Verbindung mit dem e:Agent seit einiger Zeit, um zu ermitteln, an welchen Stellen der Nutzen die heute noch nicht wegzudiskutierenden Risiken in einem sinnvollen Maß dominiert. Die im e:Agent zu diesem Thema hervorzuhebenden Bereiche sind:

- Aufzeichnung von Prozessen und deren KI-unterstützte Auswertung.
- Verarbeitung von natürlicher Sprache an verschieden Punkten des Prozessablaufes.

Schwerpunkt der Entwicklung in Richtung Cognitive Automation war es, die Funktionen so flexibel wie möglich zu gestalten und den vollen Umfang der Funktion in deutscher Sprache anbieten zu können. Außerdem sollte der Kunde die Möglichkeit erhalten, wenn möglich und vorhanden, bestehen Komponenten der eigenen System- und Applikationsumgebung einbinden zu können.
Die Prozessanalyse soll maßgeblich den Aufwand während der Implementierung verringern. Dieser Bereich ist meta:proc insbesondre deshalb sehr wichtig, da wir hiermit nicht nur die Aufwände der meta:proc, sondern auch der meist kritischen Ressourcen unserer Kunden bei gleichbleibender Datenqualität und Genauigkeit der Prozessausführung minimieren möchten.
Die Verarbeitung von natürlicher Sprache (NLP) ist hingegen im Fokus, da unstrukturierte Daten die Prozessautomatisierung auf Basis von RPA ohne den Einsatz kognitiver Verfahren einschränkt. Die Umwandelung dieser Daten in eine verwertbare Form kann den Wirkungsraum unserer RPA Lösung erweitern, da der Scope nicht auf den strukturierten Input aus Formularen oder Tabellen begrenzt ist.
Auch Einsatz von Digitalisierungstechnologien wie OCR hingegen ist bereits fester Bestandteil der meta:proc Lösung. Für diese Funktionalitäten greift meta:proc auf ein Standardportfolio am Markt erhältlicher Tools zurück, kann aber auch, auf Grund der offenen Interface Struktur, mit beim Kunden bereits implementierten Lösungen arbeiten.
Insbesondere im Bereich des systemübergreifenden Digital Workforce Management bietet meta:proc einen sehr hohes Potential um dynamische Anpassungen auf Basis von Big Data Analysedaten umsetzen zu können. Da meta:proc mit der angebotenen Lösung die Möglichkeit bietet, über Systemgrenzen hinaus die Ausführung von Prozessen dynamisch zu verteilen und zu skalieren, kann dies zur besseren Auslastung bei gleichzeitiger Minimierung der benötigten Systeme führen.
Wenn es um das Thema "Cognitive Automation" geht ist es meta:procs höchstes Anliegen, mit Kunden offen über Möglichkeiten, Aufwände und Risiken, die der Einsatz in Ihrem Umfeld mit sich bringt, zu sprechen. Wir möchten die Anforderungen genau verstehen, validieren, sicherstellen, dass diese umsetzbar sind, um im Nachgang darauf aufbauend die Lösung, Planung, wie auch Umsetzung und Betrieb kundengerecht konzipieren können.

Fragen? Kontaktieren Sie uns.

Kontakt