"Sherlock" is coming again...

Artificial Intelligence (AI) ist en vogue und gleichzeitig extrem umstritten!

12. März 2019 Blog, Digitalisierung, Neue Organisation Katharina Meiler


Artificial Intelligence (AI) ist en vogue und gleichzeitig extrem umstritten - es ist Zentrum einiger politischer Diskussionen, was sicherlich auch an der noch fehlenden, detaillierten Aufklärung in der Bevölkerung liegt. Roboter, die uns Menschen nachgeahmt sind und in ihrem Dasein darauf ausgelegt sind, besser als wir Menschen und uns in Ihrem Output voraus zu sein, sind das Negativbild, das sicherlich auch ein wenig aus Science Fiction Filmen der letzten zehn Jahre gespeist wurde. Nicht selten ging es hier um die Themen der Weltuntergangsszenarien und Übersinnlichkeit.

Bei den meisten Anwendungen handelt es sich zwar eher um Expertensysteme (kognitive Intelligenz) oder um Roboter (Verknüpfung von kognitiver und sensorischer Intelligenz), die nicht die ganze Bandbreite der menschlichen Intelligenz umsetzen. Aber - diese Unterscheidung ist noch nicht überall angekommen.

Alleine das Wort „künstlich“ aus der künstlichen Intelligenz klingt weit weg von jeglicher menschlicher Natur.

Die Frage ist, warum genau so viele Negativbilder bestehen. Eine Begründung liegt sicher auch darin, dass wir noch gar nicht gelernt haben, mit allen neuen Möglichkeiten umzugehen.

Es ist nicht die Frage, wie schnell wir durch künstliche Hilfen der AI ersetzt werden, sondern wie schnell wir es schaffen, dem Fortschritt gerecht zu werden und ihn positiv für uns zu nutzen.

Maschinelles Lernen und Künstliches Leben eröffnen tolle Chancen für uns Menschen, uns in speziellen Situationen unterstützen oder ersetzen zu lassen. Ein Teilbereich der AI ist die Welt der Mustererkennung und -vorhersage.

Für Wirtschaftsunternehmen, deren Wertschöpfung eine hohe Menge an Datenmanagement beinhaltet, können neue Möglichkeiten der Analyse dieser Daten hierbei ein absoluter Mehrwert sein. Dies in zwei Richtungen:

  • In Richtung der Verbesserung des Geschäftszwecks, der Wertschöpfung zum Kunden hin und
  • In Richtung der Verbesserung, wie z.B. durch Kostensenkung der Wertschöpfung innerhalb der Organisation

Regelmäßigkeiten, Wiederholungen, Ähnlichkeiten oder Gesetzmäßigkeiten können heute durch neue Wege des Einsatzes und neuer Informatik selbst erkannt werden.

Ein methodischer Ansatz dabei ist das sogenannte „Process Mining“ – die automatisierte Geschäftsprozessanalyse auf Basis digitaler „Spuren“ in IT-Systemen.

Der aktuelle Trend in der Datenanalytik soll zeigen, wo und welche Abläufe sich wie verbessern lassen. Durch smarte eventbasierte Visualisierung der Unternehmensprozesse lassen sich „Spuren“ der Prozesse nachverfolgen, verstehen und Muster vorhersagen.

Die Idee des Process Mining in Unternehmen ist so einfach wie genial: Jeder Prozess hinterlässt digitale Spuren, sei es in der Beschaffung, im Einkauf, in der Buchhaltung oder Logistik sowie bei allem, was Kunden zum Beispiel in Onlineshops erledigen, also sämtliche Interaktionen mit der Webseite. Der methodische und IT-gestützte Ansatz des „Process Mining“ zeigt transparent auf, wie die Daten sich ihren Weg durch verschiedenste IT-Systeme und Anwendungen bahnen und welche Datenkonstellationen sie hinterlassen. Daraus können natürlich auch Fehler und Schwachstellen schneller als mit klassischen, eher manuellen Prozessoptimierungsmethoden (interdisziplinäre Besprechungen und Visualisierungen der Prozesse mit Prozessdokumentationstools) erkannt werden: Wo wird eine Datenkonstellation zum Beispiel in anderer Art weitergegeben und genutzt als für den Prozessanteil eigentlich erforderlich? Oder wo entstehen auch Datenkonstrukte, die anschließend nicht mehr nutzbar sind?

Es können aber auch spannende Zusammenhänge, Muster, zwischen verschiedenen Systemen und deren Verarbeitungsprozessen erkannt werden, die Aufschluss über den Kunden und sein Verhalten geben. Nach entsprechender Analyse können so sogar im Rahmen des Customer Lifecycle Angebote geschärft und Touch Points gezielter penetriert werden.

Sherlock Holmes lässt grüßen und löst dabei wieder spannende Fälle, dieses Mal nur angepasst im „2000-something“-Stil.

Die Basis der mathematischen Zusammenhänge zum Einsatz der Methoden wurde schon vor über zehn Jahren gelegt. Gerade in den letzten Jahren hat sich auch einiges an neuer Software dazu entwickelt. CELONIS ist zum Beispiel ein prominentes Beispiel eines Analysesoftwareunternehmens, das die letzten wenigen Jahre in seiner Entwicklung „durch die Decke ging“.

Solche Analysewerkzeuge stoßen heute aber häufig auf IT-Systeme, die aufgrund ihrer Historie Komplexität und Datenleichen beinhalten. Dies gilt es neben den Kernergebnissen erst einmal aufzuarbeiten. Daneben sind auch die Organisationen in ihrer Kenntnis zur Definition von Analysefragen und der tatsächlichen Transparenz zu den heutigen IT-Landschaften mit Tabellenstrukturen und Datenkonstellationen häufig noch überfordert, schnell Analysekataloge zu erzeugen und in die genannten Softwarebausteine einzuspielen.

Daher braucht es auch dazu ein lernendes System: interdisziplinäre Teams aus Prozess-Anwendern, Geschäftsverantwortlichen, IT-Verantwortlichen und Datenspezialisten sind hier erfahrungsgemäß beste Voraussetzung, um dem neuen Thema gerecht zu werden und Storys für „Sherlock“ zu schreiben.