Agile Analytics - Dirk Böckmann - E-Book

Agile Analytics E-Book

Dirk Böckmann

0,0
49,99 €

-100%
Sammeln Sie Punkte in unserem Gutscheinprogramm und kaufen Sie E-Books und Hörbücher mit bis zu 100% Rabatt.

Mehr erfahren.
Beschreibung

Business Analytics (BA) hilft Unternehmen dabei, faktenbasierte Erkenntnisse zu gewinnen. Dadurch können sie fundiertere Entscheidungen treffen und ihre Leistungsfähigkeit spürbar steigern. Dirk Böckmann zeigt, wie Sie BA mihilfe von Agilität architektonisch, prozessual und strukturell so organisieren, dass sie der Dynamik des heutigen Wettbewerbs gerecht werden. Sie erfahren insbesondere, wie Advanced Analytics mit agilen Methoden im Unternehmen implementiert und betrieben werden kann. Anhand des Viable System Models wird zudem verdeutlicht, wie Unternehmen als Ganzes stabil und agil organisiert werden können und so dynamische Fähigkeiten aufzubauen um so kontinuierlich besser zu werden. Inhalte: - Business Intelligence zu Business Analytics - Advanced Analytics und Agile Analytics - Statische Ansätze: Merkmale, Grenzen und mögliche Agilisierung - Agile Analytics-Architekturen: Konzept, Strategie und Umsetzung - Predictive Analytics: strategische Bedeutung und praktische Umsetzung - Analytics: Anwendung und Entwicklung - Betriebsorganisationen agil aufstellen

Das E-Book können Sie in Legimi-Apps oder einer beliebigen App lesen, die das folgende Format unterstützen:

EPUB
MOBI

Seitenzahl: 314

Veröffentlichungsjahr: 2023

Bewertungen
0,0
0
0
0
0
0
Mehr Informationen
Mehr Informationen
Legimi prüft nicht, ob Rezensionen von Nutzern stammen, die den betreffenden Titel tatsächlich gekauft oder gelesen/gehört haben. Wir entfernen aber gefälschte Rezensionen.



[7]Inhaltsverzeichnis

Hinweis zum UrheberrechtImpressumGeleitwort von Mark LambertzEinführung: Ist die konventionelle IT am Ende?1 Von Business Intelligence zu Business Analytics1.1 Business Intelligence, der Blick zurück1.1.1 Die Entwicklung zur BI1.1.2 Descriptive Analytics1.1.3 IT-Architektur und Anwendung von BI1.2 Business Analytics, der Blick nach vorne1.2.1 Predictive Analytics1.2.2 Prescriptive Analytics1.2.3 Die Bedeutung der KI und des Einsatzes von Algorithmen1.3 Advanced Analytics1.3.1 Analytic Capabilities – was Unternehmen brauchen1.3.2 Gegenüberstellung von BI und BA1.4 Zusammenfassung2 Von Advanced Analytics zu Agile Analytics2.1 Technologische Treiber des Wandels2.1.1 Das Mooresche Gesetz2.1.2 KI oder die vierte industrielle Revolution2.2 Der Game-Changing-Effekt2.2.1 Innovative Leistungen und disruptive Geschäftsmodelle2.2.2 Veränderungen des Konsumentenverhaltens2.2.3 Der Disruptionsmechanismus: den Tipping-Point erkennen2.2.4 Von der VUCA- zur BANI-Welt2.3 Die Bedeutung der Agilität2.3.1 Das agile Mindset2.3.2 Agile Werte und Prinzipien2.3.3 Agiles Vorgehen bringt bessere Softwarelösungen hervor2.4 Das Performance-Management verbessern2.4.1 Data-Driven Culture – der Weg zum Performance-Measurement2.4.2 Big Data – Unternehmen mitten im Daten-Tsunami2.4.3 Der analytische Reifegrad von Unternehmen2.5 Zusammenfassung3 Statische Ansätze – Merkmale, Grenzen und mögliche Agilisierung3.1 Statische Ergebnisse durch linear-kausale Methoden3.1.1 Das Quantum-Performance-Measurement-Modell3.1.2 Das Strategic-Alignment-Modell (SAM)3.2 Entstehen einer BI-Architektur3.2.1 Der Aufbau in Schichten3.2.2 Der Flickenteppich – gewachsene statt geplante Architekturen3.2.3 Methoden der Applikationsentwicklung – Planumsetzung als oberstes Ziel?3.3 Die Einführung einer bimodalen IT3.3.1 Zwei Betriebsmodi und das Schichtenmodell3.3.2 Neue Welt: Von der relationalen Datenbank zum Key-Value-Store3.3.3 Scheme-on-write versus Scheme-on-read3.4 Modelle für den Aufbau von Data Warehouses3.4.1 Der Inmon-Ansatz3.4.2 Der Kimball-Ansatz3.4.3 OLAP-Datenbanken als Data Marts3.4.4 Data Vault und seine Grenzen3.5 Zusammenfassung4 Agile Analytics-Architekturen: Konzept, Strategie und Umsetzung4.1 Data Lake, geeignet für große Datenmengen4.1.1 Die Vorbereitung auf Big Data4.1.2 Der Aufbau der Architektur4.1.3 Vor- und Nachteile der Architektur4.1.4 Paralleler Betrieb von Data Warehouse und Data Lake4.2 Das Data Lakehouse – die Verbindung von Warehouse und Lake4.2.1 Der Aufbau der Architektur4.2.2 Make or buy, bezogen auf die analytische Architektur4.2.3 Fertig oder nicht – steter Umbau von IT-Architekturen?4.3 Die Entwicklung einer agilen Analytics-Strategie4.3.1 Iterative Schleifen4.3.2 Verzahnung der Analytics- mit der Business-Strategie4.3.3 Einzelne Elemente der Business-Strategie4.4 Data Mesh – Dezentralität durch die passende Organisation ermöglichen4.4.1 Das neue Paradigma der Zusammenarbeit4.4.2 Probleme eines rein zentralen Organisationsansatzes4.4.3 Der Aufbau des Datennetzes4.4.4 Wie das Netz im Einzelnen entsteht4.5 Zusammenfassung5 Agiles Arbeiten bei Knauf – Interview mit Dietrich Betz6 Predictive Analytics – strategische Bedeutung und Implementierung6.1 Agiles Vorgehen entscheidet über den Erfolg6.1.1 Mach nur einen Plan …6.1.2 Die Einrichtung eines Center of Excellence6.1.3 Die Organisation der Zusammenarbeit6.1.4 Agile Methoden in der Projektumsetzung6.2 Die Anwendung von Scrum6.2.1 Die Scrum-Methodik6.2.2 Product-Owner und Product-Backlog6.2.3 Der Scrum-Master und das Entwicklungsteam6.2.4 Die Planung der Sprints durch das Entwicklungsteam6.3 Entwicklung und Einführung einer Predictive-Analytics-Lösung6.3.1 Das CRISP-DM-Modell6.3.2 Business und Data Understanding6.3.3 Data Preparation6.3.4 Modelling – Testen und Trainieren von Algorithmen6.3.5 Exkurs: Die Welt der Algorithmen6.3.6 Evaluation und Business Understanding6.4 Integration von Predictive Analytics in der Unternehmensplanung6.4.1 Der Einsatz von Planning Analytics6.4.2 Sales and Operations Planning6.4.3 Financial Planning6.4.4 Rollierende Geschäftsplanung6.5 Zusammenfassung7 Flexible Unternehmensplanung – Interview mit Prof. Dr. Karsten Oehler8 Prescriptive Analytics – Anwendung und Entwicklung8.1 Anwendungsmöglichkeiten8.1.1 Einführung8.1.2 Optimierte Auftragssteuerung für die gesamte Lieferkette8.1.3 Technisches Design und Implementierung8.1.4 Prescriptive ohne Predictive Analytics?8.2 Kontinuierliche Weiterentwicklung von Analytics-Lösungen8.2.1 Optimierung der analytischen Lösung nach Inbetriebnahme8.2.2 Data-Product-Canvas – ein Werkzeug zur Weiterentwicklung8.2.3 DevOps – Verbesserungen in der Endlosschleife8.3 Zusammenfassung9 Betriebsorganisationen agil aufstellen9.1 Agilität ist eine Notwendigkeit9.1.1 Das Ende der tayloristischen Wanne9.1.2 Organisationen dynamikrobust gestalten9.1.3 Maschinen versus neuronale Netze9.2 Das Viable System Model9.2.1 Die zentralen Systemfunktionen9.2.2 Rollen und Funktionen in agilen Teams9.2.3 VSM und Business Analytics9.3 Die dynamische Weiterentwicklung der Geschäftsfähigkeiten9.3.1 Wie dynamische Fähigkeiten entstehen und warum sie wichtig sind9.3.2 Der Aufbau analytischer Kompetenzen9.3.3 Das agile Strategie-Modell9.4 Zusammenfassung10 Anhang10.1 Literatur10.2 Bildnachweise10.3 RegisterDanksagungÜber den AutorDigitale Extras
[1]

Hinweis zum Urheberrecht:

Alle Inhalte dieses eBooks sind urheberrechtlich geschützt.

Bitte respektieren Sie die Rechte der Autorinnen und Autoren, indem Sie keine ungenehmigten Kopien in Umlauf bringen.

Dafür vielen Dank!

Haufe Lexware GmbH & Co KG

[6]Bibliografische Information der Deutschen Nationalbibliothek

Die Deutsche Nationalbibliothek verzeichnet diese Publikation in der Deutschen Nationalbibliografie; detaillierte bibliografische Daten sind im Internet über http://dnb.dnb.de/ abrufbar.

Print:

ISBN 978-3-648-16435-8

Bestell-Nr. 10846-0001

ePub:

ISBN 978-3-648-16436-5

Bestell-Nr. 10846-0100

ePDF:

ISBN 978-3-648-16437-2

Bestell-Nr. 10846-0150

Dirk Böckmann

Agile Analytics

1. Auflage, Mai 2023

© 2023 Haufe-Lexware GmbH & Co. KG, Freiburg

www.haufe.de

[email protected]

Bildnachweis (Cover): © Tierney, Adobe Stock

Produktmanagement: Mirjam Gabler

Lektorat: Ulrich Leinz

Dieses Werk einschließlich aller seiner Teile ist urheberrechtlich geschützt. Alle Rechte, insbesondere die der Vervielfältigung, des auszugsweisen Nachdrucks, der Übersetzung und der Einspeicherung und Verarbeitung in elektronischen Systemen, vorbehalten. Alle Angaben/Daten nach bestem Wissen, jedoch ohne Gewähr für Vollständigkeit und Richtigkeit.

Sofern diese Publikation ein ergänzendes Online-Angebot beinhaltet, stehen die Inhalte für 12 Monate nach Einstellen bzw. Abverkauf des Buches, mindestens aber für zwei Jahre nach Erscheinen des Buches, online zur Verfügung. Ein Anspruch auf Nutzung darüber hinaus besteht nicht.

Sollte dieses Buch bzw. das Online-Angebot Links auf Webseiten Dritter enthalten, so übernehmen wir für deren Inhalte und die Verfügbarkeit keine Haftung. Wir machen uns diese Inhalte nicht zu eigen und verweisen lediglich auf deren Stand zum Zeitpunkt der Erstveröffentlichung.

[11]Geleitwort von Mark Lambertz

Das Thema Datennutzung mit Analytics könnte aktueller nicht sein. Durch die fortschreitenden Innovationen im Bereich IT und Technik entstehen neue, in atemberaubendem Tempo anwachsende Datenströme. Dies stellt viele Unternehmen vor die Frage, wie sie diese sinnvoll nutzen können. Denn eine »Data Driven Company« kann nicht nur ihr aktuelles Geschäft besser steuern, sondern wird zudem in die Lage versetzt, die Zukunft zu antizipieren. Die Fähigkeit, Daten zu nutzen, um Kundenbedürfnisse besser, wirtschaftlicher oder einfach nur schneller zu erfüllen und neue Leistungen zu kreieren, wird für mittelständische wie große Unternehmen mehr und mehr zu einer Kompetenz von strategischer Bedeutung.

Um aus Daten Mehrwerte zu erzeugen, ist es erforderlich, das Business- und IT-Experten zusammenarbeiten. Dazu ist es erforderlich, dass Business-Experten technisches Verständnis stärken und IT-Experten ihren Sinn für Business-Mehrwerte schärfen – man muss aufeinander zugehen und wirksam zusammenarbeiten. Das bedeutet: »Data is everybodyʼs job« und lässt sich nicht auf technische Funktionen reduzieren.

Damit die Symbiose funktioniert, muss der Aspekt der methodischen Zusammenarbeit wie auch ein Mindestmaß an technischer Kenntnis auf der Fachseite vorhanden sein. Wenn wir Mehrwerte mit Daten produzieren wollen, sind nicht nur Informatiker und IT-Experten gefragt, sondern im wachsenden Maße insbesondere die Fachexperten und Entscheider jenseits der IT-Abteilung.

In diesem Sinne gefällt es mir sehr, dass Dirk Böckmann – als betriebswirtschaftlicher Experte mit über 20 Jahren Erfahrung in Sachen Einführung analytischer Systeme – mit diesem Buch nicht nur eine leicht lesbare Darstellung von Business Analytics vorlegt, sondern auch die Verständigungsbrücke zwischen IT- und Business-Experten baut. Mir gefällt der Ansatz des Buches, »beide Welten« zu integrieren und den Nutzen von Business Analytics anschaulich und anhand vieler Praxisbeispiele zu verdeutlichen. Darüber hinaus wird explizit erläutert, wie Einführungsprojekte gemanagt werden und auch neue Anforderungen integriert und rasch umgesetzt werden können. Unter dem Begriff Agilität ist diese schnelle Anpassungsfähigkeit heute in aller Munde. Sie ist erforderlich, um in der turbulenten und komplexen Welt von heute flexibel (re-) agieren zu können.

Aus diesem Buch können Fach- und Führungskräfte im gehobenen Mittelstand und großen Unternehmen einen spürbaren Nutzen ziehen. Jeder, der sich schon einmal Gedanken gemacht hat, ob und wie er Business Analytics im Unternehmen mehrwertstiftend einsetzen kann, findet hier umfassende Lösungsangebote.

[12]Zur Person

Mark Lambertz, geboren 1971 in Düsseldorf, ist Unternehmer, Berater und mehrfacher Autor.

Zu seinen Kunden zählen Unternehmen wie CITROËN, E-Plus, Henkel, Lufthansa, NOWEDA, Rockwool und Mercedes Benz.

Er verfolgt einen ganzheitlichen Ansatz für bessere Organisationen und besseres Entscheiden. Im Aufbau funktionierender Teams und Organisationen hat er umfassende Erfahrungen. Dazu nutzt er Konzepte aus der Unternehmensführung, der Kybernetik und der Organisationsentwicklung.

Seine Veröffentlichungen zeichnen sich durch hohe Praxis- und Mehrwertorientierung aus und zeigen Wege auf, die Anpassungsfähigkeit von Mensch und Organisation in einer immer schneller werdenden Welt zu fördern.

[13]Einführung: Ist die konventionelle IT am Ende?

Vor nicht allzu langer Zeit wurde »das Ende der IT, wie wir sie kennen« proklamiert. In dem entsprechenden Fachartikel (vgl. Bhave u. a. 2022) heißt es sinngemäß: Eine Transformation in den Unternehmen sei nur dann möglich, wenn Business und IT eine gemeinsame Vision entwickelten und deutlich enger zusammenarbeiteten als bisher. Denn trotz hoher und sogar steigender Investitionen in technologische Initiativen und die Digitalisierung fehle es vielfach noch am erforderlichen Datenreifegrad in den Unternehmen, sodass eine datengetriebene Entscheidungskultur nicht gelebt werden könne, so der Autor Bhave.

Und tatsächlich: in Anbetracht des voranschreitenden technologischen, zum Teil auch disruptiven Wandels und der exponentiellen Entwicklung der Computerisierung mit wachsenden Datenmengen, die sich gerade zu einem gigantischen Daten-Tsunami entwickeln, kann es nicht mehr so weitergehen wie in den vergangenen beiden Jahrzehnten. Es müssen heute nicht mehr nur interne, sondern in wachsendem Maße auch externe Daten verarbeitet und ausgewertet werden. Dafür braucht es nicht nur geeignete IT-Infrastrukturen und Softwareprogramme, sondern es bedarf häufig auch unternehmensindividuell konfigurierter, implementierter und kontinuierlich verbesserter Analytics-Systeme.

Mit fortschreitender technologischer Entwicklung haben sich allerdings IT und Business zu weit voneinander entfernt. In der Praxis findet man beide häufig – auch organisatorisch – in getrennten »Silos«. Dadurch sind wahlweise zwei Szenarien entstanden: Entweder implementiert die IT-Abteilung Lösungen, die für das Business suboptimal sind, sodass durch die Workarounds in den Fachabteilungen dann häufig eine »Schatten-IT« entsteht. Oder die IT soll einfach nur die Entscheidungen umsetzen, die im Business getroffen worden sind. In beiden Szenarien werden Technologiepotenziale oft nicht ausgeschöpft.

Kurz: Die strikte organisatorische Arbeitsteilung zwischen IT und Business führte schon in der Vergangenheit zu Verständigungsproblemen, Reibungsverlusten, Missverständnissen und vor allem zu einer suboptimalen Unterstützung des Business durch die IT. Viele Führungskräfte haben eine betriebswirtschaftliche, aber keine IT-Ausbildung; umgekehrt haben IT-Experten eine informationstechnische Ausbildung, aber keine betriebswirtschaftliche. Jeder sieht die Welt aus seiner Sicht, und oft stellte man erst am Ende eines IT-Implementierungsprojekts fest, dass man »aneinander vorbeigeredet« hatte.

[14]Kostete die suboptimale Unterstützung von Businessentscheidern Unternehmen schon in der Vergangenheit viel Potenzial, so können sie sich dies in der Zukunft nicht mehr leisten. Hier ist nicht nur von Fehlinvestitionen die Rede, sondern auch von den negativen Folgen schlechter Geschäftsentscheidungen auf ungeeigneter oder fehlender Datenbasis.

In der Presse ist schon seit einigen Jahren vermehrt zu lesen, wie selbst große Unternehmen mit professionellen Projektstrukturen bei der Aktualisierung ihrer IT-Landschaft bzw. der Einführung neuer Softwarelösungen komplett scheitern, sodass sie oft mit einem monatelangen Chaos und rückläufigen Umsätzen zu kämpfen haben. Was zu Beginn oft einfach aussieht, entpuppt sich als schwieriges Unterfangen, dem längst nicht jedes Unternehmen gewachsen ist, wenn die Voraussetzungen dafür nicht zuerst geschaffen worden sind.

Das Ende der uns bekannten IT ist außerdem auch darum gekommen, weil die IT-Kompetenz im Business zunimmt. Dies ist zum Teil unserem heute alltäglichen, auch privaten Umgang mit mobilen Endgeräten geschuldet, auf denen jeder seine Apps für den täglichen Gebrauch installiert hat. Es ist selbstverständlich geworden, dass jeder wöchentlich nahezu 23 Stunden online ist. Mehr und mehr erheben auch Führungskräfte mit BWL- und ohne IT-Kenntnisse den Anspruch, dass sie ohne Unterstützung der IT-Abteilung eigenständig mit Daten arbeiten, sie auswerten und für ihre Entscheidungen nutzen wollen. Anwenderfreundliche visuelle Tools, die es erlauben, Daten in übersichtlichen Dashboards anzuordnen, folgen diesem Trend und verstärken ihn zugleich.

In diesem Buch geht es aber nicht um die IT allgemein, sondern es geht speziell um Business Analytics. Während die Vorstufe Business Intelligence bereits in vielen Unternehmen genutzt wird, sieht es im Bereich Analytics oft noch anders aus. Viele Unternehmen nutzen die deskriptive Analytik und die von ihr bereitgestellten Statistiken, Reports und Analysen auf der Basis eines Data Warehouses, mit dem sie vergangenheitsbasierte Daten auswerten.

Allerdings ist die deskriptive Analytik nicht mehr als ein »Blick in den Rückspiegel«. Vergangenheitsorientierte Daten sind nur bedingt tauglich, wenn es darum geht, Entscheidungen für die Zukunft zu treffen. Dafür bedarf es zusätzlich der prädiktiven Analytik, die auf der Basis KI-gesteuerter Algorithmen Wahrscheinlichkeiten errechnet, was künftig passieren wird. Die KI ist mittlerweile schon so weit entwickelt, dass die maschinell errechneten Wahrscheinlichkeiten mit 70 bis 90 Prozent weitaus genauer und erheblich schneller sind, als die in vielen Unternehmen immer noch mit hohem, mehrmonatigem Aufwand von vielen Mitarbeitern erstellten manuellen Jahresplanungen.

[15]Noch einen Schritt weiter geht die präskriptive Analytik, die den Zweck erfüllt, optimale Maßnahmen vorzuschlagen. Das ist mit einem Navigationssystem zu vergleichen, das für ein Unternehmen – auch durch Widrigkeiten und Restriktionen hindurch – eine »ideale Route« zur Zielerreichung berechnet, beispielsweise für eine kostenoptimierte, komplexe Auftragssteuerung.

DER ZWECK VON BUSINESS ANALYTICS

Business Analytics hilft mit Predictive und Prescriptive Analytics, im Unternehmen bessere – zuverlässigere, angemessenere, flexiblere, schnellere – Entscheidungen zu treffen und idealerweise den Entscheidungszeitpunkt vorzuverlegen, bevor ein unerwünschtes Ereignis eintritt. So kann das unternehmerische Handeln zielgenauer gesteuert werden, und zwar bei verringertem personellen und zeitlichen Aufwand. Führungskräfte können sich, statt mit aufwändigen Planungen ihre Zeit zu verbringen, auf ihre wesentlichen Aufgaben konzentrieren.

Dieses Buch hat drei Ziele:

Es macht Führungskräfte, Unternehmer und Entscheider mit der »neuen« Business-Analytics-Welt, ihren Vorteilen und ihrem Nutzen vertraut. Es zeigt, wie Business Analytics funktioniert, was sie leistet und welchen Nutzen sie Unternehmen bringt.Es erläutert die Bedeutung der Agilität für Business Analytics. Das agile methodische Vorgehen, beispielsweise mit Scrum, bringt Business- und IT-Kompetenzen im Unternehmen zusammen und hilft, die typischen »Fallen« von IT-Projekten zu überwinden, um eine funktionierende Analytics-Lösung zu entwickeln, zu implementieren und dauerhaft zu betreiben – eine Lösung, die letztlich auf die geschäftlichen Ziele einzahlt.Damit das möglich ist, müssen »Verständigungsbrücken« zwischen IT-Fachleuten und Führungskräften mit BWL-Ausbildung geschlagen werden, damit eine gemeinsame Sicht auf die Dinge entsteht. Dies ist das dritte Anliegen meines Buches. Als jemand, der selbst ausgebildeter Betriebswirt ist und seit vielen Jahren Analytics-Lösungen in, mit und für Unternehmen entwickelt, verstehe ich mich als Übersetzer zwischen beiden Welten. (Genau genommen, sind es sogar fünf Welten: IT-Technik, Datenmanagement, analytische Algorithmen, betriebswirtschaftliche Methoden und das Verständnis von Geschäftsmodellen.)

In diesem Sinne möchte ich sowohl IT-Fachleute als auch Führungskräfte mit betriebswirtschaftlicher Ausbildung bei der Lektüre um Geduld bitten, wenn ich hier und da etwas tiefer in technologische Hintergründe vordringe. Gerade Führungskräfte ohne IT-Kenntnis sollten eine klare Vorstellung von IT-technischen Zusammenhängen ha[16]ben, bevor sie Entscheidungen über die Anschaffung oder Entwicklung von Analytics-Lösungen treffen, damit keine Fehlinvestitionen getätigt werden oder man erst am Ende des IT-Projekts feststellt, dass die Lösung nur teilweise die geschäftlichen Bedürfnisse erfüllt. Nichtsdestotrotz bleibt das Buch praxisorientiert und verzichtet so weit wie möglich auf »IT-Fachchinesisch«.

Das Buch ist folgendermaßen aufgebaut:

Kapitel1 ist eine Einführung in die drei Bereiche von Business Analytics und erläutert Descriptive, Predictive und Prescriptive Analytics. Zugleich wird ein Blick auf Business Intelligence geworfen und gezeigt, in welcher Weise Business Analytics deren Weiterentwicklung ist.Kapitel2 zeigt den »spielverändernden« Effekt der technologischen Innovationen auf und wirft einen ersten Blick auf die Bedeutung der Agilität.Analytics-Architekturen variieren je nach dem verfolgten Zweck. Das klingt selbstverständlich, doch erlebe ich es in der Praxis häufig, dass man versucht, Analytics-Lösungen auf einer dafür ungeeigneten IT-Architektur aufzusetzen. In Kapitel3 zeige ich zunächst auf, wie sich das klassische und von vielen Unternehmen verwendete Data Warehouse flexibilisieren lässt, sodass es neuen Herausforderungen besser gewachsen ist.In Kapitel4 stelle ich moderne Datenmanagement-Lösungen vor, die sich optimal für Business Analytics eignen.Kapitel6 zeigt ausführlich, wie Predictive Analytics im Unternehmen mit agiler Methodik entwickelt, implementiert, betrieben und fortgeführt werden kann.Kapitel8 stellt das gleiche für Prescriptive Analytics vor.Unternehmen agil aufzustellen ist eine Herausforderung. Oft erlebe ich, dass man dabei nur oberflächlich am Organigramm »schraubt«, ohne wirklich etwas zu verändern. Kapitel9 zeigt anhand des Viable-System-Modell, wie Agilität dazu beitragen kann, vorhandene Geschäftsfähigkeiten dynamisch weiterzuentwickeln und analytische Kompetenzen aufzubauen.

Außerdem gibt Ihnen das Interview mit Dietrich Betz, Leiter Controlling Services bei der Gebr. Knauf KG (Kapitel5), einen Eindruck aus erster Hand, wie Agilität im Unternehmen gelebt wird. Das Interview mit Prof. Dr. Karsten Oehler, Experte für Advanced Analytics und Hochschullehrer (Kapitel7), zeigt Ihnen, wie eine flexible Unternehmensplanung mit Analytics in Unternehmen aussehen kann. Darüber hinaus werden Sie in allen Kapiteln Best-Practice- und manchmal auch Worst-Practice-Beispiele von Unternehmen finden, die Business Analytics eingeführt haben.

(Aus Gründen der besseren Lesbarkeit verzichte ich auf das Gendern im Text, aber selbstverständlich kann »der« Mitarbeiter auch eine Frau und »die« Führungskraft ein Mann sein.)

[17]»Das Ende der IT, wie wir sie kennen«, ist nicht »das Ende der IT an sich« – vielmehr ist es der Anfang eines neuen Verständnisses für das Zusammenwirken von IT und Business mit dem Ziel, die Unternehmenssteuerung zu optimieren.

In diesem Sinne wünsche ich Ihnen viel Erfolg bei der Einführung von Agile Analytics in Ihrem Unternehmen.

Dirk Böckmann

Februar 2023

[19]1Von Business Intelligence zu Business Analytics

1.1Business Intelligence, der Blick zurück

1.1.1Die Entwicklung zur BI

Praxisbeispiel: Möbelhaus

Als ich 1997 gerade mein Vordiplom der Betriebswirtschaftslehre in der Tasche hatte, bekam ich eine Anfrage aus meinem familiären Umkreis: Die langjährigen Inhaber eines Möbelhauses baten mich um Hilfe, weil sich das Geschäft schon im zweiten Jahr in Folge nicht mehr so entwickelte wie erwartet. Die Umsätze stimmten zwar noch, aber es blieben keine Gewinne mehr übrig, was man sich nicht erklären konnte. Mithilfe meiner BWL-Kenntnisse sollte ich einmal einen Blick auf das »Zahlenwerk« werfen, um festzustellen, woran es liegen könnte.

Gesagt – getan. Ich stellte eine Gewinn- und Verlustrechnung (GuV) auf und berechnete einige Kennzahlen (Key-Performance-Indicators), um die Geschäftsaktivitäten zu quantifizieren, vergleichbar und bewertbar zu machen. Ein wesentlicher KPI im Handel ist der Lagerumschlag, der ausdrückt, wie oft ein Händler seine Ware im Bestand pro Jahr verkauft.

Hier konnte ich bereits das erste Problem identifizieren: Während der Branchendurchschnitt des Lagerumschlags für Möbelhäuser bei 2,5 lag, betrug derjenige des Betriebs lediglich 1,8. Das heißt: Man hatte entweder zu viel Ware im Bestand, oder man verkaufte zu wenig bzw. zu langsam. Als Betriebswirt betrieb ich nun Ursachenforschung: Warum lag das Möbelhaus 28 Prozent unter dem Branchendurchschnitt? War in der Vergangenheit etwas Entscheidendes passiert? Wann genau war eine Veränderung eingetreten, und welche Sortimentsbereiche betraf dies?

Als ich die Inhaber und einige Führungskräfte befragte, hatte nahezu jeder eine andere Meinung: Der eine war der Ansicht, es wären zu viele Küchen im Sortiment, die andere meinte, es wären eher zu wenig Küchen. Der nächste meinte, man müsse die Polstermöbel besser präsentieren, ein weiterer hielt genau das für verkehrt. Kurz und gut: Es brauchte einen systematischen Ansatz, um auf [20]Basis überprüfbarer Fakten – statt subjektiver Ansichten oder Erfahrungen – die Wissenslücke zu schließen.

Im Studium hatte ich gelernt, dass dies mit Hilfe von Business Intelligence (BI) möglich ist – einem Prozess, in dem Daten mit Hilfe von IT-Software so aufbereitet, ausgewertet und visualisiert werden, dass sich Management-Methoden, beispielsweise ein Benchmarking des Lagerumschlags, darauf anwenden lassen. Auf diese Weise lässt sich neues Wissen generieren.

Definition: BI

Business Intelligence (BI) ist ein technologiegestützter Prozess zur Analyse und Aufbereitung von Daten. Er dient Managern, Führungskräften und Endanwendern dazu, Fragen zu beantworten und auf der Basis von Daten (= Fakten) Geschäftsentscheidungen zu treffen. Anders ausgedrückt: BI ist der Prozess der Transformation von Daten in Information, die durch das Herstellen von kausalen Zusammenhängen zu Wissen wird.

In den frühen 1990er-Jahren wurde der Begriff »Business Intelligence« von der Gartner Group geprägt. Aber nicht nur der Begriff war neu, sondern das gesamte Konzept dahinter war revolutionär im Vergleich dazu, wie zuvor Daten aufbereitet und analysiert wurden.

Seit den späten 1970er-Jahren ging man in größeren Betrieben dazu über, Daten zu sammeln, auszuwerten und Entscheidungsträgern zur Verfügung zu stellen. Man versuchte, Daten aus verschiedenen operativen Systemen in einem einzigen Datenmodell zusammenzuführen und für die Analyse zu verdichten. Ziel war es, Berichte für das Management zu generieren, die ihm einen Überblick über den Status quo verschafften.

Das Ganze hatte allerdings einen entscheidenden Nachteil: Die Reports konnten nur von IT-Fachleuten zusammengestellt werden, während ihr Zustandekommen für das Management, das meist über keine IT-Kenntnisse verfügte, eine »Blackbox« war, in die es nicht hineinschauen konnte.

In dieser Zeit verfestigte sich eine Art »Zweiteilung« oder Trennung zwischen Informationsnutzern, also den Fachexperten und Entscheidungsträgern, auf der einen Seite und den Datenverwaltern und -bearbeitern, also der IT-Abteilung, auf der anderen Seite. Beide Parteien sprachen häufig nicht dieselbe Sprache und konnten sich nicht immer verständigen. Wenn das Management bestimmte Zahlen brauchte, wurde »die IT« beauftragt, sie zu beschaffen. Doch was die IT lieferte oder liefern konnte, war nicht [21]immer das, was das Management benötigte, denn es gab Restriktionen im Bereich der Dateninfrastruktur, der Datenspeicherung und der verfügbaren Softwareprogramme. Dass Management und IT aneinander vorbeireden und sich nicht immer verstehen, ist bis heute vielfach so geblieben. Ohne hier schon vorgreifen zu wollen, sage ich aber voraus: Mit der Einführung von Agile Analytics werden diese Verständigungsprobleme wirklich gelöst werden, da die Methodik, die Arbeitsteilung und die Arbeitsweisen von IT-Experten und Führungskräften anders sind.

Die ersten Managementinformationssysteme entwickelten sich stetig weiter und wurden zu entscheidungsunterstützenden Systemen. Die Verbesserungen in Bezug auf Dialogfähigkeit und Interaktivität sorgten dafür, dass sich die Lösungen schon auf einzelne Anwendergruppen ausrichten konnten. Insgesamt waren diese Lösungen aber immer noch sehr beschränkt, unflexibel und wenig anwenderfreundlich. Das Handling war so kompliziert, dass die Auswertung der Daten nur Spezialisten mit guten IT-Kenntnissen vorbehalten blieb, denn es fehlte an einer einheitlichen und zentralen Datengrundlage und -verarbeitung (vgl. Raaz 2010, S. 2).

Ein Fortschritt war die Weiterentwicklung zu Führungsinformationssystemen (FIS), die Managern nun einen direkten Zugriff auf die operativen Systeme ermöglichten, erstmals über eine intuitiv zu bedienende individuelle Benutzeroberfläche verfügten und durch neue Techniken wie Drill-Down ein schrittweises Verfeinern von Daten zuließen.

Ein großer Durchbruch gelang erst in den 1990er-Jahren. Die Datenarchitektur wurde um eine zentrale Datenhaltung für dispositive Zwecke ergänzt, und zwar um das Data-Warehouse-System (DWS), das die Haltung der Daten in einer zentralen Datenbank vorsah. Erstmals stand damit eine skalierbare Datenbasis zur Verfügung, mit der alle unternehmensweit gespeicherten Informationen interaktiv analysiert und die Ergebnisse zur Entscheidungsfindung herangezogen werden konnten. So erhielt man zeitraumbezogene, oft monatsaktuelle Daten, die vor allem das Controlling für die finanzielle Unternehmenssteuerung nutzte.

Damit war die Grundlage für Business Intelligence (BI) geschaffen. Nun konnten unternehmensrelevante Informationen gesammelt, aufbereitet und für die Unternehmenssteuerung dargestellt werden. BI-Anwendungssysteme erreichten mehrere Managementebenen vom Topmanagement bis zum dezentralen Entscheider. Business Intelligence ist heute – Stand 2023 – der Status zur Unterstützung der Entscheidungsfindung. Business Analytics und Agile Analytics hingegen sind für viele Unternehmen noch Zukunftsmusik.

[22]1.1.2Descriptive Analytics

Praxisbeispiel: Möbelhaus (Fortsetzung)

Für das Möbelhaus entwickelte ich mit seinerzeit noch sehr bescheidenen IT-technischen Mitteln ein Business-Intelligence-System, um die drängenden Fragen des Gewinnrückgangs fakten- bzw. datenbasiert zu beantworten: Ich besorgte mir Daten aus dem Warenwirtschaftssystem, also der Software für Warenverwaltung, und exportierte die Daten aus dem Rechnungseingangs-, dem Rechnungsausgangsbuch und der Warenbestandsverwaltung in eine relationale Datenbank. Die für heutige Verhältnisse sehr simple Datenbank war mein Data Mart, das heißt meine fachspezifische Datensammlung (Warencontrolling).

Den Warenbestand vom Jahresersten (1. Januar) schrieb ich durch das Rechnungseingangs- und das -ausgangsbuch fort. Anhand der Materialnummern konnte ich Warengruppen (z. B. Schlaf- und Wohnzimmer) und Modellnamen den Herstellern bzw. Lieferanten zuordnen. Schließlich klassifizierte ich die Hersteller bzw. Modelle noch nach drei Preissegmenten, nämlich hoch, mittel und niedrig.

Auf dieser Basis konnte ich die Frage beantworten, warum die Produktivität des Warenbestands im Möbelhaus unterhalb des Branchendurchschnitts lag: Hauptgrund war ein Rückgang des Absatzes von ca. 60 Prozent im mittleren und unteren Preissegment; dies betraf insbesondere die Warengruppen Jugend-, Wohn- und Schlafzimmer.

Weiterhin konnte ich feststellen, dass dieser Prozess seit fünf Jahren im Gange war und sich immer mehr beschleunigte: Der kumulative Verlust betrug vor 5 Jahren »nur« 5 Prozent, vor vier Jahren 12 Prozent, vor drei Jahren 22,5 Prozent, vor zwei Jahren 37,5 Prozent und zuletzt schließlich 60 Prozent. Als Nächstes befragte ich mein Business-Intelligence-System danach, welche Produkte betroffen waren. Es handelte sich um die Kategorie der sog. »Kastenmöbel«, also Schränke, Sideboards usw. Damit waren nun präzise Antworten auf wichtige Fragen gefunden.

In den 1980er-Jahren veränderte sich das Kaufverhalten der Möbelkunden: Sie kauften immer weniger bei örtlichen Fachhändlern, wie dem Möbelhaus, sondern fuhren stattdessen etliche Kilometer weit, um bei den gerade neu entstehenden Möbel-Selbstbedienungsmärkten erlebnisorientiert einzukaufen.

Dass auch IKEA qualitätsorientierte Käufer ansprach, war uns damals noch nicht klar, aber dass die entstehenden Möbelhäuser »auf der grünen Wiese« (in Gewer[23]begebieten, außerhalb der Stadtzentren) dem Fachhandel Kunden abnahmen, wussten wir. Die Kunden kauften vermehrt niedrigpreisige Waren, selbst wenn die Qualität in den SB-Märkten oft schlechter war als bei den etablierten Fachhändlern und sie außerdem die Möbel selbst zusammenbauen mussten. Das Marktumfeld hatte sich ebenso verändert wie das Konsumentenverhalten. Nach Jahrzehnten einer konstanten und vorhersehbaren Entwicklung wurde es zunehmend dynamischer.

Was ich hier zunächst im Möbelhaus durch Anlegen eines Data Marts und der gezielten Strukturierung und Auswertung der Daten durchführte, nennt man Descriptive Analytics.

Definition: Descriptive Analytics

Descriptive Analytics ist das Herzstück von Business Intelligence. »Beschreibend« gibt diese Form der Analytik eine Antwort auf die Frage: Was ist passiert und aus welchen Gründen? Die Betrachtungsweise gleicht also einem Blick in den Rückspiegel, in die Vergangenheit. Descriptive Analytics ist statisch, auf einzelne Zeitpunkte oder Zeiträume bezogen. Sie geht schon einen Schritt weiter als das frühere Führungsinformationssystem, das ein reines »Reporting« war, und wendet sich in Richtung »Applying«, also Anwendung von Daten für bestimmte Fragestellungen, um Trends zu erkennen und zu analysieren.

1.1.3IT-Architektur und Anwendung von BI

Die IT-Architektur, die für Business Intelligence erforderlich ist, umfasst mehr als nur eine BI-Software. Ich teile die BI-Architektur in fünf logische Schichten ein, von denen jede im Datenveredelungsprozess eine spezifische Aufgabe hat. Die Details hierzu werden in Kapitel 3.2.1 und 4 ausführlich beschrieben und sollen daher nachfolgend nur grob skizziert werden:

Datenquellschicht mit allen operativen Systemen, die Daten enthalten können, welche für analytische Zwecke benötigt werden. Dazu zählen insbesondere Daten auf ERP-, CRM- und HR-Systemen.Extraktions-, Transformations- und Ladeschicht (ETL): Die Daten werden aus den Quellsystemen herausgezogen, transformiert, also bearbeitet und in das Data Warehouse geladen.Datenspeicherung: Diese Ebene umfasst z. B. das Data Warehouse, das die Daten der gesamten Organisation enthält. Demgegenüber fokussieren Data Marts nur die Daten einzelner Unternehmensbereiche (wie Einkauf, Vertrieb, Produktion, Marketing) oder Geschäftseinheiten (Einkauf Asien, Einkauf Europa, Einkauf Amerika usw.).[24]Analyse: Die Datensets werden in analytische Datenmodelle, wie z. B. OLAP-Cubes (vgl. Kapitel 3.4.3) überführt, damit analytische Verarbeitungsschritte und Modelle auf die Daten angewendet werden können.Datenpräsentation: Auf dieser Ebene werden die analytischen Ergebnisse bzw. Informationen für Endanwender in Dashboards, Berichten und auf elektronischen Endgeräten (Mobiles) visualisiert (vgl. Stedman 2020).

Abb. 1.1: Die fünf Ebenen einer klassischen BI-Architektur

Typische Anwendungsfälle für Descriptive Analytics sind

die Überwachung der Performance oder bestimmter Metriken,die Unterstützung der Entscheidungsfindung durch Bereitstellung von Grafiken und Diagrammen, wie z. B. Zeitreihen,Bewertung und Verbesserung von Geschäftsprozessen,Ermittlung und Visualisierung wertvoller Informationen über das Verhalten von Kunden, Lieferanten und Wettbewerbern,Aufdecken von Trends, Mustern und Beziehungen in den Daten (vgl. Cote 2021).

Das Ziel von Business Intelligence ist es, eine Organisation zu befähigen,

Geschäftsprobleme zu identifizieren,interne Businessprozesse zu optimieren,Effizienz und Produktivität zu erhöhen,Markttrends und -chancen zu erkennen,bessere und schnellere Entscheidungen zu treffen,stärkere Unternehmensstrategien zu entwickeln undUmsätze und Gewinne zu erhöhen.

[25]1.2Business Analytics, der Blick nach vorne

1.2.1Predictive Analytics

Praxisbeispiel: Möbelhaus (Fortsetzung)

Durch Einsatz von Business Intelligence ließen sich zum ersten Mal die Probleme des Möbelhauses klar erkennen und eingrenzen. Die Fakten unterschieden sich sehr von den Meinungen und Erfahrungen der Führungskräfte. Es war nun klar, dass es nicht damit getan war, ein paar Küchen mehr oder weniger einzukaufen oder ein paar Polstermöbel anders zu präsentieren. Denn das Problem lag ganz woanders und wäre ohne umfassende Datenanalyse mithilfe von Descriptive Analytics weiterhin verdeckt und unerkannt geblieben.

Nachdem ich die Probleme analysiert hatte, wollte ich nun dazu beitragen, sie zu lösen. Mit anderen Worten: Nach dem Blick in die Vergangenheit galt es nun, nach vorne zu schauen, um für die Zukunft die richtigen Entscheidungen zu treffen. Während Descriptive Analytics auf Gegenwart und Vergangenheit fokussiert ist, konzentriert sich Predictive Analytics auf die Zukunft und beantwortet die Frage: Was wird wahrscheinlich als Nächstes geschehen?

Auf der Basis einer Regressionsanalyse stellte ich ein Zeitreihenmodell auf. Das heißt, ich betrachtete einen bestimmten Zeitraum der Vergangenheit, z. B. 16 Monate, und ermittelte methodisch, was und wieviel wahrscheinlich in den kommenden drei Monaten verkauft werden würde. So konnte ich relativ treffsicher den Quartalsumsatz je Verkaufsstandort und Warengruppe vorhersagen.

Ich ermittelte den durchschnittlichen Ziel-Warenbestand je Standort und Warengruppe, indem ich den Ziel-Lagerumschlag von 2,5 und den Quartalsumsatz berücksichtigte. Angenommen, es wurden pro Quartal Schlafzimmer für 60.000 EUR verkauft, so läge der Umsatz pro Jahr bei 240.000 EUR. Bei einem Ziel-Lagerumschlag von 2,5 dürfte demnach der Wert des Lagerbestandes für Schlafzimmer nicht mehr als 96.000 EUR betragen. Wenn man hiervon den durchschnittlichen Kalkulationsaufschlag abzieht, kann man den Verkaufswert in einen Einkaufswert überführen und den Bestandswert zu Einkaufswerten kontrollieren. Lag der Bestand über dem Zielwert, musste er durch Verkaufsaktionen gesenkt werden; lag er darunter, konnte das Sortiment aktualisiert werden.

Über eine auf die Prediction folgende Einkaufs- und Limitplanung war somit eine Lösung entstanden: Das Sortiment konnte bereinigt werden und Ladenhüter schieden aus. Das Möbelhaus konzentrierte sich auf Produkte mit hohem Lagerumschlag, ohne den Bestand zu stark zu erhöhen, also zu viel Ware einzukaufen [26]und damit unnötig Kapital zu binden. Das trug dazu bei, die Liquidität in den Griff zu bekommen, sodass die bestehenden Kreditlinien nicht ausgereizt werden mussten.

Mit anderen Worten: Mit Hilfe von Descriptive Analytics hatte ich die Probleme aufgedeckt und faktisch identifiziert; mit Hilfe von Predictive Analytics löste ich einen Teil der Probleme dahingehend, dass sich das zukünftige unternehmerische Handeln nun besser, zielgenauer, steuern ließ. Die Lösung ergab sich aus dem Zusammenspiel von Prediction (Vorhersage) plus betriebswirtschaftlicher Planungsmethodik (Einkaufs- und Limitplanung).

1.2.2Prescriptive Analytics

Während Descriptive Analytics dem Blick in den Rückspiegel, also in die Vergangenheit, gleicht, ist Predictive Analytics der Blick durch die Frontscheibe – oder der Scheinwerfer, der den unmittelbar bevorstehenden zukünftigen Weg ausleuchtet. Predictive Analytics fragt: »Was wird wahrscheinlich in Zukunft geschehen?« und hilft, auf dieser Basis die richtigen Entscheidungen zu treffen.

Definition: Prescriptive Analytics

Prescriptive Analytics beantwortet die Frage: »Welchen Einfluss hat die Veränderung bestimmter Variablen auf die Zukunft, und wie muss ich mein Handeln dementsprechend ausrichten?« Das ist mit einem Navigationssystem zu vergleichen, das quasi eine ideale Route vorschreibt. Das Navi berechnet Staus und Engpässe voraus und schlägt dem Fahrer frühzeitig einen alternativen Weg vor, bevor er überhaupt in den Stau hineingerät – etwas, das weder der Scheinwerfer und erst recht nicht der Rückspiegel leisten kann. Gerät der Fahrer aber unvorhergesehenerweise in einen Stau, erhält er durch Prescriptive Analytics einen Vorschlag zur Routenkorrektur, auf welch kürzestmöglichem Weg er wieder hinausfindet, um sein Ziel schnellstens zu erreichen. Nicht nur vor, sondern auch während der Fahrt lässt sich also mit Hilfe von Prescriptive Analytics der Weg immer wieder flexibel anpassen und optimieren.

Praxisbeispiel: Logistikunternehmen

Meinen ersten Kontakt mit Prescriptive Analytics hatte ich, als ich in einer Unternehmensberatung im Auftrag eines Verbandes mittelständischer Speditionen Antworten auf die Frage finden sollte, welche Hauptumschlagplätze für die Spediteure kostenoptimal sind. Ein Hauptumschlagplatz ist ein Verkehrsknotenpunkt, an dem Ware angeliefert und von Logistikbetrieben auf ein anderes Transportmittel umgeladen wird, damit der Weitertransport an die Kunden erfolgen kann. Die Kosten eines Umschlagplatzes werden von verschiedenen Faktoren be[27]stimmt, z. B. von den Entfernungen der jeweiligen Spedition zum Knotenpunkt, aber auch von den Entfernungen des Knotenpunktes zu den zu beliefernden Kunden, weiterhin von den zu transportierenden Warenmengen, dem Preis, der Größe und dem Gewicht der Waren wie auch den Kosten der Standorte selbst (Miete und Gewerbesteuer).

Schon auf Anhieb ist klar, dass beim Finden kostenoptimaler Standorte für Umschlagplätze (Hubs) eine Vielzahl von Variablen berücksichtigt werden muss, die sich nur schwer und mit extremem Aufwand manuell berechnen lassen. Das Finden eines optimalen Standortes ist jedoch mit Methoden der präskriptiven Analytik möglich. Der Aufbau eines kostenoptimierten Standortnetzes ist ein Thema des strategischen Designs, das nicht allzu oft zur Disposition steht. Variabler wird die Aufgabe jedoch, wenn man aufgrund der aktuellen Verkehrslage (Staus zwischen zwei Hubs) dynamisch die Routen optimieren muss. Dann handelt es sich um eine dynamische Fragestellung und ist damit ein typischer Anwendungsfall von Prescriptive Analytics. »Dynamisch« heißt: Heute kann die Route über Hub 2 und Hub 3 am schnellsten sein, aber morgen kann aufgrund einer Brückensperrung oder einer Baustelle die Route über Hub 4 und Hub 6 schneller und kostengünstiger sein.

Doch zurück zum Design des Hub-and-Spoke-Netzwerks für die Spedition. Ein solches Netz kann man sich wie den Aufbau eines Rades mit Speichen (Spokes) und Naben (Hubs) vorstellen. Die Endpunkte (Spokes) sind jeweils mit einer Netzwerkverbindung zu einem zentralen Knoten (Hub) verbunden; das gesamte Netzwerk besteht aus mehreren Hubs and Spokes. Der gesamte Netzwerkverkehr fließt über einen oder mehrere Hubs. Zwischen den Endpunkten existieren also keine direkten Verbindungen, sondern der Weg führt immer über einen von mehreren möglichen Hubs. Es kam darauf an, das Netzwerk durch die Wahl eines Hub-Standortes so zu designen, dass ein Kosten- und Geschwindigkeitsoptimum für den Verkehr der Spedition entstand. Zentral war die Frage: Welcher Standort für einen neuen Hauptumschlagplatz mündet in minimale Gesamtkosten? Die Basis dieser Optimierungsaufgabe waren die Sendungsaufträge der letzten zwei Jahre. Man hätte aber auch eine Prediction der erwarteten Sendungen erstellen können.

Der Mehrwert von Prescriptive Analytics besteht im Wechsel vom Rückspiegel zum Navigationssystem: Statt auf bereits eingetretene und möglicherweise unerwünschte Ereignisse nur zu reagieren – oftmals, wenn es bereits zu spät ist – kann man nun agieren und die Zukunft proaktiv gestalten. Mit anderen Worten: Es geht darum, einen Vorschlag für diejenige Entscheidung zu bekommen, die das Erreichen der Ziele sicherstellt.

[28]1.2.3Die Bedeutung der KI und des Einsatzes von Algorithmen

Technisch ist dies u. a. durch die schnelle Weiterentwicklung der Künstlichen Intelligenz (KI) möglich. Softwaresysteme sind mehr und mehr in der Lage, abstrakt beschriebene Aufgaben und Probleme eigenständig zu lösen, ohne dass jeder Schritt zuvor von Menschen programmiert werden muss. Eine entscheidende Bedeutung haben dabei Algorithmen, die selbstständig lernen und in Sekundenschnelle Lösungen finden können, sobald sie mit quantitativ und qualitativ hochwertigem Zahlenmaterial »trainiert« worden sind (Machine Learning).

In den letzten Jahren kommen ständig neue und bessere Algorithmen für diverse Anwendungsfälle auf den Markt. Sehr bekannt und keineswegs neu ist z. B. der Simplex-Algorithmus, mit dessen Hilfe lineare Optimierungsprobleme (Prescriptive Analytics) gelöst werden. Durch den technologischen Fortschritt (vgl. Kapitel 2.1) hat sich die Anwendbarkeit von Algorithmen deutlich erhöht. Beispielsweise dauerte die Kalkulation des optimalen Produktionsprogramms für ein Stahlwerk in den 1970er-Jahren noch mehrere Wochen (vgl. Franke 1972), während solche Optimalkalkulationen heute in wenigen Stunden darstellbar sind.

Zwei betriebliche Probleme, die sich mit Algorithmen lösen lassen, sind z. B. folgende:

Optimale Instandhaltung: Nach dem Ausfall einer Maschine kommt es häufig zu einem hohen Wert- wie auch Zeitverlust: Es dauert eine Weile, bis der Maschinendefekt bemerkt wird, dann muss eine Entscheidung getroffen und die entsprechenden Maßnahmen (Reparatur, Produktionsstopp und/oder Verlegung der Produktion auf andere Maschinen oder Standorte usw.) müssen umgesetzt werden. Man kann jedoch den Maschinendefekt durch den Einsatz von Algorithmen, die man auf Daten anwendet, frühzeitig voraussagen. Damit ist rechtzeitiges Handeln möglich, bevor die Maschine tatsächlich ausfällt. Durch den Wegfall der Schadenbehebungszeit lässt sich zusätzlich die Zeitspanne der Instandhaltung verkürzen. Im Idealfall hat man auf diese Weise einen sehr geringen oder gar keinen Verlust. Im Sinne von Predictive Maintenance (»vorausschauender Instandhaltung«) können auf Basis der verarbeiteten Zustandsdaten der Maschinen die Anlagen proaktiv gewartet werden, bevor sie ausfallen. Ein Algorithmus, der in diesem Bereich eingesetzt wird, ist der LSTM (= »Langes Kurzzeitgedächtnis«), der besonders gut darin ist, Muster in den Ausfällen zu erkennen und vorherzusagen. So nutzt z. B. Kaeser Kompressoren Echtzeitdatenanalysen, um durch prädiktive Wartung die Ausfallzeit seiner Kompressoren zu minimieren. Auf dieser Basis entwickelte das Unternehmen außerdem ein neues Produkt für die Kunden: Compressed Air as a Service, also Druckluft auf Abruf (vgl. Greiner 2021).Optimales Produktionsprogramm: Angenommen, für die Herstellung zweier Produkte stehen zwei Maschinen zur Verfügung. Beide Produkte können in beliebiger [29]Menge auf Maschine 1 oder Maschine 2 oder einer Kombination von beiden produziert werden. Frage ist nun: Welche Menge sollte auf welcher Maschine produziert werden, um einen möglichst hohen Gewinn zu erlösen und/oder möglichst geringe Kosten (z. B. Rüstzeiten) zu verursachen?

Der entstehende Möglichkeitsraum enthält theoretisch eine unendlich große Anzahl von Lösungen dieser Aufgabe, insbesondere wenn es nicht nur um zwei, sondern um noch mehr Produkte geht und die Maschinen unter Umständen in verschiedenen Werken an verschiedenen Standorten stehen und unterschiedlich leistungsfähig sind. Sobald die Bedingungen (Menge an vorhandenen Rohstoffen, wechselnde Markt- und Geschäftsbedingungen, Standorte, Maschinenauslastung usw.) festgelegt sind, errechnet der Simplex-Algorithmus innerhalb weniger Sekunden die optimale Antwort auf diese Frage (vgl. dazu die ausführliche Darstellung in Kapitel 8.1.2). Weitere Beispiele für die Anwendung von Predictive und Prescriptive Analytics finden Sie in den Kapiteln 6 und 8.

ZIEL VON PRESCRIPTIVE ANALYTICS