Erhalten Sie Zugang zu diesem und mehr als 300000 Büchern ab EUR 5,99 monatlich.
Die Digitalisierung verändert die Wertschöpfungsstrukturen nahezu aller Branchen. Um die Wettbewerbsfähigkeit der unterschiedlichen Industriezweige und letztlich der gesamten Volkswirtschaft sicherzustellen, sind differenzierte IKT-Dienste und zu deren Realisierung ein substantieller Ausbau der digitalen Infrastrukturen in Deutschland unerlässlich. Auf der Fachkonferenz „Digitale Basisinfrastrukturen für die Wirtschaft 2025“ im Juni 2017 in München erörterte der MÜNCHNER KREIS mit rund 70 Experten aus Wirtschaft und Wissenschaft, wo dringender Handlungsbedarf für Politik und Unternehmen besteht und welche Weichenstellungen erfolgen müssen. Dieser Konferenzband fasst die Vorträge und Diskussionen der Fachkonferenz zusammen und zeigt wichtige Perspektiven für den zukünftigen Handlungsbedarf auf.
Sie lesen das E-Book in den Legimi-Apps auf:
Seitenzahl: 203
Veröffentlichungsjahr: 2018
Das E-Book (TTS) können Sie hören im Abo „Legimi Premium” in Legimi-Apps auf:
Michael Dowling, Universität Regensburg und MÜNCHNER KREIS
Einführung
Joachim Lepping, VDI/VDE Innovation + Technik GmbH, München
Keynote: Vision Digitales Deutschland 2025
Helmut Krcmar, TU München und MÜNCHNER KREIS
Zur Rolle digitaler Infrastrukturen für die Digitale Transformation: Veränderungen in den Wertschöpfungsnetzwerken und Denkmustern
Sigurd Schuster, Nokia Solutions and Networks, München und MÜNCHNER KREIS
Impulsvortrag: Anforderungen an Digitale Basisinfrastrukturen und -Dienste – Ergebnisse aus Expertenworkshops des MÜNCHNER KREIS Arbeitskreises „Digitale Infrastrukturen und Basisdienste“
Podiums-Diskussion:
Priorisierung der Anforderungen an digitale Basisinfrastruktur .
Iris Henseler-Unger, Geschäftsführerin WIK GmbH, Bad Honnef
Keynote: Blick über den Zaun: Best Practices der Entwicklung digitaler Basisinfrastrukturen in ausgewählten Ländern
Uwe Janssen, Deutsche Telekom AG, Bonn
Impulsvortrag: Zukunftsbild Digitale IKT-Basisinfrastrukturen und -Dienste 2025
Nico Grove, IEM München
Impulsvortrag: Infrastructure Provision – Modelle, Finanzierungsformen, Grenzen und Alternativen
Podiums-Diskussion: Welche Ansätze sind in Deutschland zielführend?
Robert Diemer, deep Innovation GmbH
Zusammenfassung der Ergebnisse
Der vorliegende Konferenzband fasst die Vorträge und Diskussionen der vom MÜNCHNER KREIS im Juni 2017 durchgeführten Fachkonferenz
Digitale Basisinfrastrukturen für die Wirtschaft 2025 – Handlungsbedarf und Weichenstellungen für Politik und Unternehmen
zusammen. Im Fokus stand die Frage, wie die Digitalisierung Wertschöpfungsketten transformiert und welche Konsequenzen dies für die Gestaltung der Infrastrukturen in der Zukunft bedeutet. Diese für den Standort Deutschland so aktuelle und wichtige Frage lässt sich nicht allgemein beantworten, denn die Anforderungen an die zukünftigen Infrastrukturen sind branchenspezifisch durchaus unterschiedlich. Um genau diese Anforderungen herauszuarbeiten, fanden im Vorfeld zu dieser Konferenz zwei Expertenworkshops statt. In diesen Workshops konnte mit Vertretern unterschiedlicher Branchen (insbesondere Gesundheit, Medien, Industrie, Handwerk, Finanzen) diskutiert und eruiert werden, welche spezifischen Anforderungen diese jeweils an die zukünftigen Infrastrukturen stellen. Die Ergebnisse fließen in die diesem Konferenzband zugrundeliegende Fachkonferenz ein, die sich in verschiedenen Key-Notes und Diskussionen nochmals vertieft mit der Thematik auseinandersetzt. Dabei stehen am Vormittag v.a. die Anforderungen an Infrastrukturen im Vordergrund, während am Nachmittag eher die Voraussetzungen hierfür diskutiert werden, um aufzuzeigen, welche konkreten Aktivitäten erforderlich sind.
Das Thema Infrastrukturen ist kein neues Thema des MÜNCHNER KREIS. Im Gegenteil – es handelt sich hier um eines der Kernthemen des MÜNCHNER KREIS seit seiner Gründung 1974. Denn auch bei dem damals hoch aktuellen Thema der Liberalisierung der Telekommunikationsmärkte ging es letztlich um Infrastrukturen. Aber auch in den letzten Jahren hat der MÜNCHNER KREIS immer wieder Veranstaltungen und Studien mit Bezug zu dieser Thematik organisiert. Insofern reiht sich dieser Konferenzband und die zugrundeliegende Fachkonferenz in eine Reihe von Aktivitäten, die sich mit dem breiten Feld der Infrastrukturen aus unterschiedlichen Perspektiven auseinandergesetzt haben.
Geplant, organisiert und vorbereitet hat die Fachkonferenz der MÜNCHNER KREIS Arbeitskreis „Intelligente Infrastrukturen und Basisdienste“ unter der Leitung von Sigurd Schuster. Im Namen des MÜNCHNER KREIS danke ich ihm und dem gesamten Arbeitskreis für die Vorbereitung der Fachkonferenz sowie die redaktionelle Aufbereitung der Beiträge. Den Referenten und Diskussionsteilnehmern danke ich für ihre spannenden Beiträge. Als MÜNCHNER KREIS hoffen wir, durch diesen Konferenzband weitere Diskussionen zu diesem wichtigen Thema anzuregen und dadurch Orientierung in der digitalen Transformation geben zu können.
München, im Herbst 2017
Prof. Dr. Michael Dowling
Im Rahmen meiner Keynote werde ich Ihnen meine Vision für ein „Digitales Deutschland 2025“ darlegen und im Einzelnen dazu vier Themengebiete genauer diskutieren: Autonomes Fahren, Industrie 4.0, Smart Data und die Zukunft der Arbeit. Doch zuvor möchte ich dazu auf eine grundlegende Frage eingehen:
Wo stehen wir heute international in Bezug auf digitale Basisinfrastrukturen? Sicherlich ist Ihnen, die Sie tagtäglich mit diesen Themen zu tun haben, bekannt, dass wir in Deutschland in punkto Netzabdeckung für Mobilfunktechnologien nur das 73. beste Netz der Welt haben und hier international sicherlich nicht zu den Spitzenreitern gehören. Ihnen ist vermutlich auch bekannt, dass Südkorea, Japan und vor allem der asiatische Raum dort sehr viel weiter im Hinblick auf den Ausbau dieser Basisinfrastrukturen sind. Dieser Umstand ist zum Teil auch historisch begründet, aber spätestens jetzt wird klar, dass Europa hier nachzuziehen hat und eine größere Dynamik entwickeln muss. Es wird dabei auch klar, dass Europa und erst recht Deutschland innerhalb von Europa nicht unabhängig agieren können und dass die europäische Perspektive deutlich in den Vordergrund gerückt werden muss. Man sagt, dass lediglich Russland, Tschechien und die Ukraine noch weit hinter Deutschland liegen. Das sind sicherlich Länder, die politisch auch noch anders strukturiert sind; aber auch hier sind in Zukunft noch Aufholtendenzen zu erwarten. Die Konkurrenzsituation ist also entsprechend groß.
Wenn man sich Südkorea noch etwas näher anschaut, gibt es dort spätestens seit 2008 ganz konkrete Förderprogramme zum Ausbau von Basisinfrastrukturen. In diesen wurden, wenn wir jetzt Richtung 2025 denken, ganz klare Ziele formuliert. Ein prominentes Ziel ist, die 5G Netze zu den Olympischen Spielen 2018 komplett auszurollen und praktisch zu erproben. Das Besondere an diesem Ziel ist, dass es einerseits greifbar ist und andererseits technisch sehr ambitioniert. Letztendlich wird ein Land an solchen Leistungen auch gemessen werden, weshalb die Motivation die entscheidenden Stakeholder zur Umsetzung zusammen zu bringen noch steigt. Aber genau derartige Projekte und ambitionierte Ziele braucht man, um Innovationen auch Realität werden zu lassen.
Welche Ansätze für derartige Ziele können wir uns in Deutschland denn bis 2025 als Motivation vor Augen führen? In diesem Zusammenhang gibt es große Herausforderungen, die zu meistern sind: Über eine Mio. Sensoren werden über unterschiedliche Netzwerke miteinander verbunden sein. Dies sind Prognosen, die aus unterschiedlichen Initiativen vor allem aus der EU erhoben worden sind. Alles, was letztlich von einer Verbindung profitieren kann, wird auch eine derartige Verbindung haben. Natürlich wird nicht nur die Übertragung an Daten deutlich größer werden, sondern auch die entsprechende Effizienz um Größenordnungen steigen. Dadurch steigt natürlich die Abhängigkeit von IT-Sicherheit in all diesen Infrastrukturen. Letztendlich führt dies zu der Forderung, dass auch künftige IKT Basisinfrastrukturen mit IT-Sicherheit ausgestattet werden müssen. Idealerweise bringen künftige Infrastrukturen diese IT-Sicherheit direkt mit.
Kommen wir zu den Anforderungen an das autonome Fahren. Die Herausforderungen liegen hier neben allen technischen Fragen vor allem auch im rechtlichen Rahmen. Es gibt viele Unternehmen, die aktuell schon die technische Lösung sehr weit entwickelt haben. Die Wiener Straßenverkehrskonvention von 1968 besagt jedoch, dass jeder Führer dauernd sein Fahrzeug beherrschen können muss. Das ist ein Punkt, der mit dem aktuellen Rechtsrahmen, der irgendwann für das autonome Fahren geeignet sein müsste, noch nicht vereinbar ist.
Eine vollkommene technische Zuverlässigkeit und die Integration von umfangreicher Sensorik, die beispielsweise eine hochgenaue und verlässliche Ortung ermöglicht, münden in ambitionierten Anforderungen an die gesamte Infrastruktur.
Vertrauen der Nutzer in Technik, Marktpotenziale sowie die Akzeptanz für solche Mechanismen müssen einfach geschaffen werden. Da gibt es tatsächlich schon eine ganze Menge an Untersuchungen und entsprechende Forschungsprojekte, die gezeigt haben, wie sich das entwickelt.
Die Migration ist daher das Entscheidende: die Frage ist, wie man von dem aktuellen System zu genau einem künftigen System mit entsprechender Infrastruktur kommt. Ich habe einmal auf einer Podiumsdiskussion von einem Vertreter des Volkswagenkonzerns auf die provokative Feststellung “ihr könnt doch im Grunde schon autonom fahren, aber ihr könnt das nicht in der aktuellen Infrastruktur“ den klaren Einwand gehört “ja, aber wir werden auf jeden Fall nicht darauf warten, bis diese Infrastruktur kommt“. Volkswagen verfolgt da einen ganz offensiven Weg und möchte genau entsprechend einer konzerninternen Vision zum autonomen Fahren gelangen. Ob dies ohne Anpassungen der Infrastrukturen in der notwendigen Schnelle gelingen kann, darf bezweifelt werden. Ich sehe es als große Herausforderung, die bereits technisch erprobten Systeme der Hersteller, mit den notwendigen Infrastrukturmaßnahmen und natürlich auch Infrastrukturweiterentwicklungen zeitlich zu koordinieren. Zudem müssen natürlich weitere Rahmen, wie z.B. der juristische entsprechend frühzeitig weiterentwickelt werden.
Abbildung 1: Stufen der Automobilentwicklung hin zu autonomen Fahrzeugen.
Wenn man sich in Abbildung 1 anschaut, wie die Digitalisierung ins Fahrzeug Einzug gehalten hat, dann sollte man schon bis zu den Anfängen zurückblicken und sich dadurch noch einmal klarmachen, dass ein Fahrzeug zunächst nur auf der mechanischen Ebene optimiert wurde. Die Elektrifizierung durch elektrische Fensterheber oder die Möglichkeit, die Türschlösser automatisiert zu bedienen, ist ein erster entscheidender Entwicklungsschritt gewesen. Durch die Integration entsprechender Funksysteme und weiterer Fahrerassistenzsysteme schritt die Digitalisierung weiter voran.
Im Jahr 2017 können wir behaupten, dass wir eine vollständige eingebettete Konnektivität im Fahrzeug haben. Entsprechende Monitoring-Informationen stehen zur Verfügung, um eine Art Selbstbildnis des Fahrzeugs entstehen zu lassen. Der nächste Schritt bis 2025 ist jetzt, die Entwicklung entsprechend zum autonomen Fahren weiterzuführen – natürlich mit Vernetzungskonzepten des Car-to-X und der entsprechenden autonomen Kommunikation.
Dafür braucht es sicherlich hochgenaue fahrspurbezogene digitale Referenzenkarten. Auch hier gibt es natürlich inzwischen verschiedene Anbieter am Markt und die Übertragung von solchen Zusatzinformationen in das Fahrzeug muss von der entsprechenden Infrastruktur abgedeckt werden. Die Kommunikation mit Ampelanlagen ist ein wichtiger Punkt, der hier noch einmal infrastrukturell weiter zu realisieren wäre.
In Abbildung 2 ist dargestellt, wie in den unterschiedlichen Ländern die Dynamik hinter dem Thema autonomes Fahren gesehen wird. Man hat in verschiedenen Ländern gefragt: Sind Sie der Meinung, dass das autonome Fahren in den nächsten 10 Jahren Realität wird? Was sich zeigt, ist erstaunlicherweise, dass in Deutschland an dieser Stelle ein großer Pessimismus herrscht. Insgesamt sind die USA und vor allem China deutlich optimistischer, dass in zehn Jahren autonomes Fahren realisiert werden kann. In Deutschland ist man eher zurückhaltend, was sicherlich auch etwas mit der einen oder anderen politischen Aussage und das Verhalten wichtiger Hersteller in der jüngeren Vergangenheit zu tun hat. Es ist erstaunlich, dass man hier noch einmal deutlich mehr Überzeugungsarbeit in diese Richtung leisten muss.
Abbildung 2: Zustimmung zur Frage „Sind Sie der Meinung, dass das autonome Auto in den nächsten 10 Jahren Realität wird?“ im internationalen Vergleich.
Zu den Anforderungen an Infrastrukturen zählt sicherlich auch die Unterstützung von Echtzeitfähigkeit durch möglichst kurze Latenzzeiten. Stabile Fahrzeugdatenübertragung in einem Netz der Zukunft kann auf unterschiedliche Weise verwirklicht werden. Auf kurzer Distanz kann dies z.B. durch eine entsprechende ITS G5 Realisierung realisiert werden. Aber auch die Verringerung von Latenzen der LTE-Funkzellen ist ein Ziel, das im Moment in verschiedenen Förderprojekten im Testfeld A9 verfolgt wird und das eine große Herausforderung darstellt. Schließlich ist auch die langfristige Weiterentwicklung in Richtung 5G und die entsprechende Abdeckung im Fahrzeug eine zentrale Aufgabe der Forschung.
Im Jahr 2020 sollen erste 5G kommerzielle Lösungen mit maximalen Datenraten verfügbar sein, was sicherlich für das autonome Fahren eine wichtige Entwicklung darstellt.
Abbildung 3: Pro Stunde von vernetzen Fahrzeugen erzeugte Daten im Verhältnis zu Online-Aktivitäten.
Ein interessanter Punkt ist auch, dass das autonome Fahren immer in Richtung Infrastruktur und Interaktion diskutiert und weniger unter dem Datenaspekt betrachtet wird. Schaut man die pro Stunde von vernetzen Fahrzeugen erzeugten Daten im Verhältnis zu Online-Aktivitäten an, dann fällt ein deutlicher Größenunterschied auf. Wenn man sich, wie in Abbildung 3 dargestellt, das normale Verhalten im Netz wie z.B. Web Browsing anschaut, kommen in einer Stunde üblicherweise 15 MB, beim Music Streaming etwa 29 MB zusammen. Im Durchschnitt fallen selbst bei HD-Video Streams nur Datenmengen unter einem Gigabyte an.
Dagegen verbraucht die Datengenerierung und –übertragung für ein Fahrzeug ein Vielfaches mehr. Genau da kommt das Thema Big Data noch einmal zum Tragen, denn letztlich lässt sich auch das Auto als Daten-Hub darstellen. Auf der folgenden Abbildung finden Sie eine Übersicht, was wir unter diesem Smart Data Thema grundsätzlich zu verstehen haben.
So dargestellt geht es letztlich darum, die durch viele Sensoren zur Verfügung stehenden großen Datenmengen zu speichern. Eine unglaublich große Datenvielfalt sowie eine große Datenheterogenität machen es notwendig, diese zu vereinheitlichen, um sie übertragen zu können. Eine hohe Frequenz von Dateneingängen führt zu der Notwendigkeit, diese schnell durch leistungsfähige Übertragungsstrecken zu verarbeiten.
Abbildung 4: Begriffsklärung Smart Data.
Die verschiedenen Verfahren aus den 70er Jahren – künstliche Intelligenz, maschinelle Lernverfahren, evolutionäre Algorithmen, neuronale Netze – ermöglichen es, in unterschiedlicher Weise eine Vorhersage zu generieren. So können z.B. Text Mining Verfahren eingesetzt werden, um mittels Mustererkennung Mehrwerte aus den umfangreichen Datenbeständen zu errechnen. Dies bezeichnet man dann in Kombination als „Smart Data“-Ansatz, siehe auch Abbildung 4. Dabei ergeben sich durch die vielen denkbaren Verwendungsmöglichkeiten auch zusätzliche Anforderungen an die entsprechenden Infrastrukturen.
Zu diskutieren ist in diesem Zusammenhang auch die weit verbreitete Ansicht, dass auf der einen Seite Big Data steht als kaum nutzbare riesige Datenmenge, die wir jetzt erst durch neue Infrastrukturen erheben können, und auf der anderen Seite die künstliche Intelligenz-Verfahren zur Verfügung stellt, die ja nur darauf warten, auf diese Datenmenge angewendet zu werden. Entgegen dieser Auffassung, kann man das Ganze durchaus auch andersherum sehen und daraus weitere Anforderungen an IKT-Basisinfrastrukturen ableiten. Ich habe mich lange mit den Verfahren der künstlichen Intelligenz beschäftigt und da war man in den 90ern und 2000er Jahren noch nicht so weit, dass man diese Datenmengen so einfach zugreifbar hatte. Aber künstliche Intelligenz-Verfahren werden ja auch nicht losgelöst vom Datenanwendungsfall entwickelt, sondern müssen immer auch bedarfsgerecht angepasst werden. Diese Verfahren können deutlich verbessert werden, indem unterschiedliche Anwendungsfälle erprobt werden, um dann ganz bedarfsgerechte Big Data-Verfahren (z.B. neuronale Netze) zu entwickeln. Die auf diesen Datenbeständen entwickelten Verfahren sind aber nur durch entsprechend leistungsfähige Rechen- und Kommunikationsinfrastrukturen realisierbar. Obwohl heute schon zahlreiche Frameworks existieren, mit denen sich auch komplexe neuronale Netze wie die des Deep-Learning leicht implementieren und auf Clustern installieren lassen, werden genau die Verfügbarkeit und der Zugriff dieser notwendigen Rechenressourcen und auch die dafür notwendigen Interconnects zum erfolgskritischen Faktor. Nur der transparente und hoch performante Zugriff auf Rechenressourcen (insb. auch für kleine und mittelständische Unternehmen) erlaubt es, das Potenzial von Smart Data zu nutzen. Die Infrastruktur ist somit hierzu essenzielle Voraussetzung. Warum sollte man in dieses Thema so viel investieren? In Bezug auf Prognose, Umsatz und Unternehmensanwendung gibt es eine Menge Untersuchungen, die zeigen welches marktwirtschaftliche Potenzial in künstlichen Intelligenzen in Europa steckt.
Abbildung 5: Prognose zum Umsatz mit Unternehmensanwendungen im Bereich künstliche Intelligenz in Europa von 2016 bis 2025 (in Millionen US-Dollar).
Abbildung 5 zeigt eine Prognose zum Umsatz mit Unternehmensanwendungen im Bereich künstlicher Intelligenz in Europa von 2016 bis 2025 (in Millionen US-Dollar). Es wird sicherlich bis 2025 sehr viele Möglichkeiten geben, mit künstlichen Intelligenz-Verfahren in Zukunft auch Geld zu verdienen. Deswegen ist es wichtig, die Infrastruktur an dieser Stelle weiter zu unterstützen, um dieses Potenzial auch in Europa zu heben.
Wenn wir jetzt wirklich einmal nach Deutschland schauen, dann sind wir vor allem hier sehr stolz darauf, dass wir ein gutes Datenschutzgesetz haben und international als ein Hort des hohen Datenschutzes gesehen werden. Letztendlich ist das Bundesdatenschutzgesetz etwas, das sich auf die personenbezogenen Daten auswirkt. Aber an dieser Stelle ist es sicherlich nicht ganz einfach, zu trennen, ob industrielle Daten in gewisser Weise – gerade wenn es um Fahrzeuge geht oder um Informationen, die in einer Industriehalle erhoben werden – sich auch nicht auf personenbezogene Daten anwenden lassen.
Abbildung 6: Vereinbarkeit von Smart Data und Datenschutz durch innovative Technologien.
Der Datenschutz wird in diesem Zusammenhang gern als Hemmschuh für die Themen Big Data und Smart Data gesehen, da z.B. die Pflicht zur Löschung von Daten häufig eine lange Speicherung und eine sinnvolle Analyse unmöglich machen. Die Pflicht zur Datensparsamkeit, d.h. wirklich nur die Menge an Daten zu erheben, die für die gewünschten Aussagen notwendig sind, mindert die Möglichkeiten durch die Speicherung vielfältiger Variablen neue Aussagen treffen zu können. Der Nachweis einer eindeutigen Datenquelle erlaubt nicht, unterschiedliche Quellen zusammenzufügen, um Mehrwertdienste zu erzeugen. Schließlich steht vielleicht auch die geforderte Zweckbindung der Daten dem entgegen, dass aus unterschiedlichen Quellen eine gewaltige Datenbasis erzeugt werden kann und dann nicht mehr so richtig klar ist, für welchen Zweck man diese Daten eigentlich hat.
In Deutschland wird man den Datenschutz nicht so aufgeben wollen, so vielversprechend das Potenzial von Smart Data auch ist. Ich betrachte diese zunächst unvereinbaren Ziele von Smart Data und Datenschutz aber als Motivation und begreife deren vermeintliche Unvereinbarkeit als Innovationstreiber. Dieser Zusammenhang ist in Abbildung 6 dargestellt. So ist es doch möglich, Datastreaming-Verfahren anzuwenden, die eine Speicherung erst gar nicht notwendig machen. Praktisch können so „on the fly“ Datenströme analysiert werden, was somit wieder konform mit dem BDSG wäre. Verfahren des Compressed Sensing, die praktisch in der Lage sind, direkt am Sensor schon vor zu filtern und die Informationen, die vielleicht später relevant sind, direkt abzuspeichern und in gewisser Weise mit ganz effizienten Komprimierungsverfahren umzusetzen, kommen einer Datensparsamkeit entgegen. Die modernen Verfahren zur Anonymisierung, die jetzt gerade im Bereich der IT-Sicherheitsforschung entwickelt worden sind, ermöglichen letztendlich eine Transparenz, sodass auch Daten prozessiert werden können ohne dass deren Quelle offengelegt werden muss. Ein großes Potenzial hat hier möglicherweise auch die Blockchain-Technologie, durch die eine Zweckbindung nach Bundesdatenschutzgesetz realisiert werden kann und die somit noch in einem ganz anderem als dem klassischen Finanzsektor eine Anwendung findet. Sicherlich ist es ein interessanter Ansatz, diese Dinge verstärkt zu berücksichtigen und auch auf den Bereich IKT Infrastrukturen auszudehnen.
Wenn man diese Ansätze in Gänze betrachtet, wird klar, dass für Smart Data natürlich verlässliche Breitbandanbindungen erforderlich sind. Insbesondere müssen zur Umsetzung von Smart Data Analysen die entsprechenden Back End Systeme, also große Cloud Rechenzentren, effizient angebunden sein. Ich durfte ab dem Jahr 2006 daran mitarbeiten, die überall in Deutschland vorhandenen akademischen Rechenzentren zu einem kooperativen Netzwerk zu verbinden und über eine Middleware-Schicht zugreifbar zu machen (D-Grid Projekt). Es war natürlich eine Herausforderung, heterogene Ressourcen so zu abstrahieren und eine einheitliche Plattform zu schaffen. Die zentralen Herausforderungen ergaben sich aber schließlich in den Effizienzverlusten durch die Jobmigrationen. Weil das Verschieben von einem Job zum anderen über schmalbandige Übertragungsinfrastrukturen den Vorteil einer Migration schon aufgewogen hat, war oftmals das lokale Rechnen deutlich effizienter. Dabei zeigten theoretische Untersuchungen das enorme Potenzial, das in kooperativen Cloud-Infrastrukturen im Hinblick auf die Abarbeitung einzelner Rechenaufgaben steckt. Die Breitbandanbindung zwischen Rechenzentren ist daher essenzielle Voraussetzung, um große Cloud-Verbünde effizient nutzen zu können und das Ressourcenmanagement praktisch handhabbar zu machen.
Ein weiterer wichtiger Punkt ist der einfache Zugang zu Rechen- und Speicherressourcen für Unternehmen mit kleinen IT-Budgets. Dies wird immer gern vergessen. Der Mittelstand spielt in all diesen Themen eine bedeutende Rolle. Wir brauchen im Grunde einen skalierbaren Datenspeicher für KMU sowie Datentransportdienste und Datenanalysedienste, die entsprechend durch diese Infrastrukturen unterstützt werden. Im Kontext von Smart Data ist zudem die Schaffung von einheitlichen Standards ganz zentral. Nicht nur für Datenplattformen, Datenformate, Datenschutz- und Datensicherheitsbestimmungen, sondern sicherlich auch für einheitliche Kommunikationsinfrastrukturen.
Eine weitere Herausforderung ist es, die IT-Sicherheit in IKT-Infrastrukturen von vornherein zu integrieren. Dies könnte im Grunde in jeder Folie meines Vortrags stehen und ist für alle hier diskutierten Anwendungsbereiche essenziell. Letzten Endes ist dies genau das Thema, was bei Smart Data von KMU nicht unbedingt geleistet werden kann und was die Infrastruktur idealerweise (wenn wir schon über die Wünsch-dir-was-Fee reden), gleich mitliefern sollte.
Um eine Brücke zum nächsten Aspekt zu schlagen, sollte man sich klarmachen, dass Verfahren der Smart Data Analyse (wie ich eben schon angedeutet habe) die Grundlage für prädiktive Analysen ist und dies eine konkrete Ausgestaltung hinter der Vision einer Industrie 4.0 darstellt. Im Jahr 2016 stellt sich die Situation so dar, dass aus der Vision Industrie 4.0 tatsächlich schon an vielen Stellen Realität geworden ist. Die Motivation für Industrie 4.0 ist aber nicht vorrangig die Optimierung der Produktion. Dies wird die Industrie bestätigen, da das von den erfolgreichen Unternehmen immer schon gemacht wurde. Hätten die großen Industrieunternehmen auch in den letzten Jahren keine Optimierungen ihrer Produktions- und Herstellungsverfahren umgesetzt, hätten diese heute bestimmt keine Berechtigung mehr am Markt.
Die zentrale Idee hinter Industrie 4.0 ist aber, die Produktion heute auf eine ganz neue und ungemein mächtige Art und Weise zu optimieren. Die klassische Automatisierungsoptimierung ist vielleicht an einem Limit angelangt. Der Maschineneinsatz und die Errungenschaften der klassischen Robotik sind weit verbreitet und man kann unterstellen, dass auf diesem Weg keine signifikante Produktionssteigerung mehr möglich ist. Zugegeben ist das eine etwas gewagte These, aber sie verdeutlicht eine Idee. Das neue Optimierungspotenzial liegt in der Vernetzung und in der Nutzung von überall erzeugten und nun zugreifbaren Datenbeständen. Hier werden ganz neue Optimierungspotenziale in den Blick genommen, wo bisher nur die klassischen Verfahren der Automatisierungsverbesserung im Fokus standen. Unter dem Stichwort Industrie 4.0 kommen allerdings viele Ideen zusammen, deren konkrete Anwendbarkeit erst noch erprobt werden muss.
Was wir dazu brauchen sind entsprechende Zusatzdienste, um die Digitalisierung zu nutzen und neue Konzepte voranzutreiben. Es fehlt die Kommunikationsvernetzung zwischen den Maschinen, zwischen den Werken und entlang der gesamten Prozesskette. Dies sind zentrale Bereiche, in denen dann das weitere Optimierungspotenzial zu finden ist.
In Abbildung 7 ist dazu nach Branchen aufgeschlüsselt dargestellt, wo der deutsche Mittelstand aktuell bei der Umsetzung von Anlagenvernetzungen steht. Nicht verwunderlich ist, dass vor allem der Maschinen- und Anlagenbau hier schon sehr weit vorangegangen ist. Wenn man sich die prozessgetriebene Industrie einmal anschaut, dann besteht hier noch ein großer Nachholbedarf. Um diese Branchen weiter voranzubringen, wäre es interessant zu fragen, ob es an der Stelle ein infrastrukturelles Problem gibt.
Abbildung 7: Grad umfassender Anlagenvernetzung im Mittelstand.
Die Fiktion bis zum Jahr 2025 ist letztendlich, dass Menschen mit Menschen und mit Maschinen kommunizieren, miteinander und untereinander. Menschen kommunizieren heute auch schon untereinander, auch im Industriebreich. Aber sie tun es in der Zukunft vielleicht auf andere Art und Weise. Hierbei sind z.B. Mixed Reality und Augmented Reality Systeme zu nennen, durch welche die Möglichkeit besteht, größere Teams entsprechend durch wenige Spezialisten zu führen. Dies ist nur ein Beispiel.
Die Kommunikation über die gesamte Prozesskette hinweg zu führen und die Maschinen- und Mensch-Maschine Kontaktpunkte weiter auszubauen sind Ideen, die nur durch extrem leistungsfähige IKT-Infrastrukturen zu realisieren sind und daher sehr anspruchsvoll sind. Der virtuelle Zwilling bietet zudem die Möglichkeit, komplette Industrieanlagen so abzubilden, dass sie letzten Endes auch eine virtuelle Inbetriebnahme ermöglichen. Vorteile bieten sich nicht nur in verkürzten Inbetriebnahme-Zyklen, sondern auch in der besseren Einplanbarkeit des Menschen in bestehende Produktionsprozesse. Hier wird die gesamte Shop-Floor-Planung noch einmal neu umsetzbar. Dies sind wichtige und unvermeidbare Entwicklungen, die vor allem auch infrastrukturell innerhalb der Werkshalle Echtzeitkommunikation benötigen.
Wenn man dies alles zusammenfasst, kann man hier vielleicht zwei Anforderungen trennen: Zum einen die innovativen Technologien für die industriellen Kommunikationsnetze (vgl. Abbildung 7), zum anderen geht es um intelligentes Netzmanagement und selbst organisierende Netze, die hier ganz entscheidend sind.
Zum Abschluss kommen wir noch einmal zur Digitalisierung der Arbeitswelt, die gern in Deutschland als Schreckensszenario dargestellt wird; übrigens nicht nur in Deutschland, sondern international. Ursache dafür ist vermutlich die 2013 veröffentlichte Studie der beiden MIT Professoren Frey und Osborne “The Future of Employment“, wo für die USA vorausgesagt wurde, dass die Digitalisierung 45% der Arbeitsplätze im industriellen Umfeld in Gefahr bringt. Eine neue Studie, die letztes Jahr veröffentlicht wurde und auch versucht hat, dieses ganze Vorgehen auf den europäischen Markt zu übertragen, kam zu ähnlichen Ergebnissen für Deutschland. Als Konsequenz herrscht eine gewisse Panikstimmung, dass die Digitalisierung einen Großteil der Jobs überflüssig machen wird.
Wenn man diese Studien noch einmal genau untersucht, dann sind sie natürlich methodisch nicht schlecht gemacht. Sie gehen aber von gewissen statischen Voraussetzungen aus. So wurde für die Einschätzungen eine Klassifikation von Berufen und nicht die von Tätigkeiten zugrunde gelegt. Die Anpassung von Tätigkeitsprofilen wird überhaupt nicht betrachtet. Insgesamt werden die Innovationen, die sich durch Digitalisierung ergeben, in dieser Studie gar nicht betrachtet; vielmehr wird das aktuelle statische Vorgehen so hingenommen.
Nach dieser Analyse sollte diese Studie ebenfalls als Motivation gesehen werden, sich genau in die bereits eingeschlagene Richtung der Digitalisierung weiterzuentwickeln. Die Frage, die sich dann natürlich ergibt ist, welche Anforderungen sich hieraus an die IKT-Infrastrukturen ergeben, um auch künftig die Beschäftigung in Deutschland zu garantieren? Hier handelt es sich nur um eine von vielen Fragen, die es in diesem Zusammenhang zu betrachten gibt.
Drei sind hier zusammengefasst. Ortsgebundenes Arbeiten wird sicherlich in der Zukunft eher die Ausnahme sein. Ortsungebundenes Arbeiten auch im Hinblick auf Arbeitszeiten gilt es zu realisieren und dazu braucht man jederzeit Zugriff auf die notwendigen Anwendungen und Daten. Zudem benötigt man den sicheren Zugang über die Firmennetze für Mobilfunk und die Anbindung an Cloud-Infrastrukturen. Sicher ist in diesem Zusammenhang auch die von IT-Sicherheitsexperten so ungern gesehene Möglichkeit des “bring your own device“ von Bedeutung. Internationale Unternehmen müssen die Konnektivität zudem landes-übergreifend gewährleisten. Von daher ist es sicherlich nicht ausreichend, nur auf Deutschland zu schauen, da wir alle in gewisser Weise international tätig sind. Plattformdienste werden in diesem Zusammenhang eine größere Bedeutung bekommen. Wir brauchen eine standardisierte Bereitstellung von Diensten und wir brauchen – gerade wenn wir mehr Jobs schaffen und keine Jobs vernichten wollen – eine entsprechende Skalierbarkeit dieser Anwendungen. Auch die Datensicherheit ist in diesem Zusammenhang noch einmal zu betrachten. Die Speicherung und Übertragung auf den Endgeräten ist gerade bei vielen spezifischen Informationen kritisch. Dienstgeräte werden auch privat genutzt und entsprechend braucht man ein sicheres Mobile Device Management, um diese Umsetzung nicht zu gefährden.