Erhalten Sie Zugang zu diesem und mehr als 300000 Büchern ab EUR 5,99 monatlich.
Transformation und IT. Ursache und Wirkung könnten in diesem Zusammenhang wechselseitig sein: wollen die Menschen immer noch mehr oder gänzlich Neues aus der IT herausholen? Oder transformiert die IT selbst bereits in großen Teilen schon die Welt? Sei es durch beabsichtigte oder nicht beabsichtigte Effekte. Dieses Buch wird diese Frage nicht vollständig beantworten können. Dennoch denken wir, dass die folgenden Beiträge zu den Mega-Trends die Breite der relevanten Veränderungen aufzeigen, welche in den nächsten Jahren die Organisationen vor enorme Herausforderungen stellen. Darauf aufbauend werden erste Lösungsskizzen diskutiert. Im Kern sind flexible Ansätze gefragt, mit den Veränderungen zielgerichtet umzugehen. Gern berät Vineyard MC dazu mit ihrem gesamten Erfahrungsschatz. Der erste Beitrag stellt Quantencomputing als wohlmöglich in den nächsten Jahren mit disruptiven Veränderungen einhergehende Technologie vor. Dazu auch Ansätze, wie Unternehmen sich strategisch darauf vorbereiten sollten. Wie Cybersecurity-as-a-Service eine Antwort gerade für mittlere und kleinere Unternehmen sein kann, um mit entsprechenden Cyber-Risiken umzugehen wird im Rahmen einer Bewertung zur Eignung der Cyber-Security-Disziplinen dargestellt. Zero-Trust ist das Stichwort und einer der Trends bei den Cyber-Ansätzen, der über Technologie und Methodik sicherstellen kann, dass risikobasiert Methodik und bedarfsgerechte Technologien in einer Architektur zusammenwirken können. Im Kontext der digitalen Transformation hat Cloud Native in den letzten 3 Jahren immer mehr an Bedeutung erfahren, so dass inzwischen die meisten Unternehmen in Deutschland dazu konkrete Projekte umgesetzt haben und ihre IT entsprechend angepasst haben und auch weiter umbauen, um noch mehr Nutzen aus höheren Reifegraden bzgl. Cloud Native ziehen können. Augmented Reality (AR) erweitert die Realität bereits in der Praxis sowohl im Privatbereich als auch im Business bei der konkreten Zusammenarbeit von Menschen nicht nur im Büro, sondern auch bis in die Produktionsanlagen der Industrie. Das Zukunftsmodell Hybrid Working stellt weitere Anforderungen an die IT, bringt aber vor allem viel führungsbezogene und kulturelle Aspekte mit sich.
Sie lesen das E-Book in den Legimi-Apps auf:
Seitenzahl: 172
Veröffentlichungsjahr: 2023
Das E-Book (TTS) können Sie hören im Abo „Legimi Premium” in Legimi-Apps auf:
Vineyard Management Consulting GmbH
Die Vineyard Management Consulting ist eine erfahrene Managementberatung mit dem Fokus auf:
der Begleitung von Veränderungen
dem Management von Komplexität
der Optimierung von Projekten
der Vernetzung von Menschen
In zahlreichen, globalen Projekten in den Branchen Banken, Versicherungen, Telekommunikation, Automobilsektor sowie Information Technology haben wir stetig unsere Expertise und Kompetenz ausgebaut. Jeder unserer Managementberater hat erwiesene Berufs- und Projekterfahrung (mindestens 10 Jahre) und entwickelt sich kontinuierlich weiter. In der erfolgreichen Umsetzung unserer Projekte legen wir Wert auf soziales Gespür, interkulturelle Besonderheiten und wertschätzende, zielgerichtete Kommunikation.
Unsere Kernkompetenzen sind
Transformation Management umfasst in unseren Projekten die Strategie-definition, Umsetzungsplanung und vor allem die Etablierung von nachhaltigen Veränderungen im Unternehmensumfeld
Complexity Management bedeutet für unsere Management Berater die Fähigkeit, komplexe Strukturen, Prozesse und IT-Systeme zu analysieren, zu bewerten und zu verändern (z.B. bei der Herstellung der IT-Compliance im Bereich der Information Security gem. ISO27001, SANS20, BAIT).
People Management ist für unsere Berater eine oftmals implizit in Projekten geforderte Kompetenz – die Weiterentwicklung von Menschen und Gruppen im Sinne eines werteorientierten Coachings
Projektmanagement sind für uns die wesentlichen Schlüsselkompetenzen für das nachhaltige und zielgerichtete Umsetzen von größeren Vorhaben im Unternehmen.
Dazu bedarf es sowohl langjähriger Erfahrungen und klassischer Standard-Techniken (z.B. PMI, GPMA oder Prince2) als auch der frühzeitigen Vernetzung von branchenspezifischem Wissen, Deliverables und Menschen.
Transformation und IT. Ursache und Wirkung könnten in diesem Zusammenhang wechselseitig sein: wollen die Menschen immer noch mehr oder gänzlich Neues aus der IT herausholen? Oder transformiert die IT selbst bereits in großen Teilen schon die Welt? Sei es durch beabsichtigte oder nicht beabsichtigte Effekte. Dieses Buch wird diese Frage nicht vollständig beantworten können. Dennoch denken wir, dass die folgenden Beiträge zu den Mega-Trends die Breite der relevanten Veränderungen aufzeigen, welche in den nächsten Jahren die Organisationen vor enorme Herausforderungen stellen. Darauf aufbauend werden erste Lösungsskizzen diskutiert. Im Kern sind flexible Ansätze gefragt, mit den Veränderungen zielgerichtet umzugehen. Gern berät Vineyard MC dazu mit ihrem gesamten Erfahrungsschatz.
Der erste Beitrag stellt „Quantencomputing“ als wohlmöglich in den nächsten Jahren mit disruptiven Veränderungen einhergehende Technologie vor. Dazu auch Ansätze, wie Unternehmen sich strategisch darauf vorbereiten sollten. Wie Cybersecurity-as-a-Service eine Antwort gerade für mittlere und kleinere Unternehmen sein kann, um mit entsprechenden Cyber-Risiken umzugehen wird im Rahmen einer Bewertung zur Eignung der Cyber-Security-Disziplinen dargestellt. Zero-Trust ist das Stichwort und einer der Trends bei den Cyber-Ansätzen, der über Technologie und Methodik sicherstellen kann, dass risikobasiert Methodik und bedarfsgerechte Technologien in einer Architektur zusammenwirken können. Im Kontext der digitalen Transformation hat „Cloud Native“ in den letzten 3 Jahren immer mehr an Bedeutung erfahren, so dass inzwischen die meisten Unternehmen in Deutschland dazu konkrete Projekte umgesetzt haben und ihre IT entsprechend angepasst haben und auch weiter umbauen, um noch mehr Nutzen aus höheren Reifegraden bzgl. Cloud Native ziehen können. Augmented Reality (AR) erweitert die Realität bereits in der Praxis sowohl im Privatbereich als auch im Business bei der konkreten Zusammenarbeit von Menschen nicht nur im Büro, sondern auch bis in die Produktionsanlagen der Industrie. Das Zukunftsmodell „Hybrid Working“ stellt weitere Anforderungen an die IT, bringt aber vor allem viel führungsbezogene und kulturelle Aspekte mit sich.
Wir danken allen Autoren für ihre jeweiligen Beiträge und wünschen Ihnen interessante Impulse und neue Ideen bei der Lektüre! Wir freuen uns auf Feedback und Anregungen. Nehmen Sie bei weiterem Interesse sehr gern Kontakt mit uns auf!
Hofheim/Taunus, November 2022
Carsten Fabig Alexander Haasper
Managing Director and Management Consultants of Vineyard Management Consulting GmbH
Quantencomputing - Handlungsempfehlungen aus Sicht des Technologiemanagements
Technologieaufklärung: Was ist Quantencomputing?
Entwicklung von Technologiestrategien zur Einführung des Quantencomputings
Umsetzung von Technologiestrategien zur Nutzung des Quantencomputings
Überwachung der Umsetzungsstrategien
Zusammenfassung und Fazit zum Technologiemanagement des Quantencomputings
Vita: Rainer Sponholz
Wie Cybersecurity-as-a-Service Unternehmen helfen kann
Cyberrisiken sind gekommen, um zu bleiben
Cyberbedrohungen für Unternehmen
Cybersecurity-as-a-Service als Chance nutzen
Vita: Alexander Busse
Zero-Trust als neues Konzept zur Netzwerksicherheit
Was steckt also hinter Zero-Trust?
Kernelemente und Zero-Trust-Architektur
Anwendungsbereiche und Best Practices
Die besten Zero-Trust Network Access (ZTNA)-Lösungen des Jahres 2022 gemäß Techradar
Vita: Laura Dinis
Cloud Native - ein Must-have!
Status Quo der Digitalisierung durch den Einsatz von Cloud Technologie
Microservices & Container
DevOps & CI/CD-Pipelines
Vorgehen zur Etablierung der Cloud Native Ansätze
Fazit & Ausblick
Vita: Alexander Haasper und Tammo Jantzen
Business-Chancen durch Nutzung von Augmented Reality
Augmented Reality - was ist das?
Anwendungsmöglichkeiten von Augmented Reality
Funktionsweise, Anforderungen und Marktchancen
Vita: Carsten Fabig
Zukunftsmodell Hybrid-Working – Auswirkungen auf IT, Bürokonzepte sowie Kultur- und Führungswandel
Drei Tage Home-Office, zwei Tage Büro – Das Zukunftsmodell unserer Arbeitswelt?
Realisierung eines hybriden Arbeitsmodells – Anforderungen an die IT
Büro der Zukunft – Ort für Begegnungen & Kommunikation
Hybride Teams – Auswirkungen auf Unternehmenskultur und Führung
Zusammenfassung und Ausblick
Vita: Sarah Miebach
Literatur
Disclaimer:
Alle Informationen in diesem Buch wurden mit größter Sorgfalt kontrolliert. Weder Autoren noch Verlag können jedoch für Schäden haftbar gemacht werden, die in Zusammenhang mit der Verwendung dieses Buches stehen.
In diesem Buch werden eingetragene Warenzeichen, Handelsnamen und Gebrauchsnamen verwendet. Auch wenn diese nicht als solche gekennzeichnet sind, gelten die entsprechenden Schutzbestimmungen.
Für das Quantencomputing gibt es im Jahr 2022 sehr unterschiedliche Sicht- und Handlungsweisen:
Ein Informatiker, der gerade kurz vor dem Abschluss seiner Doktorarbeit im Bereich Maschinelles Lernen für selbstfahrende Fahrzeuge steht, meinte dem Autor gegenüber, die Quantencomputer-Hardware sei doch noch gar nicht leistungsfähig und somit hat dieses Thema zum Beispiel für seine Promotion keine Bedeutung.
Große Unternehmen, welche vom Quantencomputing profitieren könnten oder für deren Marktstellung es interessant werden könnte, machen Pilotprojekte - wie zum Beispiel die Deutsche Börse in Zusammenarbeit mit dem Frankfurter Beratungsunternehmen JoS QUANTUM GmbH
[
17
,
18
,
19
]
.
Das Unternehmen IBM hat eine Roadmap bis zum kommerziellen Einsatz seiner Quantenrechner aufgestellt. Viele Beraterhäuser bauen eigene Abteilungen auf, um den nächsten Beratungsboom vorzubereiten.
Die erwartete baldige Verfügbarkeit der Quantencomputer ist einer der aktuellen Hypes von Unternehmen, Medien und Politik.
Das Nobelpreis-Komitee hat den Physik-Nobelpreis 2022 an die drei Physiker Alain Aspect, John F. Clauser und Anton Zeilinger für ihre Forschung zu verschränkten Quantenzuständen vergeben. Sie habe die
Grundlagen einer neuen Ära der Quantentechnologie
geschaffen, so die Begründung des Komitees
[
20
]
.
Zusammengefasst kann man sagen, dass man für viele der aktuellen Probleme der Menschheit wie aufkommende Energie- und Rohstoffknappheit oder Klimaveränderung hofft, dass mit der neuen Art von Computern auch neue Lösungsansätze für diese Probleme berechnet werden können.
Das ist eine Art Zukunftsoptimismus, bei dem man wettet, dass die rettende Technologie schneller da sein wird, als einen die Probleme überwältigen.
Im praktischen Unternehmensalltag hingegen geht es weniger um die „Rettung der Welt“, sondern um die Frage, was passieren wird, wenn die neuen Rechenmöglichkeiten die Märkte „umkrempeln“ und durch die disruptiven Kräfte der eigene Unternehmensfortbestand gefährdet sein könnte.
Hier ist das Technologiemanagement der Unternehmen gefragt, bei dem strategische Fragen durch die Unternehmensführung und praktische Fragen der Anwendung durch die IT-Abteilung beantwortet werden müssen.
Nach einer Definition von Dieter Specht gibt es folgende zentrale Aktionsfelder des Technologiemanagements[1]:
Frühzeitige Erkennen von aufkommenden neuen Technologien,
Ihre Verfügbarmachung für das Unternehmen und
Die Weiterentwicklung bestehender Lösungen.
Darüber hinaus überschneidet sich das Technologiemanagement mit dem Innovationsmanagement im Bereich der Schaffung neuer Technologien.
Der Prozess des Technologiemanagements beinhaltet [1]
Technologiefrühaufklärung
Entwicklung von Technologiestrategien
Umsetzung der Technologiestrategien
Technologiecontrolling im Sinne der Überwachung der Umsetzungsstrategien
Dieses Buchkapitel beschäftigt sich mit der neuen, faszinierenden Technologie des Quantencomputings, d.h. mit der Entwicklung und Anwendung von Quantenrechnern.
Dabei sollen in diesem Aufsatz die folgenden Fragen behandelt werden:
Wo stehen die Technologien der Quantenrechner und des Quanten-computings heute?
Welches strategische Potenzial steckt im Quantencomputing?
Wie schnell entwickelt sich das Quantencomputing zur Produktionsreife?
Welche Umsetzungsstrategien sind beginnend von heute an erforderlich?
Wie kann man die gewählten Umsetzungsstrategien überwachen?
Am 15. Juni 2021 meldeten die Nachrichten die Einweihungsfeier des ersten kommerziellen Quantencomputers in Deutschland, einem 27-Quantenbit-Computer Typ „IBM Q Systems One“ im IBM-Rechenzentrum Ehningen bei Stuttgart [2].
Daneben gibt es inzwischen eine ganze Reihe weiterer Quantenrechner in Deutschland z.B. in Jülich bei Köln oder in Garching bei München. Weltweit gibt es in allen technologisch fortgeschrittenen Ländern schon sehr viele Quantencomputer an denen geforscht und gearbeitet wird. Führend in der Anwendung sind die USA und China. In der Grundlagenforschung sind aber auch die europäischen Länder sehr gut aufgestellt.
Abb. 1: Quantencomputer in der Deutschland Forschungslandkarte im Vergleich zu den Quantencomputer-Demonstrationsaufbauten [21]
Allen diesen Quantencomputern ist gemeinsam, dass sie mit unterschiedlichen Techniken arbeiten und von der Hardwareseite noch eher als Versuchsrechner angesehen werden können, ähnlich herkömmlicher Computer Anfang der 1950-er Jahre. Die Entwicklung der Leistungsfähigkeit auf dem Weg zum universell einsetzbaren Quantencomputer hat jedoch sehr an Geschwindigkeit zugelegt.
Die folgende Tabelle gibt einen einfachen Überblick über die technischen Ansätze. Eine ausführlichere Darstellung der Technologien würde den Rahmen dieses Buchkapitels sprengen.
Abb. 2: Überblick Quantencomputing Hardwareansätze [14] Roland Berger
Die verschiedenen eingesetzten Technologien befinden sich in einem Wettlauf des zähen Ringens der Wettbewerber - jeder möchte mit seiner Technologie den Durchbruch zum universellen Quantencomputer schaffen. Dieser Wettlauf wird als offen angesehen - jeder Wettbewerber könnte den Durchbruch mit seiner Technologie schaffen. Der Staat, die EU, die Wirtschaft und die Kapitalanleger investieren sehr viel Geld in Forschungsprogramme, Unternehmen und Technologie-Startups.
Im Bereich der Quantenalgorithmen und der Quantensoftware sieht es sogar noch besser aus. Da die Datenverarbeitung der Quantenrechner auf klassischen Computern in einem kleinen Rahmen sehr gut simuliert werden kann, verzeichnet man hier erhebliche praktische Fortschritte. Sobald die Hardware ausreichend leistungsfähig ist, könnten heute schon entwickelte Algorithmen und Programme zum echten Einsatz kommen. Einen Überblick zu den vorhandenen Algorithmen bietet die Webseite „Quantum Algorithm Zoo“ [22].
Die Analysten, die Medien, die beteiligten Unternehmen, die Forschungsminister und die Investoren haben hohe Erwartungen für den Einsatz des Quantencomputing entfacht. Ob sich diese Erwartungen im Laufe der nächsten zehn Jahre ansatzweise erfüllen werden, ist derzeit noch offen.
Wenn man dies liest, stellen sich dem zukünftigen „Anwender“ vermutlich schon etliche Fragen: Wie funktioniert dieser „Wundercomputer“ eigentlich, auf den die ganze Welt extrem hohe Erwartungen setzt? Und was verspricht man sich denn genau von den Quantenrechnern? Werden in den Rechenzentren der Unternehmen eigene Quantenrechner aufgestellt werden?
Entwicklung der Quantenphysik
Alles begann im Jahre 1900 als der deutsche Physikprofessor Max Planck mit 42 Jahren über glühende Ofenrohre nachdachte. Je heißer man sie macht, desto mehr verändert das Eisen seine Farbe von rotglühend zu weißglühend und so weiter. Professor Planck kam auf eine Gleichung, die die Strahlung sog. Schwarzer Körper korrekt beschrieb [3].
Bis dahin glaubten die Physiker an eine Kontinuität in der Natur. Der Weg und die Kraft des Apfels, welcher auf Isaac Newtons Kopf fiel, waren genau berechenbar und kontinuierlich, wie der Kopfschmerz, den er durch seinen Aufprall erzeugte.
Max Planck musste feststellen, dass die Strahlung beim Ofenrohr nicht kontinuierlich ist, sondern „Quantensprünge“ enthält, d.h., dass die Materie die Strahlungsenergie nur in Form bestimmter letztlich diskontinuierlicher Energiequanten aufnehmen und abgeben kann. So wurde der Begriff der „Quanten“ geboren. Das erhitzte Metall sendet Teilchen aus, die wir als Wärme, Licht, Strahlung spüren. Doch Diskontinuität in der Welt der Teilchen - das konnten sich die Physiker nun wirklich nicht vorstellen!
Im Jahre 1905 gelang es dann dem 26-jährige Physiker Albert Einstein - Sohn schwäbischer Entrepreneure, begabter Theoretiker, aber zu diesem Zeitpunkt weder promoviert noch an der Universität tätig - in einer Reihe von fünf wegweisenden Veröffentlichungen auf der Basis u.a. der Planck‘schen Formel die Grundlagen der Quantenphysik und Relativitätstheorie zu legen. Man nennt das Jahr 1905 deshalb eines der „Wunderjahre“ der Physik (Annus mirabilis) [6].
Kurz gesagt verhält sich die Welt im großen Maßstab (wie dem Universum), wie im kleinen Maßstab (auf Teilchen- und Atomebene) nicht so, wie wir Menschen es mit unserem „gesunden Menschenverstand“ gewohnt sind. Der Raum wird gekrümmt, die Zeit verläuft irgendwie anders und Teilchen verhalten sich seltsam und ... diskontinuierlich (man muss die Wahrscheinlichkeitsrechnung heranziehen, um zu wissen, wo sie sind oder nicht sind oder gleichzeitig sind...). Andere Dimensionen zeigen uns „Naturgesetze“ und wunderliche Erscheinungen, welche wir nach unserer Welterfahrung so nicht erwarten.
Diese Erkenntnisse führten im weiteren Fortgang zu einem immensen technischen Fortschritt, von der Atomenergie und Atombombe, über die Transistortechnik und Computerisierung bis hin zu Nanotechnologie usw. - man muss sich vorstellen, dass in den westlichen Ländern schon heute etwa 30 Prozent des Bruttosozialproduktes aus Anwendungen der Quantenmechanik der ersten Generation kommen [4].
Hierzu sagt der Experimentalphysiker Rainer Blatt „In der Elektronik arbeiten alle Transistoren mit Quantenphänomenen, aber auch GPS-Geräte, Messtechnik, Radartechnologien, Laserdrucker und CD-Player - die Quantentechnik hat schon jetzt einen riesigen Einfluss auf die Industrie.“ [4]
Entwicklung des Quantencomputing
Beginnend ab den späten 1960iger Jahren entwickelte sich ein neues wissenschaftliches Fach, die Quanteninformatik. In diesem Fachgebiet befassen sich Mathematiker, Physiker, Chemiker und Informatiker mit der Informationsverarbeitung und der Datenübertragung auf der Grundlage der Quantentheorie.
Der Physiker Richard Feynman dachte 1981 an einen Computer, mit dem man mit Quantenmechanik die Quantenmechanik simulieren könnte. Doch solch ein Quantenrechner war zu dieser Zeit technisch erst einmal Science-Fiction...
Nach grundlegenden Untersuchungen von David Deutsch und Richard Jozsa Anfang der 1990er Jahre gelang es Peter W. Shor nachzuweisen, dass ein nach quantenmechanischen Regeln operierender Computer seinem klassischen Gegenstück im Lösen einer speziellen Rechenaufgabe überlegen wäre. Dies sollte mit der Manipulation von Teilchen im subatomaren Bereich erreicht werden (sog. Quantenverschränkung oder Superposition).
Als Quantenverschränkung bezeichnet man das Phänomen, dass zwei räumlich voneinander getrennte Teilchen Informationen über ihre Eigenschaften instantan (d.h. ohne Zeitverzögerung) austauschen können. Dies widerspricht zwar allen Gesetzen der klassischen Physik aber die Verschränkung ist sowohl experimentell nachgewiesen als auch im praktischen Einsatz bei den Quantencomputern wirksam.
Zeitgleich zu den Konstruktionskonzepten gab es rasante Fortschritte in der Experimentalphysik. Einzelne Ionen, Atome, Photonen, Kernspins und ähnliche Systeme lassen sich inzwischen kontrolliert manipulieren. Quanteneffekte auf mikroskopischer Skala zu beobachten, gehört zu den Routineübungen in der Grundlagenforschung.
Mit der Quanteninformatik und der Experimentalphysik hatte man nun die Instrumente in der Hand den Bau echter Quantencomputer anzugehen. Innerhalb von wenigen Jahrzehnten hat man es nun geschafft beginnend seit den 1990er Jahren funktionierende Quantencomputer zu bauen, welche verschiedene Quanteneffekte nutzen.
Aktueller Sachstand des Quantencomputing
Den aktuellen Sachstand können wir heute im Jahr 2022 folgendermaßen beschreiben:
Quantencomputer sind extreme Mess- und Steuergeräte, welche in speziell abgeschirmten Umgebungen / Laboren betrieben werden. Sie funktionieren nicht wie unsere heutigen „klassischen“ Computer - auch wenn viele Begriffe ähnlich klingen. Ein Teil der nächsten Generation der Informatiker wächst gerade wie selbstverständlich in diese Technologie hinein und es wird bald die „Quanten-Natives“ und „Quanten-Boomer“ geben, auch wenn man sie heute noch nicht so nennt.
Ein Personal-Quantencomputer (Quanten-PC) ist bei geeigneter Technologie schon vorstellbar (z.B. „Diamant-Quantencomputer“), ein Quanten-Handy wohl nicht.
Die Quantenrechner sind spezielle Rechner, welche nur für sie passende Problemstellungen bearbeiten können. Sie müssen deshalb im Verbund mit den „klassischen“ Rechnern zusammenarbeiten und über Schnittstellen mit diesen Rechnern kommunizieren. Dieser Aufbau wird „hybride“ Nutzung von klassischen Computern und Quantencomputern genannt.
Trotz aller Schwierigkeiten werden die Quantencomputer, sobald sie entsprechend ausgebaut sind und funktionieren, Rechenergebnisse für die speziellen geeigneten Probleme in kürzester Zeit berechnen. Dies begründet dann den Zustand der Quantenüberlegenheit (englisch Quantum Supremacy), ein Begriff, mit dem man die Überlegenheit von Quantencomputern gegenüber klassischen Supercomputern bei der Lösung eines komplexen Problems bezeichnet. Gemeint ist der Zeitpunkt, ab dem ein Quantencomputer eine Aufgabe in akzeptabler Zeit lösen kann für die ein Computer, dessen Technik auf herkömmlicher Digitaltechnik basiert, eine nicht realisierbare Rechenzeit benötigen würde [27].
Auf diese Quantenüberlegenheit setzt man nun alle Hoffnungen und sie begründen den Hype der Quantencomputer. Die Berechnung von neuen Molekülen in der Pharmaforschung, neuen Werkstoffen für die Batterie- und Akkufertigung, schnelle Derivatebewertungen in der Finanzindustrie, welche auf physikalischen Formeln beruhen, Optimierungsrechnungen für die Künstliche Intelligenz und vieles mehr können neue - heute nicht in vernünftiger Zeit berechenbare - Produkte erschaffen.
Das folgende Schaubild demonstriert die Quantenüberlegenheit anhand der Primfaktorzerlegung mit dem Shor-Algorithmus. Während normale Computer dies lediglich durch Probieren aller Lösungen erreichen und an sehr großen Zahlen mehrere Jahre / Jahrzehnte rechnen müssten, wächst die Rechenzeit des Shor-Algorithmus deutlich weniger mit der Länge der Eingabe, da er alle Möglichkeiten gleichzeitig testet.
Abb. 3: Vergleich Zeitaufwand der Primfaktorzerlegung mit dem Shor-Algorithmus auf Quantenrechnern und auf klassischen Rechnern zur Darstellung der Quantenüberlegenheit [23]
Die schnelle Auflösung der primfaktorbasierten Verschlüsselung mit Quantenrechnern wird unsere moderne Verschlüsselungstechnologie unbrauchbar machen. Hier wird schon gegengesteuert, denn wenn es einen leistungsfähigen Quantencomputer gibt, kann man damit auch heutige Nachrichten dechiffrieren, welche man jetzt schon mal vorsorglich sammelt (die Geheimdienste dieser Welt „steal now - decrypt later“). Die Dechiffrierung heutiger Nachrichten wäre auch in etlichen Jahren vermutlich ein Desaster - deshalb sucht man nach sicheren Lösungen.
Quantencomputer werden deshalb in zwei Gebieten der Informationssicherheit eine sehr wichtige Rolle spielen [9]:
Post-Quantum-Kryptografie: Quantencomputer werden Public-Key-Verfahren der Verschlüsselungen brechen können; um dagegen gewappnet zu sein, wird Post-Quantum-Kryptografie nötig, welche nicht gebrochen werden kann
Quantenkryptografie: diese Anwendung umfasst die sichere Übermittlung von Krypto-Schlüsseln
Fazit:
Mit den geschilderten Rechenmöglichkeiten werden manche neu-geschaffene Produkte und neu-entwickelte Technologien zu „bahnbrechenden“ und disruptiven Folgen auf den Märkten und für Unternehmen führen.
In der Havard Business Review (Januar / Februar 2022) haben die Autoren Ruane / McAfee / Oliver einen wegweisenden Artikel mit dem Titel „Quantum Computing for Business Leaders“ herausgebracht [5]. Dieses Kapitel baut auf den im Artikel dargelegten Ideen auf.
Da nur sehr wenige Unternehmen Quantenrechner selbst betreiben werden, sind besonders die Algorithmen wichtig, welche sich am ehesten für Geschäftsprozesse einsetzen lassen. Diese Algorithmen lassen sich in folgende fünf Familien einteilen:
Simulation
Lineare Systeme
Optimierung
Unstrukturierte Suche
Primzahlzerlegung (Faktorisierung) sowie Verschlüsselung.
Zur Entwicklung von Technologiestrategien wollen wir in diesem Abschnitt auf die grundlegenden Faktoren eingehen:
Zeitliche Aspekte: Wie lange dauert es voraussichtlich bis zur ersten produktiven Nutzungsmöglichkeit von Quantencomputern?
Beschreibung der Algorithmen nach den fünf Familien zur Identifikation der Nutzungsmöglichkeiten für das eigene Unternehmen
Entwicklung einer Technologiestrategie
Zeitliche Aspekte bei der Einführung von Quantencomputer
Zur Entwicklung einer Technologiestrategie eines Unternehmens muss man im Falle der Quantencomputer erst einmal auf die Verfügbarkeit der Technologie eingehen. Die Autoren des vorgenannten Artikels verweisen darauf, dass Prozessorentwicklung schon bei den herkömmlichen Computern von der Erfindung des Transistors (1947) bis zum 4-Bit-Prozessor 25 Jahre und weitere 25 Jahre bis zu einer guten Leistungsdichte benötigte. Aber auch mit weniger leistungsfähigen Prozessoren konnte man schon viel machen.
Trotzdem die Entwicklungszeit der Hardware auch für Quantencomputer ähnlich lange dauern kann, sei es nicht zu früh für das Management, sich ein solides Verständnis für Quantenanwendungen zu verschaffen, um das Unternehmen so zu positionieren, dass es in den kommenden Jahrzehnten von der Quantentechnologie profitieren und in manchen Fällen auch einfach nur den vielleicht auftretenden Konkurrenzkampf überleben kann. Dazu kann man ergänzen, dass die neue Technologie die bestehende Computertechnologie erweitert. Man betritt also nicht das unbekannte Neuland, wie bei der Entwicklung der ersten Generation von Computern mit Transistortechnik.
Die Marktforschungsunternehmen halten sich zurück mit ihren Prognosen, in welcher Dekade universelle Quantencomputer eingeführt werden könnten. Es werden mehrere Dekaden genannt und die Erwartungen erst mal gedämpft.
Aber eine große Lösung wird vielleicht gar nicht für die erste erfolgreiche Einführung gebraucht: deshalb werden sog. Low-hanging-fruits gesucht. Dies sind Algorithmen, welche schon mit leistungsschwacher Quantenhardware in wenigen Jahren einen Quantenvorteil erreichen können.
Das spanische Startup-Unternehmen Multiverse Computing behauptet zum Beispiel, dass Finanzunternehmen durch den Einsatz von Quantencomputern bei der Lösung von Problemen wie der Portfolio-Optimierung und der Betrugserkennung bereits eine Quantenüberlegenheit mit dem Faktor 100 gegenüber aktuellen Computerarchitekturen erzielen könnten [7].
Man kann davon ausgehen, dass auf der Algorithmus-Seite sehr stark gearbeitet wird, um Low-hanging-fruits zu finden und produktiv einzuführen. Wenn dies gelingt, können Erstanwender (early adopters) Vorteile am Markt zu einem überraschend frühen Zeitpunkt erreichen.
Fünf Algorithmen-Familien des Quantencomputings
Die technische Einführung des Quantencomputings in den Rechenzentren der Unternehmen wird vermutlich nicht auf der Tagesordnung stehen, weil der Betrieb von Rechnern mit der Manipulation subatomarer Teilchen für die meisten Unternehmen keine Kernkompetenz darstellen dürfte und viel zu teuer sein würde. Deshalb werden die Hersteller solcher Systeme Rechenkapazitäten „in der Cloud“ anbieten und die zukünftigen Nutzer sollten sich deshalb eher mit den für sie in Frage kommenden Algorithmen beschäftigen. Die Nutzung der Möglichkeiten und nicht der technische Betrieb solcher Rechner wird für die meisten Unternehmen ausschlaggebend sein.
Wie schon beschrieben gliedern die Autoren Ruane / McAfee / Olive die Quantenalgorithmen in folgende fünf Familien [5], auf die wir im Folgenden eingehen werden:
1) Simulation, 2) Lineare Systeme, 3) Optimierung, 4) Unstrukturierte Suche und 5) Primzahlzerlegung (Faktorisierung) sowie Verschlüsselung
Unternehmen müssen nun im ersten Schritt analysieren, ob ihre Produkte und ihre Marktstellung durch die Anwendung solcher Algorithmen durch Wettbewerber gefährdet sein können. Wenn dies zutrifft, ist die Aufstellung einer Technologie-strategie zur Nutzung des Quantencomputings im eigenen Unternehmen unbedingt empfehlenswert, um nicht schlimmstenfalls aus dem Markt befördert zu werden.