Quantencomputing für Dummies - Hans-Jurgen Steffens - E-Book

Quantencomputing für Dummies E-Book

Hans-Jürgen Steffens

0,0
23,99 €

-100%
Sammeln Sie Punkte in unserem Gutscheinprogramm und kaufen Sie E-Books und Hörbücher mit bis zu 100% Rabatt.
Mehr erfahren.
Beschreibung

Quantencomputing könnte die Informatik wie wir sie heute kennen revolutionieren. Die Möglichkeiten dieser Technologie sind enorm. Aber was steckt eigentlich dahinter? Mit diesem Buch führen Sie die Autoren so verständlich wie möglich in dieses komplexe Thema ein. Sie erklären Ihnen was es mit dem Quantencomputing überhaupt auf sich hat und erläutern die mathematischen und physikalischen Modelle, die ihm zugrunde liegen. Sie vergleichen Quantencomputing mit der aktuellen Informatik und werfen einen Blick darauf welche Anwendungen dadurch schon bald und welche in der weiteren Zukunft denkbar sind.

Sie lesen das E-Book in den Legimi-Apps auf:

Android
iOS
von Legimi
zertifizierten E-Readern

Seitenzahl: 385

Veröffentlichungsjahr: 2022

Bewertungen
0,0
0
0
0
0
0
Mehr Informationen
Mehr Informationen
Legimi prüft nicht, ob Rezensionen von Nutzern stammen, die den betreffenden Titel tatsächlich gekauft oder gelesen/gehört haben. Wir entfernen aber gefälschte Rezensionen.



Quantencomputing für Dummies

Schummelseite

EXPONENTIALFUNKTION UND LOGARITHMUS

TRIGONOMETRISCHE FUNKTIONEN

FORMELN ZUR BLOCHSPHÄRE

Übergang Blochsphäre zu komplexem Einheitsvektor:

BELL-ZUSTÄNDE

MATRIXOPERATIONEN UND TENSORPRODUKTE

Matrixmultiplikation von mit liefert mit

Tensorprodukt zweier Vektoren in Komponentendarstellung:

Basis des Tensorprodukts zweier zweidimensionaler Vektorräume:

PAULI-MATRIZEN

Quantencomputing für Dummies

Bibliografische Information der Deutschen Nationalbibliothek

Die Deutsche Nationalbibliothek verzeichnet diese Publikation in der Deutschen Nationalbibliografie;detaillierte bibliografische Daten sind im Internet über http://dnb.d-nb.de abrufbar.

1. Auflage 2022© 2022 Wiley-VCH GmbH, Boschstraße 12, 69469 Weinheim, Germany

All rights reserved including the right of reproduction in whole or in part in any form. This book published by arrangement with John Wiley and Sons, Inc.

Alle Rechte vorbehalten inklusive des Rechtes auf Reproduktion im Ganzen oder in Teilen und in jeglicher Form. Dieses Buch wird mit Genehmigung von John Wiley and Sons, Inc. publiziert.

Wiley, the Wiley logo, Für Dummies, the Dummies Man logo, and related trademarks and trade dress are trademarks or registered trademarks of John Wiley & Sons, Inc. and/or its affiliates, in the United States and other countries. Used by permission.

Wiley, die Bezeichnung »Für Dummies«, das Dummies-Mann-Logo und darauf bezogene Gestaltungen sind Marken oder eingetragene Marken von John Wiley & Sons, Inc., USA, Deutschland und in anderen Ländern.

Das vorliegende Werk wurde sorgfältig erarbeitet. Dennoch übernehmen Autoren und Verlag für die Richtigkeit von Angaben, Hinweisen und Ratschlägen sowie eventuelle Druckfehler keine Haftung.

Coverfoto: Siarhei – stock.adobe.comKorrektur: Claudia Lötschert

Print ISBN: 978-3-527-71815-3ePub ISBN: 978-3-527-83077-0

Über den Autor

Prof. Dr. Hans-Jürgen Steffens studierte Mathematik, Physik und Informatik an den Universitäten Saarbrücken und Göttingen. Später promovierte er in mathematischer Philosophie bei Kuno Lorenz an der Universität Saarbrücken zum Dr. phil. Er lehrt seit über zwanzig Jahren Informatik, Mathematik, später auch Halbleiterphysik, Philosophie und Quantencomputing an der Hochschule Kaiserslautern am Standort Zweibrücken. Er etablierte und leitete lange Jahre den Master-Studiengang Informatik und ist seit dem WS 2020/21 Seniorprofessor.

Christian Zöllner pflegte ursprünglich ein eher ambivalentes Verhältnis zur Mathematik. Trotzdem studierte er erfolgreich medizintechnische Informatik an der Hochschule Kaiserslautern am Campus Zweibrücken. Dort ist er seit mehreren Jahren in Forschung und Lehre tätig. Er hat eine stark interdisziplinäre Sicht auf die Informatik, was auch in seinem derzeitigen Zweitstudium der Sozialen Arbeit an der Hochschule Mannheim Ausdruck findet, das er im WS 2020/21 erfolgreich beendet hat.

Kathrin Schäfer geb. Mühlmann kam als Bachelor der Betriebswirtschaft an den Zweibrücker Standort der Hochschule Kaiserslautern, um dort ein Zweitstudium der angewandten Informatik zu beginnen. Sie will nicht nur wissen, sondern stets auch verstehen, so dass in ihren Augen schlecht verständliche Passagen des Buchs einer gnadenlosen Revision unterworfen wurden. Ihr Studium der angewandten Informatik hat sie im WS 2020/21 erfolgreich beendet.

Substanzielle Beiträge wurden erbracht von

Lorena Mayer schloß 2019 erfolgreich ihre Ausbildung als technische Produktdesignerin ab und wurde für ihre Leistungen als Beste Absolventin der Pfalz ausgezeichnet. Anschließend begann sie im Fachbereich Informatik, Digital Media Marketing an der Hochschule Kaiserslautern zu studieren, welches sie voraussichtlich im Frühjahr 2023 beendet. Sie unterstützte das Autorenteam bei der Anfertigung von Grafiken und der Erstellung von Teilen des Anhangs. Wertvoll waren ihre Prüfungen des Textes auf Verständlichkeit aus fachfremder Sicht.

Sagani Naguleswaran studierte erfolgreich Medieninformatik an der Hochschule Kaiserslautern Campus Zweibrücken. Nun fängt sie mit ihrem Master in Informatik an und war an der Erstellung von Grafiken und Teilen des Anhangs beteilgt. Ihrer Begabung als Hobbymalerin verdanken wir viele handgezeichnete Graphiken, die – so hoffen wir – auflockernd wirken. Auf Grund ihrer langjährigen Erfahrung als studentische Hilfskraft in der Unterstützung der Lehre konnte sie wichtige Impulse bei der Aufbereitung des Stoffs geben.

Inhaltsverzeichnis

Cover

Titelblatt

Impressum

Über den Autor

Einleitung

Über dieses Buch

Danksagungen

Teil I: Neue Phänomene und neue Betrachtungsweisen

Kapitel 1: Quantencomputing – hope or hype?

Analogcomputer – Digitalcomputer – Quantencomputer

Verheißungen

Berechenbarkeit und ihre Grenzen

Kapitel 2: Unterschiede, die einen Unterschied machen

Bits und Qubits

Im Herzen des Quantencomputing

Operationen mit Vektoren – Ausblick auf Matrizen

Kapitel 3: Matrizen

Zum Einsatz und zur Handhabung von Matrizen

Zwischenbetrachtung: Klassische Bits und Bitfolgen als Vektoren

Bellzustände

Ausblicke

Kapitel 4: Teleportation – abstrakt und physikalisch

Beam me up, Scotty

Teil II: Neue Spielregeln in der Physik

Kapitel 5: Hinter dem Monitor

Die klassische Sichtweise

Kapitel 6: Abstieg in die Unterwelt

Geänderte Spielregeln

»Law without law«

R

-Prozesse – Messungen

U

-Prozesse – ungestörte Dynamik

Einige »Gretchenfragen«

Management Summary

Letzte Notizen zum Messproblem in der Quantenmechanik

Teil III: Qubits und ihre Operatoren

Kapitel 7: Bits – als Vektoren betrachtet

Bits und Qubits

Kapitel 8: Qubits – revisited

Qubits und ihre Operatoren

Universalitätseigenschaften der Qubit-Operationen

Notizen zu physikalischen Implementierungen

Kapitel 9: Methoden der Fehlerbehandlung

Bitflip-Codes

Phasenflip-Codes

Shor-Code

Teil IV: Quantenfouriertransformationen und mehr

Kapitel 10: Fouriertransformationen

Vorüberlegungen zur Fourieranalyse

Zur Fourieranalyse

Auf dem Weg zur diskreten Fouriertransformation

Eine Herleitung der diskreten Fouriertransformation

Die diskrete Fouriertransformation als lineare Abbildung

Die Quantenfouriertransformation

Implementierung der Quantenfouriertransformation

Kapitel 11: Anwendungen der Quantenfouriertransformation

Phasenschätzung

Folgerungen der Phasenabschätzung: Wege zum Bestimmen der »Ordnung« einer Zahl

Der Shor-Agorithmus

Teil V: Weitere Anwendungen

Kapitel 12: »Feind hört (nicht) mit«

Zum Einstein-Podolski-Rosen-Paradoxon

Die bellsche Ungleichung

Unvereinbarkeit der bellschen Ungleichung mit der Quantenmechanik

(K)ein »Knacken in der Leitung«

Kombination mit klassischen Verschlüsselungsverfahren

Kapitel 13: Wer suchet, der findet (schneller)

Die Suche im Heuhaufen

Idee des Grover-Algorithmus

Kapitel 14: Zur Quantensimulation durch Quanten

Bemerkungen zu analogen Verfahren

Adiabatisches Quantencomputing

Teil VI: Top Ten Teil

Kapitel 15: Ein Zusammenspiel von Physik, Mathematik, Informatik und Ingenieurwissenschaften in 10 Schritten

Anhang

Anhang A: Theoreme zur klassischen Zahlentheorie

Restklassenringe

Return on Invest – das RSA-Verfahren in der Kryptologie

Faktorisierung

Notizen zu Kettenbrüchen

Anhang B: Komplexe Zahlen

Die komplexe

e

-Funktion

Komplexe Zahlen als Matrizen

Anhang C: Stochastik

Einführung

Benutzung mengentheoretischer Operationen

Wahrscheinlichkeitsräume in der Quantenmechanik

Anhang D: Identische Teilchen

Klassischer Münzwurf

»Münzwurf« mit Mikroteilchen

Anhang E: Lineare Algebra in a nutshell

Vektoren

Darstellung von Vektoren im dreidimensionalen Raum

Abstrakte Vektorräume

Linearkombinationen, Basen und Dimensionen

Normierte Vektoren und Orthonormalbasen

Hilberträume

Kartesische und Tensorprodukte

Lineare Abbildungen

Lineare Abbildungen und Matrizen

Unitäre Operatoren

Hermitesche Operatoren

Anhang F: Wichtige Hermitesche Operatoren in der Quantenmechanik

Zur physikalischen Interpretation der Wellenfunktion

Der Hamiltonoperator

Anhang G: Schrödingergleichung

Anhang H: Symbolverzeichnis

Abbildungsverzeichnis

Stichwortverzeichnis

End User License Agreement

Orientierungspunkte

Cover

Titelblatt

Impressum

Über den Autor

Inhaltsverzeichnis

Einleitung

Fangen Sie an zu lesen

Anhang A: Theoreme zur klassischen Zahlentheorie

Anhang B: Komplexe Zahlen

Anhang C: Stochastik

Anhang D: Identische Teilchen

Anhang E: Lineare Algebra in a nutshell

Anhang F: Wichtige Hermitesche Operatoren in der Quantenmechanik

Anhang G: Schrödingergleichung

Anhang H: Symbolverzeichnis

Abbildungsverzeichnis

Stichwortverzeichnis

End User License Agreement

Seitenliste

1

2

3

4

7

8

9

21

22

23

24

25

26

27

28

29

30

31

32

33

35

36

37

38

39

40

41

42

43

44

45

46

47

48

49

50

51

52

53

54

55

56

57

58

59

61

62

63

64

65

66

67

68

69

70

71

72

73

74

75

76

77

78

79

80

81

82

83

84

85

86

87

88

89

90

91

92

93

94

95

96

97

98

99

100

101

102

103

104

105

106

107

108

109

110

111

112

113

114

115

116

117

118

119

120

121

122

123

124

125

126

127

128

129

130

131

132

133

134

135

136

137

138

139

140

141

142

143

144

145

146

147

148

149

150

151

152

153

154

155

156

157

158

159

160

161

162

163

164

165

166

167

168

169

170

171

172

173

175

176

177

178

179

180

181

182

183

184

185

186

187

188

189

190

191

192

193

194

195

196

197

198

199

200

201

202

203

204

205

206

207

208

209

210

211

212

213

214

215

216

217

218

219

220

221

222

223

224

225

226

227

228

229

230

231

232

233

234

235

236

237

238

239

240

241

242

243

245

246

247

248

249

250

251

252

253

254

255

256

257

258

259

261

262

263

264

265

266

267

269

270

271

272

273

274

275

276

277

278

279

280

281

283

284

285

286

287

288

289

291

292

293

294

295

296

297

298

299

301

302

303

304

305

306

307

308

309

310

311

312

313

314

315

316

317

318

319

320

321

322

323

324

325

326

327

328

329

330

331

332

333

334

335

336

337

339

340

341

342

343

344

347

348

349

350

Einleitung

Solange man eine Wahrheit als tief empfindet,

solange hat man sie noch nicht richtig verdaut.

Über dieses Buch

Es ist ein faszinierender Zug unseres Universums, dass es sich als berechenbar erweist und dadurch uns gleichzeitig Werkzeuge schaffen lässt, das Universum – sagen wir besser: kleine Teile davon – berechnen zu können. Unter Benutzung der mechanischen Gesetzmäßigkeiten wurden schon früh »Kalkulatoren« konstruiert, zum Beispiel von Gottfried Leibnitz, Blaise Pascal und anderen.

Manche der Naturgesetze wirkten im Verborgenen. Erst mit dem Eindringen in die Mikrowelt zeigten sie sich. Dabei wurden nicht einfach nur neue Regeln sichtbar, sondern es wurde ein ganz neues »Paradigma« der Naturbeschreibung geboten. Diese neuen Gesetzmäßigkeiten lassen sich zum Bau neuer (Quanten-)Kalkulatoren nutzen, was an sich vor dem Hintergrund früher gemachter Erfahrungen nicht so überraschend sein musste. Relevant ist, dass man unter Ausnutzung der neuen Gesetzmäßigkeiten um vieles schneller rechnen kann. Man rechnet geradezu in einer neuen Liga. Hinzu kommt, dass eine effiziente Berechnung mikrophysikalischer Prozesse erst mit den neuen Quantenkalkulatoren möglich wird. Es gilt gleichsam: »Die effiziente Berechnung von Quantenprozessen erfordert den gezielten Einsatz von Quantenprozessen«.

In diesem Sinne ist es ein Ziel dieses Buchs, sowohl die dem Quantencomputing zugrunde liegenden Prinzipien zu beschreiben als auch die darauf beruhenden innovativen Algorithmen.

Törichte Annahmen über die Leser

Das Buch ist hervorgegangen aus einer Reihe von Seminaren, die an unserer Hochschule und in Schloss Dagstuhl, zum Teil in Kooperation mit der Universität des Saarlands, durchgeführt wurden. Viel Feedback unserer Studenten ist eingegangen, und so ist das Buch vor allem für Studenten gedacht, die sich mit dem relativ neuen und sich dynamisch entwickelnden Gebiet auseinandersetzen möchten. Mit einem gewissen Basiswissen aus der linearen Algebra und Wahrscheinlichkeitstheorie wird ihnen – so unsere Hoffnung – hier eine gute Handreichung geboten. In diesem Kontext können wir uns natürlich auch vorstellen, dass auch der eine oder andere Kollege einen Blick hinein wagen möchte. Vielleicht findet er den einen oder anderen Abschnitt dabei sogar etwas »süffig«.

Ein paar subtile Hintergedanken, was weitere Kreise unserer potenziellen Leserschaft anbetrifft, hatten wir darüber hinaus. Wir nehmen hierzu eine kleine »literarische Anleihe« beim ehemaligen Forschungsminister Volker Hauff, der zur Neuerscheinung der deutschen Ausgabe des Scientific American ein Geleitwort schrieb:

»Wissenschaft, Forschung und Technologie sind heute entscheidende Einflußfaktoren unserer gesamtgesellschaftlichen Entwicklung. […] Der Dialog zwischen Wissenschaft und Öffentlichkeit setzt die laufende Information über wissenschaftliche, technologische und ökonomische Entwicklungen, ihre Alternativen und Konsequnezen voraus: Information aller am Innovationsprozeß interessierten Unternehmen, Verbände, Wissenschaftler und natürlich der staatlichen Institutionen; Information der Bürger, weil demokratische Beteiligung davon abhängt, daß neue Entwicklungen rechtzeitig gesehen, verstanden und bewertet werden.«

Und bereits 15 Jahre vorher schrieb der seinerzeitige Forschungsminister Hans Lenz zur Gründung der Zeitschrift »Bild der Wissenschaft«:

»…die Öffentlichkeit wird nur dann auf eine großzügige Förderung der Wissenschaft drängen, wenn sie sich der steigenden Bedeutung der Wissenschaft bewußt ist. «

Nun hat man durchaus den Eindruck, dass die »Öffentlichkeit sich der Bedeutung der Wissenschaft bewußt ist«, wo man hingegen Zweifel hegen mag, ist, ob »neue Entwicklungen wirklich verstanden werden«, um sie selbst angemessen bewerten zu können. Man verlässt sich auf Experten und gerät unversehens in ein Fahrwasser der – pardon – »Wahrheitsfindung per Zitatologie«.

Damit kommen wir aber zu einem systemischen Problem: Der vermittelnde Wissenschaftler hat die Zeit, sein Thema aufzubereiten, der Adressat muss sie sich in Konkurrenz zu anderen Interessen und Verpflichtungen nehmen. Dies betrifft insbesondere politische und sonstige Meinungsführer, die keine Zeit haben. Sie haben einfach nie Zeit. Sogar die jungen Leute an unseren Hochschulen, denen man noch eine gewisse Zeitsouveränität zubilligen würde, sind – das ist so schnell wohl nicht zu ändern – sehr von ihren Smartphones und YouTube absorbiert. Für die früheren Generationen der Karl-May-Leser war das Lesen gedruckter Bücher noch selbstverständlicher. Heute muss man dafür werben. Und wir denken, dass es exzellente Gründe gibt, zu einem Buch zu greifen. Wir sehen ein gutes Buch als »Haupttriebwerk« und die YouTube-Videos als »Booster«.

Wenn wir mit unseren Hintergedanken über unsere Studenten und Kollegen hinaus an Entscheider oder andere Multiplikatoren wie Fachjournalisten denken, stellt sich die ganz praktische Frage, wie man potenzielle Leser animieren kann, im Buch zu schmökern. Nicht aus unangenehmer Pflicht, sondern lustvoll.

Wie also kann man potenzielle Leser animieren, zu einem/diesem Buch zu greifen? Man sollte es zum einen bebildern, und zwar mit Grafiken, die überraschende Botschaften beinhalten. Dies haben wir in den ersten Kapiteln versucht, etwa mit dem Bild eines neugierigen Menschen, der hinter den Monitor zu blicken versucht. Einen Schuss »Zauberei« haben wir dazugegeben, zum Beispiel beim Bombentest-Experiment mittels einer »Nullmessung« vor dem Hintergrund des Doppelspaltexperiments. Dabei haben wir den Stoff in möglichst kleine Häppchen aufgeteilt mit vielen verschiedenen »Einsprungstellen«. Der Preis hierfür besteht in einer gewissen Redundanz, in Wiederholungen von zum Teil schon vorher Gesagtem. (Allerdings hat eine maßvolle Redundanz in den Lehrveranstaltungen unsere Studenten nie so wirklich gestört …)

Insofern haben wir die Hoffnung, den einen oder anderen aus den genannten Personengruppen zunächst zum Blättern und dann doch zum Lesen zu verführen.

Vor welchen speziellen Herausforderungen standen wir?

Ein Buch über »Quantencomputing« erfordert wie schon angedeutet einen Spagat zwischen Anschaulichkeit – das sind die klassischen Anforderungen einer breiteren Leserschaft – und einer Beschreibung der eigentlich unanschaulichen Prozesse in der Mikrowelt – das sind die nicht verhandelbaren Anforderungen der Natur selbst. Man ist in solchen Fällen geneigt, mit Metaphern zu arbeiten, die im Grenzfall dann eben doch eine falsche Anschaulichkeit vorspiegeln.

Geht es auch anders? In einer Rezension zu »The road to reality« von Roger Penrose lesen wir:

»Die übliche Weise moderne Physik einem größeren Auditorium zu vermitteln, sind Sachbücher, wie die von S. Hawking, P. Davis, J. Barrow oder B. Green nur um einige zu nennen, die sich wohl verdienter Weise großer Beliebtheit und Verbreitung erfreuen, leider weichen diese Darstellung - mit unter im entscheidenden Moment - in Metaphern aus, zum Beispiel wird das oft zitierte Gummituch als Gleichnis für die gekrümmte Raumzeit der Relativitätstheorie bemüht.«

Kenner dieses Buchs wissen, dass Penrose nicht in Metaphern ausweicht und dabei Stephen Hawking in dessen Ansicht, dass jede Formel in einem Buch die Anzahl der Leser halbiere, doch widerlegt. Ob das auch mit dem vorliegenden Buch gelingt, ist natürlich ein Experiment mit ungewissem Ausgang.

Wo liegen die verstandesmäßigen Knackpunkte?

In der evolutionären Auseinandersetzung mit der Natur haben wir einen Objektbegriff entwickelt und kalibriert, der sich bei kleinen Kindern innerhalb des ersten Lebensjahres konsolidiert. Die dabei gemachten Erfahrungen beziehen sich auf den Umgang mit Gegenständen, die aus vielen, vielen Elementarteilchen zusammengesetzt sind. Sie bestehen in der Regel aus oder mehr Atomen. Die Situation ist – um hier eine Metapher auf der »Metaebene« zu gebrauchen – vielleicht vergleichbar dem Blick auf einen Monitor oder Fernsehbildschirm aus der Ferne. Die Helligkeits- und Farbverteilungen der Pixels auf der Bildschirmoberfläche lässt uns reflexhaft Objekte und ihre Dynamik »sehen«. Nähert man sich dem Bildschirm, womöglich noch mit einer Lupe versehen, dann »verschwinden« die Objekte. Was bleibt, ist eine räumliche und zeitliche Verteilung von elementaren Einzelereignissen, eben das Aufleuchten einzelner Pixelpunkte. Erst in deren Aggregation und aus der Ferne betrachtet »entstehen« die Objekte.

Verlust der Anschaulichkeit

So haben wir es in der Mikrophysik, dem Geburtsort der Quantenmechanik, mit ganz andersartigen Teilchen (besser: Entitäten) zu tun, die man sich eben nicht mehr als kleine Billardbälle vorstellen sollte. Man spricht in solchen Fällen gerne davon, dass solche Objekte sowohl Wellen-als auch Teilcheneigenschaften besitzen, und nennt dies den »Welle-Teilchen-Dualismus«. Dies kann man tun. Ausgeblendet wird bei dieser Sprechweise, dass solche Teilchen durchaus in einer einheitlichen Datenstruktur codiert werden können, die beides automatisch enthält: Teilchen- und Wellencharakter. Hierzu, und das kann als ein Sprung in den »Abgrund« empfunden werden, wird als Rahmen im Allgemeinen ein unendlich dimensionaler Vektorraum mit darüber hinaus komplexwertigen Skalaren benötigt. Hier sind wir bei den sogenannten Hilberträumen. Eine mikrophysikalische Entität »ist« ein Element eines Hilbertraums.

Bekanntlich besitzt jeder Vektorraum ganz unterschiedliche Basen, die man sich als unterschiedliche Koordinatensysteme vorstellen kann. Jede Entität im Hilbertraum kann dann als geeignete Linearkombination – oder Überlagerung – von Basisvektoren beschrieben werden. Es sind zwei Basen, die hier eine prominente Rolle spielen. Diese Basen unterscheiden sich darin, dass die eine Basis den Teilchencharakter widerspiegelt oder »implementiert« und die andere den Wellencharakter. Welche der beiden Basen zur Anwendung kommt, hängt vom Messgerät ab. Der Messapparat »inkarniert« sozusagen die Basis, sodass es Messungen gibt, die den Teilchencharakter hervortreten lassen, und solche, bei denen die Welleneigenschaften manifest werden.

Nullmessungen

Eine gerne benutzte Sprechweise lautet auch, dass die zutage getretene Unfassbarkeit der Mikrowelt darauf beruhe, dass mit jedem Messvorgang eine unkontrollierbare Störung beim Messprozess auftrete. Das ist nicht (ganz) falsch, und findet in den Beschreibungen des Messprozesses seine Entsprechung. Dennoch kennt man auch hier das Phänomen der »Nullmessung«, bei der eben nichts »gestört« wird. Einzig die Tatsache, dass etwas gemessen werden könnte, dass also ein Messapparat »scharf gestellt« wurde, führt hier zu einem Effekt, der klassisch nicht zu erklären ist.

Damit stehen wir vor der folgenden Aufgabe

Will man es nicht bei phänomenologischen Situationsbeschreibungen begleitet von ungefähren Handbewegungen bewenden lassen, was einem gewissen Obskurantismus Vorschub leisten würde, dann hat man auch in einem »Dummy«-Buch eigentlich keine Wahl. Die Andersartigkeit der Mikrowelt ist in eine rationale Form zu bringen, und diese Form macht sich die schon erwähnten komplexen Vektorräume zunutze.

Man kann sich dabei auf den optimistischen Standpunkt stellen, dass dadurch wieder etwas »Anschaulichkeit« zurückkehrt. Denn zumindest niedrigdimensionale Vektorräume lassen sich leicht visualisieren. Den Übergang zu höherdimensionalen Räumen wird man dann nicht mehr als Übergang von der Quantität in eine neue Qualität empfinden.

Hat man damit die Quantenmechanik verstanden? Nicht ganz. Es bleiben die zufälligen Übergänge, die, da sie keinem Algorithmus gehorchen, genau deshalb nicht rational zu erfassen und zu »verstehen« sind.

Umgang mit der Komplexität

Auch hier ist ein Spagat vorzunehmen, den man schon vom Software Engineering und vom Programmverstehen her kennt. Große Programmpakete bestehen aus Millionen und aber Millionen Zeilen von Code. Auf der Code-Ebene einzusteigen, um auf diese Weise ein Programmverständnis zu erwerben, ist nur etwas für Temperamente, »die ausziehen wollen, das Fürchten zu lernen«. Und so gibt es auch in der Mathematik Theoreme, deren Beweise eigentlich nur »top down« zu verstehen sind, ausgehend von Beweisideen und der Beschreibung einer »Beweisarchitektur«. Die benutzten Hilfssätze, die Lemmata, kann man dann, sofern sie einem hinreichend plausibel erscheinen, überspringen. Will man es genau wissen, steigt man auch in deren Beweise ein.

In Originalaufsätzen wird dabei oft ein gerüttelt Maß an Vorwissen vorausgesetzt. Man schreibt für seinesgleichen auf der Peer-Ebene. Das ist, wenn man auf Augenhöhe kommunizieren kann, ein probates Mittel, die Komplexität auf ein erträgliches Maß zu reduzieren.

Für ein »Dummy«-Buch ist das natürlich kein gangbarer Weg. Der Kompromiss muss also darin bestehen, dass dort, wo wir das Herz der Quantenmechanik berühren, die Prozesse möglichst exakt – also ohne »suggestive Handbewegungen« – beschreiben. Dabei nehmen wir den Leser, wenn er sich denn führen lassen will, »eng an die Hand«. Das heißt, wir führen ihn in kleinen Schritten durch unwegsam erscheinendes Gelände. Wenn er geneigt ist, gewisse Sachverhalte zu glauben, kann er Abschnitte überspringen. Sollte er sich jedoch dazu entscheiden, wichtige Rechenschritte im Detail nachzuvollziehen, wird er feststellen, dass er es kann! Und sollte er sich im unwegsamen Gelände tasächlich verstiegen haben, rufe er die »Bergwacht« an: [email protected]. Wir holen Sie raus.

Was muten wir zu?

Man könnte befürchten, dass es von den Seiten abhängt, die man zufällig aufschlägt, ob weitergelesen wird oder nicht. Ob es also ein interessantes Bild oder eine Seite voller Formeln ist, die einem entgegenblickt. Nun muss ein Buch über Quantencomputing, wenn es ernstgenommen werden soll, Formeln und Herleitungen enthalten, auch wenn es sich als eine Einführung versteht. Wir haben darauf geachtet, die Herleitungen so ausführlich wie nur irgend möglich zu beschreiben. Das, von dem wir annehmen, dass es nicht zum Vorwissen gehört, wird in den laufenden Kapiteln und in separaten Anhängen beschrieben. Es sollte nach unseren Standards nachvollziehbar sein. Die Frage stellt sich natürlich, ob die ganzen Formeln nötig sind. In Artikeln der Tagespresse verzichtet man darauf und argumentiert mit Metaphern, wir hatten diesen Aspekt bereits angesprochen. Das kann durchaus hilfreich sein. Ein wirkliches Verständnis erhält man dadurch leider nicht.

Kommen wir damit nochmals zu unseren Politikern und sonstigen Entscheidern. Wir halten es für wichtig, dass auch hier (und auch bei anderen Fragen) ein tieferes Verständnis entwickelt wird. Um hier einen bekannten Satz abzuwandeln: »Vertrauen ist gut – selbst rechnen ist besser«. Man sollte wegkommen von blindem Vertrauen auf Experten, und ähnlich wie beim Umgang mit Zahlen sollte man Plausibilitätsbetrachtungen und Überschlagsrechnungen selbst durchführen können. Nichts ist schlimmer, als eine Antwort zu hören der Art: »Aber der Computer hat's doch gesagt.«

Worin also bestehen die nützlichen Voraussetzungen: Da sind zum einen die Vektorrechnung und der Umgang mit Matrizen, kurz ein Stück linearer Algebra. Von ihr lebt die Quantentheorie ebenso wie von der Wahrscheinlichkeitsrechnung. Wir denken, dass der bereitgestellte working set im Anhang die Hemmungen beseitigt, sich mit dem Quantencomputing ernsthaft auseinanderzusetzen.

Wie dieses Buch aufgebaut ist

So wie die Interessen der verschiedenen Lesergruppen unterschiedlich ausgeprägt sind, so werden unterschiedliche Einstiege in die Fragen und die Methodik des Quantencomputing als sinnvoll empfunden. Ein Blick aus der »Vogelperspektive« auf das Konzept »Computer« und »Berechenbarkeit« allgemein schien uns für ein einleitendes Kapitel unverzichtbar.

Teil I: Neue Phänomene und neue Betrachtungsweisen

Neue Perspektiven sollen also im ersten Teil vermittelt werden, ausgehend von dem, was die klassische Physik an Vorstellungen mitbrachte, ergänzt um das, was die Quantenphysik später dazugab. Der Kontrast zwischen klassischer und Quantenphysik sollte hier schon sichtbar anklingen. Auch denen, die einen besonderen Blick auf die Anwendungen haben, sollte hier eine erste Antwort gegeben werden.

Um die interessierten Leser nicht zu lange auf die Folter zu spannen, ist es wünschenswert, so früh wie möglich einen Einblick in die besonderen Fähigkeiten beim Quantencomputing zu erhalten. Hier biss sich die Katze ein wenig in den eigenen Schwanz. Für eine vernünftige Beschreibung benötigt es einiges an mathematischem Rüstzeug. Ein guter Kompromiss erschien uns, im zweiten Kapitel das sogenannte »dense coding« kombiniert mit einem ersten noch etwas oberflächlicheren Durchlauf durch die Qubits zu behandeln. Das dense coding ist zwar noch kein Quantenalgorithmus im engeren Sinne, die dabei benutzten Qubit-Manipulationen sind aber so grundlegend für die eigentlichen Quantenalgorithmen, dass sie einen ersten wichtigen Eindruck auf das Wesen des Quantencomputing vermitteln.

Das dritte Kapitel führt den Matrizenkalkül ein und nutzt ihn zu einer zweiten tiefergehenden Behandlung der Qubits. Das Konzept der Tensorprodukte wird übertragen auf Matrizen (allgemein Operatoren). Damit kann das dense coding prägnanter und nach unserem Empfinden auch eleganter beschrieben werden.

Mit diesem Rüstzeug versehen kommen wir im vierten Kapitel zum zweiten Beispiel, der Quantenteleportation, einem Klassiker im Kontext des Quantencomputing. Sie wird in zwei Sichtweisen präsentiert: rein mathematisch im Matrizenkalkül ohne eine physikalische Interpretation und einmal unter expliziter Benutzung des Tensorkalküls, in dem sich die physikalische Sichtweise widerspiegelt.

Teil II: Neue Spielregeln in der Physik

Eine neue Physik das Thema des zweiten Teils. Im Bemühen, möglichst früh charakteristische Beispiele zu bringen, die als Bausteine des Quantencomputing illustriert werden können, ist die Beschreibung quantentheoretischer Aspekte in den zweiten Teil gerückt. Der Übergang von der klassischen Physik zur Quantenmechanik beruht auf einer Remodellierung der Mikrowelt, wie sie im fünften Kapitel skizziert wird. Dort liegt die eigentliche Revolution.

Hierzu steigen wir im sechsten Kapitel bildlich in die »Unterwelt« ein. In der Mikrowelt findet eine Neubewertung des Konzepts zufälliger Ereignisse statt. Viel Raum und Zeit wird dafür verwendet, diesen Aspekt anhand des berühmten »Doppelspaltexperiments« in der Gegenüberstellung makroskopischer und mikroskopischer Prozesse zu illustrieren. Hier befindet sich das Einfallstor des nackten Zufalls, eines Zufalls, der nicht auf »zufälliger« Unwissenheit beruht. Dies ist der Punkt, an dem der berühmte Physiker Richard Feynman bemerkt: »Niemand versteht die Quantenmechanik«. Der reine Zufall ist eben algorithmisch nicht zu fassen und in genau diesem Sinne nicht zu verstehen. Wir sähen es als Lücke, würde der Leser eines Buches über Quantencomputing hierfür nicht sensibilisiert.

Teil III: Qubits und ihre Operatoren

Hiermit beginnt der Hauptteil des Buchs. Der mathematisch etwas versiertere Leser kann hier direkt einsteigen (und so finden wir hier zum Beispiel – wie oben erwähnt – gewisse Überlappungen zu vorangegangenen Kapiteln).

Zum Zweck einer sanften mathematischen Überleitung des klassischen Bit-Begriffs zum Qubit wird das Bit im siebten Kapitel voll in den mathematischen Rahmen der Qubits überführt. Aus Sicht der Informatik ist das zunächst ein Overkill: Es ändert sich am operationellen Verhalten der Bits nichts, aber der benutzte Formalismus ist komplexer. Aufgrund der Vorteile einer direkteren Vergleichbarkeit zwischen Bit und Qubit erschien es uns das aber wert. Als »Return on Invest« hat man dann im achten Kapitel bereits die passenden »unitären« Operatoren für die Handhabung von Qubits.

Das Quantencomputing wäre nur eine »Schönwetterveranstaltung«, wenn keine sinnvollen Maßnahmen zur Fehlerkorrektur vorlägen. Denn die physikalischen Bausteine zur Implementierung von Qubits sind »empfindlicher als ein Schmetterlingsflügel«. Die Beschreibung von Fehlerkorrekturen geschieht im neunten Kapitel.

Teil IV: Quantenfouriertransformationen und mehr

Quantenalgorithmen in Aktion sind das Thema des vierten Teils. Dreh- und Angelpunkt zentraler Algorithmen ist die Quantenfouriertransformation. Und wir nehmen uns viel Zeit, im zehnten Kapitel auch die Einzelheiten zu erklären.

Aufbauend auf der Quantenfouriertransformation werden im elften Kapitel die berühmten »Killerapplikationen«, der Shor-Algorithmus, als Anwendung besprochen. Auch dort bemühen wir uns, die Herleitungen möglichst genau und nachvollziehbar zu beschreiben.

Teil V: Weitere Anwendungen

Breit gestreutere Anwendungen finden sich abschließend im fünften Teil. Für die Gefahr, die das Quantencomputing für bis heute starke Verschlüsselungsverfahren bedeutet, bietet sie faszinierenderweise gleichzeitig eine Lösung, wie sie im zwölften Kapitel erläutert wird. Diese innovativen quantenmechanischen Verschlüsselungsverfahren beruhen in einem wichtigen Sinne nicht mehr auf einem Algorithmus, sondern auf den nicht algorithmisierbaren Zufallsprozessen. Diese Verfahren sind heute in der Quantentechnologie am meisten fortgeschritten. Sie haben gleichsam »Production Quality«-Status.

Ein weiterer Klassiker im Quantencomputing, der Grover-Algorithmus, wird im dreizehnten Kapitel vorgestellt. Als innovatives Suchverfahren beschleunigt er zwar »nur« quadratisch, hat damit aber bei Datenbanken mit Milliarden von Einträgen einen durchaus attraktiven Vorteil.

Das Thema des vierzehnten Kapitels, adiabatisches Quantencomputing und zeitliche Simulation der sogenannten Schrödingergleichung, erforderte streng genommen ein eigenes Buch. Hier begegnen sich Quantencomputer und Analogcomputer am engsten. Die ursprüngliche Idee von Richard Feynman, quantenmechanische Prozesse für die Simulation quantenmechanischer Prozesse zu benutzen, findet hier ihre stärkste Ausprägung. Das bedeutet aber auch, dass es hierbei sehr viel mehr noch als in der physikalischen Implementierung einzelner Qubits um »harte« Quantenphysik geht. Das aber wollten wir dem Leser nicht mehr so ganz zumuten. Ganz außen vor lassen wollten wir es aber auch nicht. Einen Teil davon haben wir in die Anhänge ausgelagert.

Teil VI: Top Ten Teil

Im fünfzehnten und letzten Kapitel streifen wir die geschichtlichen Entwicklungen, die zu unseren heutigen Vorstellungen geführt haben. Mit Geschichte beschäftigt man sich dann, wenn die Probleme der Gegenwart gelöst sind – oder sollte es faktisch umgekehrt sein? Übertragen auf dieses Buch möchte man sagen: Wer bis zum fünfzehnten Kapitel durchgehalten hat und feststellt, dass er mehr verstanden hat, als er ursprünglich zu hoffen wagte, wird den Rückblick auf die Geschichte als lustvolles Dessert empfinden.

Eingestreute »two cents«

Wir haben der Versuchung nicht widerstehen können, einige einfache Vorschläge zu kontrovers diskutierten Fragen im Rahmen der Quantenmechanik einzubauen. Dies betrifft zum Beispiel das berühmte Messproblem in der Quantenmechanik, das Einstein-Podolsky-Rosen-Paradox und einen Beitrag zu einem hybriden Verschlüsselungsverfahren, wie wir es in der Literatur bisher nicht gefunden haben. Ob es sich dabei, um »Schmankerl« handelt, das müssen andere entscheiden …

Was wir draußen ließen

Nimmt man ein enzyklopädisches Lehrbuch (mit Kultcharakter) wie das Buch von Nielsen und Chuang »Quantum Computation and Quantum Information« zur Hand, stellt man schnell fest, dass das Quantencomputing sehr viel mehr umfasst als das, was wir in unserem Buch behandeln. Das liegt ein wenig in der Natur eines Buchs, wie wir es uns vorgestellt haben. Nielson und Chuang führen mit ihren »Übungsaufgaben« bis an die heutigen Forschungsgrenzen heran (sie haben sie unauffällig mit »Research« gekennzeichnet). Damit können, wollen und dürfen wir uns nicht messen.

Folgende Aspekte und Fragestellungen haben wir weggelassen oder nur gestreift:

Die theoretische Komplexitätstheorie, also die exakte Beschreibung der Klassen, die als polynomial, nichtdeterministisch polynomial, NP-vollständig und so weiter klassifiziert werden. Dies sind Themen für gestandene Theoretiker. Für eine Einführung in das Quantencomputing soll es genügen, an Beispielen, etwa beim Shor-Algorithmus, zu sehen, dass hier ein qualitativ großer Performanzgewinn liegt.

Die verschiedenen sich anbietenden physikalischen Implementierungen von Qubits. Ähnlich den klassischen Bits ist dies eine Frage für den Physikingenieur. So haben wir uns in diesem Buch auf eine kurze Beschreibung einer Implementierung mittels polarisierter Photonen beschränkt, gewissermaßen als »proof of concept«. Damit kommen wir der Sichtweise eines Informatikers entgegen: Ein Qubit ist ein Qubit ist ein Qubit.

Letztlich verzichten wir auf eine Behandlung der Fragen zu Entropie und zum Quantenrauschen. Auch dies ist mehr etwas für den ausgewiesenen Spezialisten.

Konventionen und Symbole in diesem Buch

Sie finden in diesem Buch einige Icons mit besonderer Bedeutung, die kurz beschrieben werden sollen:

Hier finden Sie Ergänzungen und vertiefende Informationen. Dies kann beim ersten Lesen übersprungen werden, um später noch einmal darauf zurückzukommen.

Die hiermit gekennzeichneten Teile dienen der Auflockerung. Es sind zum Teil Episoden aus der Geschichte und ein Blick über die fachlichen Grenzen hinaus.

Dort finden sich wchtige Zusammenfassungen des Gesagten, Fakten, an die man sich erinnern sollte.

Danksagungen

An einem Buchprojekt sind regelmäßig nicht nur die genannten Autoren beteiligt. Viele haben mittel- oder unmittelbar beigetragen und haben es verdient, hier namentlich erwähnt zu werden. Beginnen möchte ich mit unseren Studenten, die in den Seminaren über Quantencomputing ein bemerkenswertes Engagement gezeigt hatten. Sie legten – mit einer intakten Skepsis sozusagen – stets den Daumen auf Unklarheiten und Ungenauigkeiten. Kurzum: Sie wollten es wirklich wissen. Ihr Feedback floss in geeigneter Weise in die Gestaltung und die Inhalte unseres Buchs ein.

Genannt werden sollen hier also zunächst:

Armin Beckmann, Dennis Buttel, Sebastian Dauenhauer, Maik Denisenko, Kim Enders, Julian Frenzel, Patrick Geerds, Manuel Golz, Luca Hartmut, Julia Hartwich, Benjamin Hütz, Andreas Jost, Kevin Klein, Marcel Krebs, Xaver Lutz, Emira Mansour, Felix Mayer, Dominik Müller, Daniel Mutz, Adrian Risch, Christian Roth, Benedict Särota, Kai Uwe Sauther, Mario Schertan, Lucas Schopp, Tristan Theiß, Felix Trautmann, Leon Veith.

Ein besonderer Dank geht an die Kollegen Prof. Becher und Prof. Eschner von der Universität des Saarlands sowie Prof. Hettel an unserer eigenen Hochschule Kaiserslautern. Die früheren gemeinsamen Seminare im Schloss Dagstuhl in Kooperation mit den Saarbrücker Kollegen waren ein Highlight. Ihre Präsentationen der physikalischen Grundlagen für die Implementierungen von Qubits waren für Informatiker immer erhellend. In jedem Fall »erdeten« sie uns Informatiker. In diesem Kontext auch nochmals ein spezieller Dank an Jörg Hettel, der es mir dankenswerterweise überließ, in der Zeit der Arbeiten an diesem Buch das Seminar über Quantencomputing durchzuführen.

Unsere beiden studentischen High Potentials Lorena Mayer und Sagani Naguleswaran ließen sich nie entmutigen, wenn sich die Anforderungen und Wünsche hinsichtlich textueller Verbesserungen und grafischer Gestaltung manchmal (sehr) schnell änderten. Sie haben sich mit viel Herzblut eingebracht.

Die Betreuung durch unseren Lektor Herrn Ferner vom Wiley-Verlag empfanden wir – wie auch schon bei unserem ersten Buch – als vorbildlich. Es war in Anbetracht der Corona-Pandemie ja keine leichte Zeit, und es entlastete uns doch sehr, wenn uns an der einen oder anderen Stelle etwas mehr Zeit zugebilligt wurde.

Widmungen

Gewidmet meiner lieben Frau Petra sowie unseren Kindern Stella Isabel, Victor André und Sophie Madeleine, die einmal den Staffelstab von uns übernehmen werden.(Hans-Jürgen Steffens)

Für Patricia, weil das Leben mit dir »bunt und granatenstark« ist.(Christian Zöllner)

Gewidmet meinem Mann André und unserem Sohn Lennard in der Hoffnung, dass die Quanteninformatiker ihm eine chancenreiche Zukunft bieten.(Kathrin Schäfer)

Teil I

Neue Phänomene und neue Betrachtungsweisen

IN DIESEM TEIL …

bewegen wir uns von der klassischen Physik herkommend in die Mikrowelt mit ihren neuartigen, ungewohnten Phänomenen.

Der Schritt in die Mikrowelt erfordert es, sich gewisse selbstverständlich erscheinende Ansichten und Denkprozesse noch einmal bewusst zu machen, um hinter die Erscheinungen blicken zu können. Die Ausbildung zum Informatiker ist ja geprägt von einer Herangehensweise, die klassisch genannt werden kann. Hierzu genügt ein Blick auf das Paradigma der objektorientierten Programmierung. Die dort konzipierten Objekte haben stets eine Individualität und sind gewissermaßen nummerierbar. Das sind Vorstellungen, die nicht so ohne Weiteres auf die Mikrowelt übertragen werden können.

Nun sind unsere Vorstellungen gewachsen und wurden »kalibriert« in einer Umwelt, in der die Quantengesetze, uns fremd, nur im Verborgenen wirken. Man kann versuchen, diese Fremdheit, durch Metaphern erfahrbar zu machen, und projiziert dabei doch oft nur die makrophysikalischen Bilder in die Mikrowelt hinein.

Ein Vehikel zum intellektuellen Erfassen dessen, was hinter den mikrophysikalischen Phänomenen steckt und wie sie auf neue und effizientere Weise zum Rechnen benutzt werden können, sind mathematische Modelle. Die Mathematik als Königsweg der Abstraktion erlaubt es uns, von der gewohnten Makrowelt zu abstrahieren und auf diese Weise ein (abstraktes) Abbild vom Innersten der Dinge zu gewinnen.

Wir werden uns spiralförmig auf das Ziel zu bewegen. Im ersten Teil werden wir beginnen mit der (gegenüber den klassischen Vorstellungen) andersartigen Darstellung kleinster Teilchen, die als quantenmechanische Informationsträger fungieren. Aus dem Bit wird das Qubit.

Mit Qubits konzipieren wir als ersten Schritt hin zum Quantencomputing das Verfahren des »dense coding«. Es ist der einfachste Prozess im Rahmen des Quantencomputing, benötigt die geringstmögliche Anzahl von Qubits und kommt mit – so hoffen wir – moderater Mathematik aus. Rudimentäre Kenntnisse der Vektorrechnung sollten genügen.

Da ein souveräner Umgang mit Vektoren ohne Matrizen nicht möglich ist, werden in einem weiteren »mathematischen Spatenstich« elementare Rechenverfahren mit Matrizen beschrieben. Hiermit kann das, was im Kontext des dense coding mehr »händisch« beschrieben worden ist, in eine elegantere und effizientere mathematische Form gebracht werden.

Diese Form wird sich im Quantencomputing als unverzichtbar erweisen und wird in den Kapiteln des ersten Teils des ersten Teils direkt angewendet. Behandelt wird damit gleichsam der zweiteinfachste Prozess in Richtung Quantencomputing, die Teleportation.

Zurück zu den Informatikern, die (natürlich) klassisch geschult wurden. Für sie wird es wichtig sein, zu erfassen, dass die gewohnten Datenstrukturen zu ersetzen sind. Das, was zur Beschreibung von Objekten durch Arrays mit wenigen numerischen Komponenten implementiert werden konnte, muss jetzt durch potenziell hoch- oder unendlichdimensionale Vektoren modelliert werden.

Kapitel 1

Quantencomputing – hope or hype?

IN DIESEM KAPITEL

Beschreibung des Wegs zum QuantencomputerGesetzmäßigkeiten erkennen, auf denen Quantencomputer beruhenDiskussion der zugrunde liegenden KonzepteVorstellung der Perspektiven, die Quantencomputing bietetSkizze des Weges zur Quantenphysik

Wenn in Tageszeitungen wie der FAZ, die sich an den allgemeinen Leser richtet, oder in Wirtschaftsblättern wie dem Handelsblatt, das ebenfalls nicht den Quantenphysiker im Fokus hat, in kurzen Zeitintervallen Artikel zum Quantencomputing publiziert werden, muss dieses Thema »prickelnd« sein. Dies gilt umso mehr, wenn man sieht, dass Bundes- und Landesregierungen das Thema mit mehrstelligen Millionenbeträgen fördern.

Quantenphysiker scheinen umworben zu werden, wie seinerzeit die mittalterlichen Alchemisten, die vorgaben, Gold aus sogenannten unedlen Metallen herstellen zu können. Geheimnisvolle Gesetzmäßigkeiten sollten dabei zur Anwendung kommen. Geheimnisumwittert sind auch die Gesetzmäßigkeien des Quantencomputing. Diese jedoch haben im Gegensatz zu den Hypothesen der Alchemie seit 100 Jahren jeden experimentellen Test bestanden. Anders als die Alchemie erfährt das Quantencomputing also einen Hype, der tatsächlich mit einer begründeten Hoffnung zu tun hat.

Die noch verbleibenden Fragestellungen und Herausforderungen liegen demnach nicht mehr so sehr in der Theorie, sondern in der ingenieurwissenschaftlichen Umsetzung, der Implementierung.

Mit einem analogen Problem musste sich zeitlebens Lord Babbage, ein englischer Mathematiker und Erfinder des 19. Jahrhunderts, auseinandersetzen. Lord Babbage, Inhaber des Lucasischen Lehrstuhls in Cambridge und damit in einer Linie mit Isaac Newton und Stephen Hawking, konzipierte einen mechanischen Vorläufer des modernen Computers, die »analytical engine«. Zu nennen in diesem Kontext sind auch die theoretischen Beiträge von Ada Lovelace, Tochter des Dichters Lord Byron, nach der eine bekannte Programmiersprache benannt wurde.