Erhalten Sie Zugang zu diesem und mehr als 300000 Büchern ab EUR 5,99 monatlich.
Die Maschinen sind erwacht. Sie lernen kochen und musizieren, denken und debattieren. Manche Geräte übertreffen uns bereits: Sie stellen bessere Diagnosen als Ärzte, beherrschen 20 Sprachen oder erkennen technische Probleme, noch bevor ein Zug ausfällt. Wohin führt das in der Zukunft? Sind Roboter und smarte Computer ein Segen? Für den Umbau unserer Energiesysteme, für lebenswerte Städte und die alternde Gesellschaft? Oder eher eine Gefahr für Arbeitsplätze, Privatsphäre und Sicherheit? Ulrich Eberl hat weltweit in den führenden Labors recherchiert. Anschaulich schildert er die faszinierenden Entwicklungen auf dem Gebiet, das den Kern unseres Selbstverständnisses trifft: die menschliche Intelligenz.
Sie lesen das E-Book in den Legimi-Apps auf:
Seitenzahl: 514
Veröffentlichungsjahr: 2016
Das E-Book (TTS) können Sie hören im Abo „Legimi Premium” in Legimi-Apps auf:
Die Entwicklung ist unaufhaltsam. In den kommenden 25 Jahren wird sich die Leistung von Mikrochips noch einmal vertausendfachen, Neurochips lernen 10.000-mal schneller als das menschliche Gehirn, Cyborg-Technologien lassen Blinde sehen und Gelähmte gehen, und Roboter holen sich ihr Wissen und neue Fähigkeiten aus der Cloud.
Wenn maschinelles Lernen, kognitive Computer und die besten Roboter zusammenkommen, dann werden sie eine Revolution auslösen, wie sie die Welt noch nicht gesehen hat. Ulrich Eberl begegnete in den USA, Japan und Europa Robotern, die neugierig lernen wie Kinder, Androiden-Damen, in die man sich verlieben kann und Kampfmaschinen, die rennen wie Windhunde. Er traf Maschinen, die hilfsbereit sind und emotional, eigenständig und sozial.
Intelligente Maschinen werden alle Lebensbereiche grundlegend verändern. Sie werden Multi-Milliarden-Euro-Märkte schaffen und zugleich Millionen Jobs bedrohen. Sie werden uns unter die Arme greifen und intellektuell herausfordern, sie werden Gesellschaftssysteme verändern und neue Sicherheitsfragen aufwerfen – und sie werden uns Menschen neu darüber nachdenken lassen, wer wir sind und was unsere Bestimmung ist.
Ulrich Eberl
Smarte Maschinen
Wie Künstliche Intelligenz unser Leben verändert
ISBN 978-3-446-44886-5
© Carl Hanser Verlag München 2016
Satz: Kösel Media, Krugzell
Umschlag: Hauptmann & Kompanie, Zürich
© Roboter NAO mit freundlicher Genehmigung von Aldebaran, Paris
Unser gesamtes lieferbares Programm und viele andere Informationen finden Sie unter www.hanser-literaturverlage.de
Erfahren Sie mehr über uns und unsere Autoren auf www.facebook.com/HanserLiteraturverlage oder folgen Sie uns auf Twitter: www.twitter.com/hanserliteratur
Datenkonvertierung E-Book: Kösel Media, Krugzell
EinleitungAm Start: Unsere Gegner oder neuen Partner?
Fanfaren für die Helfer aus Stahl
EinsSmarte Maschinen: Sie werden allgegenwärtig sein
Unsanftes Erwachen
Der Beginn einer neuen Ära
ZweiVon Vergangenheit und Zukunft: Warum wir gerade jetzt an der Zeitenwende stehen
1000-Mal besser
Was die Revolution erst möglich macht
DreiKörper und Bewegung: Wenn Roboter die Welt erforschen
Intelligente Lebensformen
Auf dem Niveau von Kleinkindern
VierLernen bei Mensch und Maschine: Die Sinne schärfen
In drei Monaten leben lernen
Sehen, hören und Muster erkennen
FünfSemantische Suche: Bedeutung verstehen und Wissen schaffen
Die Wesen, die er rief
Wie bekommt man gesunden Menschenverstand in die Maschine?
SechsNeurochips und das Human-Brain-Projekt: Das Gehirn nachbilden
Die ultimative Suchmaschine
Ein Gehirn im Computer
SiebenEinsatzgebiete: zu Hause und unterwegs
Auf dem Weg nach Hause – 30 Jahre zu spät
Roboter auf den Strassen und in den Wohnungen
AchtEinsatzgebiete: In industrie und Infrastruktur
Wenn Roboter Roboter fertigen
Smart Factory, Smart Grid, Smart City
NeunMärkte und Jobs: Wer macht die Arbeit von morgen?
Was für die Menschen bleibt
Kreative Köpfe kooperieren mit den Maschinen
ZehnKillerroboter und die Superintelligenz: Haben wir eine Chance gegen die Maschinen?
Freund oder Feind?
Wenn Algorithmen die Kontrolle übernehmen
ElfRoboter mit emotionaler Intelligenz: Warum der Verstand allein nicht genügt
Gefühle im Spiel
Eine Maschine mit Gespür und Bewusstsein
ZwölfSoziale Roboter: Wenn die Maschinen den Menschen helfen wollen
Am Abgrund
Die Gemeinschaft von Menschen und Robotern
DreizehnCyborgs: Menschen mit den Bauteilen von Robotern
Wie neugeboren
Die Mensch-Maschinen
SchlussDie Zukunft: Lernen, mit ihnen umzugehen
Sie werden unsere Welt bestimmen – aber nicht uns
Anhang
Links und Literaturhinweise
Bildnachweise
Dank
»Hier sitz ich, forme MenschenNach meinem Bilde«
Goethe, »Prometheus«
Für alle Kreativen,
insbesondere meine Frau Angelika,
die es schafft, jeder ihrer selbst geformten
Handpuppen und Marionetten
eine eigene Persönlichkeit zu geben.
Die brodelnde Atmosphäre auf den Tribünen erinnert an den Einzug der Gladiatoren, damals in Rom, als die Kaiser herrschten. Tausende Menschen starren gebannt hinunter in die staubige Arena, wo das Spektakel gleich beginnen soll. Die einen sitzen geschützt unter einem hölzernen Dach, die anderen sind der sengenden Sonne ausgeliefert, aber dafür dem Geschehen wesentlich näher. Sie kommen aus aller Herren Länder, Jung und Alt, Kinder, Frauen und Männer bunt gemischt. Ein verwirrendes Stimmengewirr erfüllt die Luft, von überallher dringen Sprachfetzen in Englisch, Japanisch, Koreanisch, Chinesisch, Italienisch und Deutsch. Ein leichter Luftzug wirbelt in der Arena den Sand auf, aus einem Rohr quillt Dampf nach oben und verzieht sich in Richtung der Palmen und der fernen Hügelkette der San-Gabriel-Berge. Nach Pomona, der römischen Göttin der Baumfrüchte, ist dieser Ort im Los Angeles County benannt, wo der weltweit einzigartige Wettstreit nun stattfinden soll. Vor den Absperrungen stehen Trauben von Reportern, Fotografen, Schiedsrichtern – auch sie warten geduldig. Doch dann verstummen plötzlich die Gespräche, überall gehen die Smartphones und Kameras nach oben: Die Gladiatoren kommen!
Auf großen Plakatwänden vor der Fairplex Arena von Pomona waren sie schon angekündigt, die Helden dieser beiden Tage. Sie tragen kraftvolle Namen wie Atlas, Helios und Herkules, Running Man, Walk-man und Metal Rebel, familiäre wie Florian, Johnny, Hubo und Leo oder geheimnisvolle wie RoboSimian, Thormang oder Momaro. Manche konnte man bereits bewundern, nebenan im Empfangsbereich, wo sich lange Schlangen von Besuchern bildeten, die die Kraftprotze einmal aus der Nähe sehen wollten – immerhin bringen die meisten der Gladiatoren zwischen 150 und 200 Kilogramm auf die Waage. Wenn die Wettbüros unter den Tribünen noch geöffnet hätten, wie in den Jahrzehnten, als hier noch Pferderennen stattfanden, hätte sicher der ein oder andere Fan einen Einsatz gewagt: auf Herkules oder Metal Rebel, auf Hubo, RoboSimian oder Momaro. Doch so müssen sich die Zuschauer damit begnügen, ihre Favoriten lautstark anzufeuern und jeden Punkt zu beklatschen, den diese im Lauf des Wettbewerbs erringen.
Wettstreit der stählernen Champions: Im Juni 2015 maßen sich die weltbesten Roboter während der DARPA Robotics Challenge in Disziplinen wie Auto fahren, Türen öffnen, Löcher bohren, Ventile drehen oder über Geröll klettern – hier der Running Man, ein Atlas-Roboter des Unternehmens Boston Dynamics.
Dass sie stark sind , richtig stark, weiß jeder, der sie schon berühren durfte. Der mit den Händen über sie strich – allerdings nicht über ihren Bizeps oder die Muskeln am Oberschenkel, denn so etwas besitzen sie nicht. Dafür sind die meisten von ihnen umfassend gepanzert, mit Metallplatten an den Beinen, am Oberkörper, am Rücken und einem Stahlskelettkäfig, um den Kopf zu schützen. Sie haben Stereokameras, Antennen und Laserscanner, einen Batterierucksack, dicke Hydraulikschläuche, die aus ihrem Becken herausquellen, als hätte jemand gerade versucht, sie zu sezieren, und überall kompakte, aber leistungsstarke Elektromotoren: vor allem an den Gelenken von Beinen, Armen und Händen. Diese Gladiatoren von heute sind Roboter.
Und sie kämpfen auch nicht gegeneinander oder gegen wilde Tiere wie einst im Kolosseum, dem Amphitheater des alten Roms. Ganz im Gegenteil, sie sollen beweisen, dass sie – oder ihre Nachfolger – eines Tages in der Lage sein werden, Menschen zu retten. Beispielsweise bei Katastropheneinsätzen, wenn Gebäude einstürzen, alles voll Schutt ist und dichter Qualm durch die Gänge wabert. Oder wenn zu hohe radioaktive Strahlung Menschen daran hindert, Gebäude überhaupt erst zu betreten. Genau diese Situation war für die DARPA, die Forschungsbehörde des US-Verteidigungsministeriums, der Anlass, die »Robotics Challenge« zu starten: den dreijährigen Roboter-Wettbewerb, der nun, im Juni 2015, hier in Pomona sein geradezu olympisches Finale findet.1
HÄTTEN ROBOTER DIE EXPLOSIONEN VON FUKUSHIMA VERHINDERN KÖNNEN? Am Beginn stand die Katastrophe von Fukushima, als am 11. März 2011 ein enormes Erdbeben der Stärke 9,0 die externe Stromversorgung der japanischen Kernkraftwerksanlage Fukushima Daiichi lahmlegte und 40 Minuten später die haushohen Wellen eines Tsunamis das Innere der Reaktorblöcke fluteten – wodurch auch alle Notstromgeneratoren ausfielen. Die Hitze der Brennstäbe ließ schon bald das Kühlwasser verdampfen, gefährliches Wasserstoffgas bildete sich. Verzweifelt versuchten in den Stunden danach menschliche Arbeiter, im Gebäude Ventile zu öffnen, um das explosive Gas entweichen zu lassen, doch die radioaktive Strahlung war bereits so hoch, dass sie sich unverrichteter Dinge zurückziehen mussten.
Am Nachmittag des zweiten Tages zerstörte schließlich der angesammelte Wasserstoff in einer gewaltigen Explosion das Dach des ersten Reaktorgebäudes. Eine Rauch- und Staubwolke stieg als dunkler Pilz in den Himmel und breitete sich schnell aus – mitsamt einer erheblichen Menge an Radioaktivität. Danach kam es in weiteren Reaktorblöcken ebenfalls zu Explosionen, rund 150000 Menschen mussten evakuiert werden. Auch noch Jahre später leben die meisten von ihnen in Notunterkünften – in ihre Heimat können sie wohl nie wieder zurückkehren.
Wie anders wäre wohl diese Katastrophe verlaufen, wenn damals anstelle von Menschen Roboter, denen radioaktive Strahlung wenig ausmacht, die Reaktorgebäude hätten betreten können? »Wenn sie rechtzeitig die Ventile hätten öffnen und andere Notfallmaßnahmen hätten einleiten können, wäre es vielleicht zu gar keiner Explosion gekommen«, mutmaßt Gill Pratt, der Leiter des Robotik-Wettbewerbs der DARPA.
Doch dazu müssen die Maschinen Dinge beherrschen, die 2011 noch kein Roboter in diesem Umfang konnte. Sie müssen Türen öffnen und auf Treppen steigen, über Geröll klettern und Hindernisse beiseiteräumen, Ventile aufdrehen und schließen, Hebel betätigen, Kabel herausziehen und in Steckdosen stecken sowie Werkzeuge benutzen, die für Menschen gemacht sind: beispielsweise mit Bohrmaschinen große Löcher in Wände bohren.
Genau diese Dinge müssen die Roboter nun auch in Pomona können, um den DARPA-Wettbewerb zu gewinnen. Und mehr noch: »Wir verlangen sogar, dass sie Fahrzeuge benutzen, um überhaupt erst in die Gefahrenzone vorzudringen«, sagt Pratt. Die Roboter müssen also zudem in der Lage sein, ein Auto zu lenken, Gas zu geben, zu bremsen und dann auszusteigen, das Gebäude zu betreten und dort ihre Aufgaben zu erfüllen. Und das alles in Zusammenarbeit mit Menschen, die weit entfernt in einer Halle ohne Sichtkontakt sitzen und versuchen, von dort aus die Roboter zu steuern – wobei immer wieder die Kommunikation gestört wird, denn im Katastrophenfall, so Pratt, »kann man auch nicht damit rechnen, jederzeit eine Breitband-Funkverbindung zur Verfügung zu haben«.
ZWEI MILLIONEN DOLLAR SIEGPRÄMIE Die Roboter müssen möglichst ausfallsicher sein, sich flexibel an manchmal überraschende Situationen anpassen und ihre Aufgaben auch noch in einer bestimmten Zeit erledigen, bevor ihnen im Ernstfall der Strom ausginge. Zwei Millionen Dollar Preisgeld hat die DARPA für denjenigen Roboter ausgelobt, der den Parcours in der Fairplex Arena von Pomona am besten bewältigt, eine Million für den Zweitplatzierten und eine halbe Million für den, der die Bronzemedaille erringt.
Für große Herausforderungen aller Art ist die DARPA einst gegründet worden. »Das Unmögliche möglich machen« ist seit 1958 ihr Wahlspruch, als es galt, den Vorsprung der Russen im Weltall aufzuholen. Die weltweit ersten Kommunikations- und Wettersatelliten gehen ebenso auf ihre Initiativen zurück wie das ARPANET, der Vorläufer des Internets, die Flüssigkristalldisplays, die Tarnkappentechnologie oder handliche Empfänger für die Satellitennavigation GPS. Im Jahr 2003 rief die DARPA einen Wettbewerb für maschinelle Übersetzungsprogramme ins Leben und in den Jahren danach mehrere »Grand Challenges« für das autonome Fahren in der Wüste und im Stadtverkehr.
Die Robotik-Herausforderung von 2015 haben 23 Teams aus aller Welt angenommen: aus Deutschland und Italien, Südkorea, Hongkong, Japan und den USA. Viele haben monate-, manche jahrelang an ihren Robotern geschraubt und gelötet, die Software und ihre Handlungsvorschriften, die Algorithmen, optimiert und ihre Einsatzteams für dieses große Finale trainiert. Die meisten kommen von exzellenten technischen Universitäten und Forschungsinstituten, doch zumindest indirekt sind auch einige Firmen beteiligt. So verlassen sich sieben Teams auf Varianten des Atlas-Roboters, eines 1,80 Meter großen Kolosses, der wie ein Mensch auf zwei Beinen gehen kann.2 Gebaut wurde er von Boston Dynamics, einem Unternehmen, das ursprünglich Roboter-Technik für das US-Militär entwickelte, bis es 2013 von Google übernommen und stärker in Richtung ziviler Anwendungen getrimmt wurde.
Andere Teams setzen auf humanoide Roboter der japanischen Firma Kawada Industries oder auf Eigenentwicklungen – von denen nicht alle zwei Beine haben. Manche schwören auf Roboter mit vier Beinen, die auch in schwierigem Gelände besser die Balance halten können. Andere besitzen Rollen an den Füßen, und bei RoboSimian3, dem Roboter des NASA Jet Propulsion Laboratory in Pasadena, weiß man gar nicht, woran man ist. Sitzt er im Auto, hält er sich wie ein intelligenter Affe an den Streben fest und dreht am Lenkrad, steigt er aus, wird er eher zu einer vorsichtigen hochbeinigen schwarzen Katze, dann macht er unversehens eine Art Purzelbaum, setzt sich hin und beginnt mit erhobenen Armen zur Tür zu rollen, die er ebenso geschickt öffnet, wie er später mit der Bohrmaschine hantiert – unwillkürlich fühle ich mich als Zuschauer an die Filme der Transformers-Reihe erinnert, deren Hauptdarsteller sich auch ständig in neue stählerne Wesen verwandelten.
EMPATHIE MIT DEN MASCHINEN Ist dieser Wettbewerb der weltbesten Roboter daher nicht auch ein wenig unheimlich? Ist unter den Beobachtern auf den Rängen nicht Beklemmung spürbar, vielleicht sogar Angst vor diesen neuen martialischen Geschöpfen, die wie aus einer anderen Welt wirken? Sehen manche in dem Stahlkoloss, der hier durch den Sand stapft, nicht schon den Terminator vor sich, der aus einer fernen Zukunft kommt, um Menschen zu vernichten?
Nein, in den Gesichtern der Besucher kann ich nichts davon lesen, ganz im Gegenteil. Wenn sie über die Roboter sprechen, sagen sie unwillkürlich »he«, als ob sie von Menschen redeten – anstatt »it«, wie es bei Maschinen angebracht wäre. Sogar der Roboter-Experte Gill Pratt staunt über die Welle an Sympathie, die den Stahlwesen entgegenschwappt: »Wann immer die Roboter auf dem Parcours sind, fühlen die Menschen mit ihnen – sie stöhnen auf, wenn einer umfällt, und sie jubeln über jede erfolgreich bewältigte Aufgabe.« Und das, obwohl das Zuschauen mitunter so spannend sei, gibt Pratt zu, wie »einer Wandfarbe beim Trocknen zuzusehen«.
So steht beispielsweise mancher Roboter minutenlang ratlos vor der Tür, bevor er schließlich langsam die Hand hebt, um die Klinke zu betätigen. Nicht wenige Zuschauer würden da am liebsten hinunterlaufen und dem armen Kerl helfen. Wenn der Roboter dann, wie der rote Chimp der Carnegie-Mellon-Universität, der später die Bronzemedaille holt, beim ersten Versuch buchstäblich mit der Tür ins Haus fällt,4 geht kein hämisches Gelächter durch die Reihen, sondern ein langes, enttäuschtes »Ooooh« – das sich, als Chimp aus eigener Kraft wieder aufsteht, in ein jubelndes »Wow« und »Yeah!« verwandelt.
Auch beim Zweitplatzierten, dem Running Man aus Florida, sind die Fans auf der Tribüne mit begeistertem rhythmischem Klatschen dabei, als dieser Roboter der Atlas-Reihe am Schluss des Parcours oben auf der Treppe seine stählernen Arme in einer Jubelgeste zum Himmel reckt und einen kleinen Siegestanz vollführt.5 Und erst recht sind die Sympathien beim schlauen Hubo der jungen Entwickler des KAIST-Instituts aus Südkorea, der zu Fuß und auf Knien rollend alle Aufgaben in der Rekordzeit von 44 Minuten erledigt und damit die Zwei-Millionen-Dollar-Siegprämie holt.6
»Dieses Mitgefühl der Zuschauer lässt mich für die Robotik hoffen«, betont Pratt, »denn für die künftige Zusammenarbeit von Menschen und Robotern braucht es wirklich ein großes Maß an Sympathie.« Diese Zuneigung zu den manchmal so menschlich wirkenden Maschinen spürt man auch in der Ausstellung vor der Arena von Pomona, wo viele Firmen ihre neuesten Produkte präsentieren, vom kleinen Spielzeugroboter über den elektronischen Butler bis zum autonomen militärischen Spähwagen.
Hier geht es zu wie auf einem Jahrmarkt. In der einen Ecke programmieren Kinder bei Countrymusik Roboter, die Bälle sammeln, Leitern hochklettern und sich gegenseitig vom Tisch schubsen. Nebenan sind stählerne, kopflose Laufmaschinen im Achtstunden-Dauertest unterwegs, während ein Zelt weiter kleine Flugdrohnen Kunststücke vorführen. An einem Stand lassen sich die Besucher mit Nachbildungen der Star-Wars-Roboter C-3PO und R2-D2 fotografieren, am anderen versuchen evangelikale Christen, mit den Vorübergehenden über Moral und Ethik im Roboter-Zeitalter zu diskutieren.
Es ist offensichtlich: Das Thema bewegt die Menschen – und zwar keineswegs nur während dieser Roboter-Olympiade in Kalifornien, sondern weltweit. Im japanischen Miraikan-Museum für Zukunftsforschung und Innovation in Tokio sah ich, wie Besucher die Androiden, die Menschen zum Verwechseln ähnlich sehen, mindestens so sehr bestaunen, wie sie in Pomona beim »Meet and Greet« auf die Atlas-Roboter zustürzen. Auch Asimo, der altehrwürdige und immer noch junge Roboter von Honda, der läuft und tanzt und singt und auf einem Bein springt, ist bei jeder Aufführung im Miraikan der unangefochtene Publikumsmagnet.
Ähnlich in Deutschland: An der Komischen Oper Berlin spielte der Roboter Myon im Sommer 2015 eine – wenn auch unbeholfene – witzige und tragende Rolle im Stück My Square Lady. Ziel der Oper war, zu erkunden, was einen Menschen zum Menschen macht. Auf der Industriemesse in Hannover im gleichen Jahr ging es hingegen weniger philosophisch, sondern eher mit wirtschaftlichem Ernst zu: Hier waren kollaborative Roboter, die in den Fabriken die Schutzzäune hinter sich lassen und künftig direkt mit den Menschen zusammenarbeiten sollen, das beherrschende Thema an vielen Ständen.
Zugleich zeigte sich, dass die Begeisterung für Roboter keineswegs nur etwas für männliche Nerds ist: Roboter, die Bälle fingen, Rosen verteilten oder als große elektronische Ameisen über einen Tisch krabbelten, wurden von ähnlich vielen Frauen wie Männern umringt. Bei der Computermesse CeBIT waren an manchen Tagen sogar die Mädchen in der Überzahl, die auf einem Stand der Fraunhofer-Gesellschaft in einem gläsernen Klassenzimmer Roboter so programmierten, dass sie eine Art Rennstrecke bewältigen konnten.
FUSSBALLSPIELEN MIT MERKEL UND OBAMA An der Technischen Universität Berlin gelang es dem kleinen Roboter NAO, ein strahlendes Lächeln aufs Gesicht von Queen Elizabeth II. zu zaubern, als er sie bei ihrem Deutschlandbesuch winkend begrüßte. Auch der deutschen Kanzlerin wurde bei ihrer Japan-Visite stolz Asimo vorgeführt, der allerdings passen musste, als ihm Angela Merkel die Hand schütteln wollte. Darauf war der nur Verbeugungen gewohnte japanische Roboter nicht vorbereitet. Immerhin schoss er mit Wucht einen Fußball in Richtung der fotografierenden Journalisten – wie er auch schon einige Monate zuvor fröhlich mit dem US-Präsidenten Barack Obama kickte. Asimo macht damit deutlich, dass Roboter letztlich auch in diese menschliche Domäne vordringen werden. So ist es das hehre Ziel der seit 1997 jährlich stattfindenden RoboCup-Weltmeisterschaften, im Jahr 2050 den menschlichen Fußballweltmeister schlagen zu können.
Doch von so einem Erfolg sind die Roboter noch meilenweit entfernt. Bei den bisherigen RoboCup-Turnieren – wie etwa im Sommer 2016 in Leipzig – stolperten die stählernen Sportler dem Ball mehr hinterher, als dass sie ihn elegant ins Tor schlenzten oder im Teamplay die Gegner austricksten. »Aber man muss sich eben hohe Ziele stecken, um voranzukommen«, schmunzelt der Japaner Minoru Asada, einer der weltweit angesehensten Roboter-Forscher und Mitbegründer des RoboCups. Als die Computer erfunden wurden, hätte auch niemand gedacht, dass einmal einer von ihnen den menschlichen Schachweltmeister besiegen würde: Dennoch war genau dies 1996 dem Computer Deep Blue von IBM gelungen – und heute kann ein gutes Schachprogramm, das auf einem Smartphone läuft, einen menschlichen Großmeister schlagen.
Dahinter steckt zwar vor allem die enorme Zunahme der Rechenleistung von Computern, die viele Schachzüge im Voraus berechnen und bewerten. Doch auch die Software-Entwickler machen enorme Fortschritte: Schon fast zum Alltag gehören heute Programme zur Bild- und Spracherkennung und Übersetzung einfacher Texte. Im Jahr 2011 gewann Watson, ein IBM-System, das den Sinn von Texten in natürlicher Sprache erfassen kann, in der Fernsehshow »Jeopardy!« – einer komplexeren Variante von »Wer wird Millionär?« – gegen die bisherigen menschlichen Champions. Inzwischen ist Watson schon in der Lage, Ärzten bei Krebsdiagnosen, Pharmafirmen bei der Entwicklung von Medikamenten oder Bankberatern bei Anlagestrategien zu helfen.
Im März 2016 schaffte es die lernfähige Software AlphaGo, den weltbesten Go-Spieler Lee Sedol bei diesem komplexen Brettspiel haushoch zu schlagen – eine Leistung, die Fachleute noch wenige Monate zuvor nicht vor dem Jahr 2025 erwartet hätten. Auch bei wirtschaftlichen Anwendungen ist lernfähige Software heute bereits so weit entwickelt, dass sie mit hoher Trefferquote voraussagen kann, welche Produkte Menschen im Internet demnächst kaufen werden, wie sich die Preise an Rohstoffbörsen entwickeln und wie viel Energie Städte und Regionen in den nächsten Wochen benötigen werden. Sogar vorausschauende Reparaturen sind mit solchen Computerprogrammen möglich: Sie prognostizieren anhand von Sensordaten und Erfahrungswerten, welche Windräder, Züge oder Medizingeräte bald ausfallen werden. Und das selbstfahrende Auto – nichts anderes als ein autonomer Roboter auf Rädern – wird heute nicht nur von Google, sondern von fast allen großen Autofirmen entwickelt.
IST JEDER ZWEITE JOB IN GEFAHR? Es ist offensichtlich: Die Ära der smarten Maschinen liegt nicht in ferner Zukunft, sie beginnt gerade jetzt. Überall an Schulen und Universitäten entstehen Roboter-Labors. Auf den einschlägigen Konferenzen für Robotik und Künstliche Intelligenz treffen sich heute nicht mehr wie früher wenige Hundert Fachleute, sondern Tausende. In den Fabriken und Büros ersetzen immer mehr Maschinen den Menschen – und zwar nicht mehr nur bei monotonen, mechanischen Arbeiten.
Insbesondere die automatische Auswertung großer Datenmengen ist es, die vielen Geistesarbeitern Sorgen macht, die bislang auf ihr Erfahrungswissen gesetzt haben: Ob Juristen, Steuerberater oder Ärzte – mit Algorithmen, die in Sekundenschnelle Millionen von Einträgen in Datenbanken durchforsten und bewerten, können sie nicht mehr mithalten. Und diese Entwicklung steht erst am Anfang. Ob Wetter-, Börsen- oder Sportnachrichten: Selbst redaktionelle Texte werden immer häufiger von »Roboter-Journalisten«, also Computeralgorithmen, verfasst.
Eine Studie der Universität Oxford7 prognostiziert, dass in den kommenden 20 Jahren allein in den USA fast die Hälfte aller Tätigkeitsfelder in über 700 Berufen durch Künstliche Intelligenz und Robotik – oder allgemeiner durch die zunehmende Digitalisierung und Automatisierung – gefährdet seien. Weltweit geht es dabei um viele Millionen Jobs. Inwieweit zugleich ähnlich viele neue entstehen werden, ist fraglich.
Eric Horvitz, Forschungsdirektor bei Microsoft, hat daher zusammen mit der Stanford-Universität eine Langzeituntersuchung ins Leben gerufen: die »100-Jahr-Studie über Künstliche Intelligenz«.8 Von den ökonomischen Auswirkungen über die Gefährdung von Demokratie und Freiheit bis zum militärischen Missbrauch werden darin alle Felder untersucht, auf die diese neuen technischen Entwicklungen Einfluss haben können. Die Quintessenz: Alle Lebensbereiche des Menschen stehen vor einem grundlegenden Wandel – und mehr noch, es geht um den Kern unseres Selbstverständnisses. Wer wir sind, was wir wollen und was uns künftig noch von intelligenten Maschinen unterscheidet.
VERTAUSENDFACHUNG DER RECHENLEISTUNG BIS 2040 Die technologischen Treiber dieser Entwicklung sind offensichtlich: Sensoren, wie Kameras, Laser oder Radar, werden immer kleiner und billiger. Die Algorithmen werden immer leistungsfähiger. Und ein Blick in die Labors der Halbleiterindustrie zeigt, dass sich die Rechenleistung, Speicher- und Kommunikationsfähigkeit von Mikrochips in den nächsten 20 bis 25 Jahren noch einmal vertausendfachen wird – beim gleichen Preis wie heute. Am Kirchhoff-Institut für Physik der Universität Heidelberg werden sogar schon neuromorphe Chips gefertigt, die wie die Nervenzellen und Synapsen im menschlichen Gehirn funktionieren, nur 10000-mal schneller.
Maschinen mit einer gewissen Art von Intelligenz werden in den kommenden Jahren und Jahrzehnten immer mehr in unseren Alltag eindringen – und es wird höchste Zeit, darüber zu diskutieren, wohin diese Entwicklung führt. Genau darum geht es in diesem Buch: Worauf müssen wir uns einstellen, und was sind nur abgehobene Visionen, die nichts mit der Wirklichkeit zu tun haben? Was sind die Trends an Universitäten, Forschungslabors und in der Industrie, und wie sind sie zu bewerten – im Hinblick auf ihre Auswirkungen auf Gesellschaft, Berufs- und Alltagsleben? Inwieweit sind intelligente Maschinen eine Bedrohung – oder sind sie vielleicht vielmehr eine Chance, die vielfältigen Herausforderungen, vor denen wir stehen, noch rechtzeitig zu bewältigen?
So wird sich bis zum Jahr 2050 die Zahl der Menschen, die älter als 65 Jahre sind, gegenüber heute verdreifacht haben. 1,5 Milliarden Menschen werden dann weltweit im Seniorenalter sein, heute sind es 500 Millionen. In Deutschland wird bis 2060 jeder Dritte über 65 sein, jeder Achte über 80, und die Zahl der Über-100-Jährigen wird sich noch einmal verzehnfachen.9 Können Roboter, autonome Fahrzeuge und intelligente Haus- und Kommunikationstechnik alte Menschen dabei unterstützen, ein besseres und selbstbestimmteres Leben zu führen? Wie sieht es in der Arbeitswelt aus: Können Digitalisierung, intelligente Datenanalyse und Robotik Fabriken flexibler machen und dadurch helfen, die Wettbewerbsfähigkeit Deutschlands und anderer Industrieländer zu steigern und unsere Jobs zu sichern?
SCHLAUERE ENERGIETECHNIK UND BESSERE GESUNDHEITSSYSTEME? Oder nehmen wir die Energietechnik: Um den Klimawandel zu bremsen, müssen die Energiesysteme der Welt umgebaut werden – weg von Kohle, Öl und Gas hin zu den erneuerbaren Energien, die dann aber zugleich dezentraler organisiert sind. Statt Tausender mittelgroßer und großer Kraftwerke boomen dann viele Millionen kleiner Energieerzeugungsanlagen. Um sie möglichst effizient zu betreiben, braucht man wiederum Kommunikationstechnik und Computerintelligenz.
Das Gleiche gilt für die rasant wachsenden Städte – allein in Asien wachsen heute die Städte jeden Tag um rund 100000 Menschen. 2050 werden weltweit fast so viele Menschen in Städten leben wie heute auf der ganzen Erde. Sie alle brauchen intelligent gesteuerte Verkehrs- und Energiesysteme, Gebäudetechnik und Licht, personalisierte Gesundheitssysteme, moderne Bildungseinrichtungen und Möglichkeiten der politischen Mitsprache – auch dies will organisiert sein. Ohne eine entsprechende Computer- und Kommunikationstechnik wird das nicht gehen.
Was also wird das Zeitalter der intelligenten Maschinen mit sich bringen? Wird sich die Waagschale eher zum Guten oder zum Schlechten neigen? Ist dies vielleicht sogar die größte Umwälzung, die die Menschheit bislang erlebt hat, weil es ein Angriff auf den Kern unseres Menschseins ist: auf unseren Verstand und auf unsere emotionale Intelligenz?
Sehen wir uns also die technischen Grundlagen und die Trends genauer an, um ihre gesellschaftlichen und wirtschaftlichen Auswirkungen beurteilen zu können. Werfen wir einen Blick auf wissensbasierte Algorithmen, smarte Datenanalyse, autonome Fahrzeuge und natürlich die lernfähigen, kooperativen, emotionalen und sozialen Roboter, die in den Labors in Japan, Europa und den USA derzeit das Licht der Welt erblicken.
Oder, wie es Arati Prabhakar, die Leiterin der DARPA, bei der Eröffnung der Roboter-Olympiade in der Fairplex Arena von Pomona ausdrückte: »Wir werden in Zukunft nicht mehr allein sein. All diese Maschinen werden jetzt entwickelt, um uns Menschen künftig in vielfältiger Weise zu helfen … Ladies and Gentlemen, start your robots!«
»Sieht so der Himmel aus?«, war mein erster bewusster Gedanke, als ich erwachte. Ein strahlendes Weiß überall. So hell, dass ich die Augen geblendet zusammenkniff. Ein leises Surren und ein durchdringendes Pong-pong-pong drangen an mein Ohr.
Ich versuchte es noch einmal und öffnete ganz langsam meine Augen wieder. Jetzt meinte ich, Nischen in dem ansonsten makellosen Weiß zu erkennen, darin irgendwelche Skulpturen, doch die Bilder verschwammen. Als ich den Blick nach rechts wandte, sah ich ein großes Panoramafenster, das den Ausblick auf einen saftig grünen Garten eröffnete, der weiter hinten in einen Mischwald überging. Bänke, ein kleiner Teich, Menschen, die herumspazierten. Und besonders seltsam: Über mir wölbte sich keine Zimmerdecke, sondern ein strahlend blauer Sommerhimmel mit ein paar Schleierwolken.
Verblüfft versuchte ich, den Kopf zu heben – wo war ich nur? Das Surren wurde lauter, ein etwa 1,50 Meter großer Roboter, der aussah wie ein Kegel mit zwei Armen und einem kreisrunden, aber flachen Kopf, rollte am Fußende meines Bettes vorbei. Das riesige Smiley auf seinem Kopfdisplay verwandelte sich in Kurven und Töne.
Das Pong-pong-pong, war das etwa mein Herzschlag? Und was machte er jetzt? Der Roboter klappte einen kleinen Tisch aus, über dem plötzlich eine Art Hologramm erschien: Ein älterer Mann schwebte da in der Luft und drehte sich langsam. Beine, Arme, Brustkorb, Kopf begannen nach und nach grün zu leuchten. Dann verschwanden die Haut und die Rippen, Organe wurden sichtbar.
»Ihre Vitalfunktionen sind hervorragend, die Regeneration war ein voller Erfolg«, sagte eine weiche Stimme. Jetzt schaffte ich es doch, den Kopf zu drehen. Auf der linken Seite meines Bettes stand kerzengerade eine hochgewachsene hübsche junge Frau im Arztkittel mit langen Haaren, perfekt geschwungenen Augenbrauen und Grübchen in den Wangen.
»Wo bin ich?«, fragte ich und staunte, wie rau und fremd meine eigene Stimme klang.
Sie lächelte: »Im Reha-Zentrum Grüntal.«
Gut, keine 20 Kilometer von meinem Wohnort entfernt. »Was ist passiert?«
»Das ist eine lange Geschichte. Wenn die Ärzte kommen, werden Sie mehr erfahren.«
Irgendetwas war seltsam an ihr. Sie war fast zu perfekt, zu sanft, zu freundlich. Ihre Gesichtszüge waren so ruhig, es zuckte kaum ein Muskel.
»Die Ärzte? Sind Sie denn keine …?«
»Nein. Mein Name ist Samantha Yang. Ich bin eine Androidin der R16-Reihe von Liscom Robotics. Ich betreue Langzeitpatienten rund um die Uhr und bin für die Ärzte zugleich ein Interface zur Medical Sphere.«
Das gab’s doch nicht – die junge Frau war ein Roboter? Wie der andere, der kegelförmige da? Nur dass Samantha einem Menschen zum Verwechseln ähnlich sah, perfekte Manieren besaß und offenbar auch in der Lage war, einen echten Dialog zu führen. Wer konnte denn heute solche Roboter bauen?
Es hat schon Seltenheitswert, wenn sich Experten weltweit über die grundlegenden Entwicklungen und Trends auf ihrem Arbeitsgebiet vollkommen einig sind – unabhängig davon, ob man nun Top-Forscher in Japan, Europa oder den USA befragt. Noch erstaunlicher ist, wenn die sonst so eigenständigen Denker für die Beschreibung ihrer Zukunftsszenarien fast dieselben Worte und Bilder verwenden. Doch genau diese Erfahrung macht man, wenn man versucht, zu ergründen, was in der Ära des »Cognitive Computing«, wie es IBM nennt,10 in den nächsten Jahren und Jahrzehnten auf uns zukommen wird.
Programmieren, also einem Computer oder einem Roboter genau vorschreiben, was er zu tun hat, war gestern, sagen die Forscher. Heute und morgen gehe es darum, dass die Maschinen in immer höherem Maße selbst kognitive Fähigkeiten besitzen und sie anwenden. Sie sollen besser darin werden, Veränderungen in ihrer Umgebung wahrzunehmen, zu beurteilen und daraus Schlussfolgerungen zu ziehen. Sie sollen selbständig lernen, argumentieren, planen und handeln – kurz: Probleme lösen, ohne dass ihnen vorher ein Mensch alles im Detail einprogrammiert hat.
Natürlich haben heutige Systeme noch lange nicht die Fähigkeiten erreicht, über die offenbar die Roboter-Krankenschwester Samantha im Zukunftsszenario am Anfang dieses und der folgenden Kapitel verfügt. Dennoch sind Wissenschaftler wie Rüdiger Dillmann, Direktor am Forschungszentrum Informatik (FZI) in Karlsruhe, fest davon überzeugt: »Die Ära der autonomen, lernenden und kooperativen Maschinen hat bereits begonnen.« Der 67-jährige Dillmann, der sich selbst als eines der »Urgesteine der Robotik-Forschung in Deutschland« bezeichnet und der auch als Sprecher und Professor am Institut für Anthropomatik und Robotik des KIT,11 des Karlsruher Instituts für Technologie, tätig ist, konzentrierte sich schon während seines Elektrotechnikstudiums auf den Schwerpunkt Biokybernetik. Vor 30 Jahren, 1986, habilitierte er sich mit einer Arbeit über lernende Roboter.
Karlsruhe war dafür genau der richtige Ort. »Bereits Anfang der 1960er-Jahre wurde hier an Robotern geforscht«, erinnert sich Dillmann. Ging es zu jener Zeit noch um die sogenannten Master-Slave-Manipulatoren für die einstmals aufstrebende Kerntechnikforschung, so reicht nun die Bandbreite in den Labors des KIT viel weiter: Über die Gänge des FZI krabbelt heute beispielsweise der Laufroboter Lauron, der einer metergroßen grünen Stabheuschrecke ähnelt, während ein paar Türen weiter Forscher einem Auto das selbständige Einparken beibringen. Und dann ist da am KIT auch noch der humanoide Haushaltsroboter Armar, der seinem Entwickler, Tamim Asfour, aufs Wort gehorcht – ob er nun eine Apfelsaftpackung aus dem Kühlschrank holen, die Geschirrspülmaschine ausräumen oder Menschen beim Abwischen des Tisches beobachten und dann die Bewegungen nachahmen soll.
GEMEINSAME MORGENGYMNASTIK FÜR ROBOTER UND MENSCH Dass Menschen und Roboter heute schon eng zusammenarbeiten können – wenn auch in einer genau definierten Umgebung –, beweist die japanische Firma Glory in einer Produktionslinie nördlich von Tokio. Glory ist ein Spezialist für Bargeldmanagement. In der Saitama-Fabrik des Unternehmens fertigen Menschen und Roboter Seite an Seite Komponenten für Geldautomaten. Die 18 sogenannten Nextage-Roboter von Kawada Industries haben zwar keine Beine, aber dafür zwei sehr bewegliche Arme sowie Kameras im ellipsoidförmigen, lang gestreckten Kopf wie auch in den Greifhänden.
Seit ihrer Installation vor vier Jahren wurden die agilen Arbeiter aus Stahl zu echten Kollegen ihrer menschlichen Partner. Jeder Roboter hat einen eigenen Namen bekommen und macht sogar die Gymnastikübungen am morgendlichen Arbeitsbeginn mit. Wenn hier jeden Tag Frauen, Männer und Roboter einträchtig und fast synchron nebeneinander mit den Armen kreisen, dann wirkt das wie die vorweggenommene Zukunft, wie ein Sinnbild eines hoffentlich harmonischen Zusammenlebens von Mensch und Maschine.12
Aufbruch in die Roboter-Gesellschaft: In der Fabrik des japanischen Unternehmens Glory arbeiten Menschen und Roboter bereits heute Seite an Seite (oben). Ebenfalls in Japan hat der Forscher Hiroshi Ishiguro (unten) schon vor Jahren einen humanoiden Roboter entwickelt, der ihm zum Verwechseln ähnlich sieht.
»Wir werden künftig in einer Gemeinschaft mit Robotern, einer Robot Society, leben«, sagt der Japaner Hiroshi Ishiguro voll Überzeugung. Der oft als »Popstar der Robotik« titulierte 53-jährige Professor an der Universität von Osaka hat die japanische Roboter-Euphorie auf die Spitze getrieben. Er erregt seit einigen Jahren mit den Geminoiden – wie er seine Schöpfungen in Anspielung auf Geminus, das lateinische Wort für Zwilling, nennt – weltweit viel Aufsehen.13
Diese bislang meist ferngesteuerten Androiden sind perfekte Kopien realer Menschen. Von außen ist von ihrem inneren Stahlskelett, den vielen Zahnrädern, Schrauben, Federn, der Hydraulik und den Elektromotoren absolut nichts zu sehen. Ihre Haare und Wimpern, ihre Augen, Lippen und Zähne wirken vollkommen natürlich, und ihre Haut aus Spezialsilikon enthält für die perfekte Täuschung auch kleine Poren und Unreinheiten.
Im Sommer 2006 hatte Ishiguro sogar einen Zwilling von sich selbst hergestellt, mit dem nicht nur seine damals fünfjährige Tochter gerne spielte. Der viel beschäftigte Forscher schickte seinen elektronischen Klon auch schon einmal mit einem vorbereiteten Vortrag zu einer Vorlesung nach Zürich, während er selbst in Japan blieb. Auch auf seiner Visitenkarte hat der Robotiker seinen Geminoid verewigt: Auf der einen Seite ließ er ein Bild von sich selbst drucken, auf der anderen das seines Roboter-Zwillings mit denselben schwarzen Haaren und denselben Gesichtszügen. Wer wer ist, ist unmöglich zu erkennen.
Die Geminoiden nutzt Ishiguro – wie später in Kapitel 12 beschrieben – für Forschungen, um menschliches Verhalten und das Zusammenwirken mit Robotern besser zu verstehen. Außerdem will er damit beweisen, dass es viele Einsatzgebiete geben wird, für die man auf menschenähnliche Roboter setzen sollte. »Ein humanoider Roboter ist einfach das natürlichste Gegenüber für uns«, betont er. »Wir sind nun einmal so konstruiert, dass wir am besten mit Menschen interagieren, mit Gestik, Mimik und Sprache. Oder anders gesagt: Wir brauchen keine Bedienungsanleitung, um mit unseresgleichen zu kommunizieren.« In Krankenhäusern, Hotels und Museen, Geschäften und Bahnhöfen, Seniorenzentren und Schulen, überall sieht Ishiguro künftige Einsatzfelder für die Androiden, die menschenähnlichen Roboter.
RAPTOREN AM HOTELEMPFANG UND HELFER IN SENIORENZENTREN Einiges davon ist bereits Realität. So öffnete im Juli 2015 das Henn-na Hotel – wörtlich übersetzt, das »seltsame Hotel« – in einem Freizeitpark bei Nagasaki seine Pforten.14 An der Rezeption sitzt eine japanisch aussehende Roboter-Dame neben einem raptorenähnlichen Dinosaurier wie aus Jurassic Park, der zwar gruselig wirkt, aber die Besucher ebenso höflich begrüßt wie die Androidin nebenan. Anstelle von Schlüsseln setzt das Hotel auf Gesichtserkennung, automatisch fahrende Wägelchen bringen die Koffer aufs Zimmer, und kleine Sprechpuppen stehen für alle möglichen Dienstleistungen wie etwa den Weckdienst zur Verfügung. Nach Angaben des Hotelmanagers sollen diese innovativen Gimmicks nicht nur Gäste anlocken, sondern auch helfen, die Übernachtungskosten deutlich zu senken.
Auch als Führer in Museen, Verkäufer in Textilgeschäften, Helfer in Seniorenzentren und als Animateure, um Schüler für Technik und Informatik zu begeistern, wurden Roboter schon genutzt – wenngleich oft noch im Versuchsstadium. Doch darüber hinaus sind viele Millionen mehr oder minder intelligenter Maschinen seit Jahren im kommerziellen Einsatz: in Fabriken als Schweiß-, Klebe- oder Montageroboter ebenso wie in Privathäusern als Staubsaug-, Fensterputz- oder Rasenmähroboter. In den Lagern von Amazon transportieren sie Waren, im Weltall reparieren sie Satelliten, und für die Landwirte melken sie Kühe.15
»Die Roboter sind längst unter uns«, betont denn auch Rolf Pfeifer, der über viele Jahre das Labor für Künstliche Intelligenz an der Universität Zürich leitete und mit seinem Team einen der bekanntesten Roboter entwickelte: Roboy, einen Humanoiden, der Muskeln und Sehnen ähnlich wie Menschen besitzt.16 »In Zukunft wird es sicherlich eine noch weit größere Vielfalt, ein ganzes Ökosystem an intelligenten Systemen geben, die uns das Leben erleichtern. Welche davon letztlich erfolgreich sein werden, wird dann der Markt entscheiden«, meint der 69-jährige Roboter-Pionier, der nach seiner Emeritierung in Zürich eine Professur in Osaka angenommen hat und auch in Schanghai Vorlesungen hält.17
Viele dieser intelligenten Systeme der Zukunft, sagt er, würden gar nicht wie Roboter aussehen. »Auch das haben wir heute schon. Denken Sie nur an die selbstfahrenden Autos und ihre Navigationsgeräte, an die Software-Agenten, die an den Börsen tätig sind, oder an die Spracherkennungssoftware Siri.« Sogar sprechende Reiskocher gibt es inzwischen in Asien zu kaufen.
»Es wird sein wie in diesen Disney-Filmen voller Magie«, prophezeit auch der Physiker und Zukunftsforscher Michio Kaku.18 »Wir werden zu Teekannen und Möbeln sprechen.« Computer- und Kommunikationschips werden dann so billig sein, dass sie sich in alle möglichen Dinge einbauen lassen. »In der Kleidung können sie beispielsweise unsere Gesundheit überwachen oder bei einem Unfall einen Krankenwagen alarmieren und die gesamte Krankengeschichte downloaden, noch bevor die Ambulanz ankommt.«
VOR UNS LIEGT DAS ZEITALTER DER ALLGEGENWÄRTIGEN ROBOTER Auf der ICRA-Konferenz im Sommer 2015 in Seattle rief Daniela Rus konsequenterweise das Zeitalter der »Pervasive Robots«, der allgegenwärtigen Roboter, aus.19 Mit rund 3000 Fachbesuchern von Universitäten, Instituten und Firmen aus aller Welt gehört die ICRA, die internationale Konferenz für Robotik und Automatisierung des Berufsverbands von Ingenieuren der Elektro- und Informationstechnik (IEEE), zu den größten Expertentreffen ihrer Art. Hier trifft sich alles, was in der Roboter-Technik Rang und Namen hat. Daniela Rus ist Professorin am berühmten Massachusetts Institute of Technology (MIT) in der Nähe von Boston und als erste Frau zugleich auch Direktorin des dortigen Labors für Computerwissenschaften und Künstliche Intelligenz.
Mit dem Begriff der »Pervasive Robots« nimmt sie Bezug auf den Informatiker Mark Weiser, der schon im Jahr 1990 – als das Internet noch in den Kinderschuhen steckte – das »Pervasive Computing« vorhersagte. Er meinte damit, dass Rechenleistung überall verfügbar sein und praktisch unsichtbar in den Dingen stecken werde. Smartphones und Tablets, intelligente Etiketten sowie in der Kleidung oder am Handgelenk tragbare Minicomputer … »Das Pervasive Computing von Mark Weiser ist heute schon Realität – und die Roboter sind als Nächste an der Reihe«, prophezeit Rus. Sie denkt dabei sowohl an kognitive Systeme, die aussehen, wie man sich einen Roboter vorstellt, als auch an solche, die unsichtbar in den Dingen stecken, wie etwa elektronische Assistenz- und Dialogsysteme. »Die umfassendsten Technologien, die unseren Alltag am meisten beeinflussen«, sagt sie, »sind immer diejenigen, die vor unseren Augen verschwinden, weil sie sich sozusagen perfekt in unsere Umgebung hineinweben und damit verschmelzen.«
All diese Aussagen der Fachleute, von Daniela Rus über Rolf Pfeifer und Rüdiger Dillmann bis zu Hiroshi Ishiguro, machen eines überdeutlich. Ob in den USA, Europa oder Japan – weltweit sind sich die Experten einig, dass der Angriff auf die ureigenste Bastion des Menschen jetzt unmittelbar bevorsteht: auf den Verstand, die kognitiven Fähigkeiten, das selbständige Lernen, Planen und Handeln. Intelligente Systeme, sichtbare und unsichtbare Roboter, werden immer mehr unseren Alltag prägen, Teil unserer Umwelt werden oder sogar zusammen mit uns in einer Roboter-Gesellschaft existieren.
Doch warum gerade jetzt? Computer und Roboter gibt es seit über 50 Jahren – warum sollten die Maschinen gerade jetzt den Intelligenzsprung schaffen?
Ich starrte die elegante Roboter-Dame, die da neben meinem Bett stand, so unverhohlen an, wie ich es mich wohl bei einer menschlichen Krankenschwester nicht getraut hätte. Die weichen, fließenden Bewegungen ihres Kopfes, die täuschend echte Haut, die lebendig wirkenden Augen …
Ich hatte immer gedacht, dass ich bei technischen Weiterentwicklungen einigermaßen auf der Höhe der Zeit war, aber diese Androidin verblüffte mich. Die Firma, die sie hergestellt hatte, musste ich unbedingt kennenlernen! Liscom Robotics? Nie gehört.
Ich wollte sie gerade danach fragen, da durchzuckte mich wie ein Blitz die Erkenntnis, was sie vorhin gesagt hatte. Sie betreue Langzeitpatienten rund um die Uhr – hatte ich das richtig verstanden? Auf einmal steckte mir ein Kloß im Hals. Ich musste erst schlucken, bevor ich die Frage herausbrachte: »Langzeitpatienten? Samantha … wie lange bin ich schon hier?«
»30 Jahre, sieben Monate und zwei Tage«, antwortete sie sanft.
Peng – das saß! Mir wurde heiß, Blut schoss mir in den Kopf.
»Im Februar 2020 wurden Sie in ein künstliches Koma versetzt. Die organische Regeneration konnte allerdings erst vor acht Monaten starten …« – ihre Stimme verschwamm etwas. Blickte Samantha tatsächlich mitleidig auf mich herunter oder bildete ich mir das nur ein?
Was sie sonst noch sagte, nahm ich nicht mehr wahr, denn auf einmal kam die Erinnerung zurück. Die Hitze war weg, jetzt fröstelte es mich. Februar 2020. War das nicht erst gestern gewesen? Ich war mit meinem neuen Elektroauto auf dem Weg ins Labor. Hatte mich auf all die Assistenzsysteme verlassen: Spurhalteassistent und Kollisionswarner, Bremsassistent mit Fußgängererkennung, Stabilitätskontrolle, Stop-and-go-Automatik und was es da so alles gab.
In Gedanken war ich wie immer bei der Arbeit, und ausgerechnet, als ich die steile, kurvenreiche Straße am Fluss hinunterfuhr, klingelte auch noch mein Smartphone. Keine Ahnung, wer dran war. Das war in diesem Moment wirklich meine geringste Sorge, denn auf einmal spielten alle Warnsysteme verrückt.
Die Straße war vereist – das hätte mir schon klar sein müssen, als der Wagen vor mir ins Rutschen kam, aber ich hatte das zu spät registriert. Ich trat erschrocken auf die Bremse, aber es passierte nichts. Einfach gar nichts. Fahrdynamikregelung und Bremsassistent wirkten, als seien sie nicht vorhanden. Sekunden später schlug Gestrüpp am Straßenrand gegen meine Windschutzscheibe, und ich blickte in den Abgrund. Das Letzte, an was ich mich erinnerte, war, dass ich mich fragte, wer das meiner Frau und meiner kleinen Tochter beibringen würde …
Meiner kleinen … 30 Jahre! Sie war damals zehn gewesen! Das heißt, jetzt müsste sie 40 sein!
»Wie geht es meiner Frau und meiner Tochter?«, wollte ich krächzend von Samantha wissen.
»Ihre Familie wird morgen kommen. Der Aufwachtermin war eigentlich für morgen angesetzt«, antwortete sie – und mit einem Blick auf mein Gesicht ergänzte sie: »Sie waren oft hier.« Konnte diese Androidin etwa auch noch Gedanken lesen?
Irgendwie verspürte ich trotz allem Erleichterung. Sie waren oft hier gewesen, hier an diesem Bett, bei mir, dem Komapatienten. 30 Jahre lang, mein Gott! Und morgen würde ich sie wieder sehen und sprechen können. Das machte mich zugleich glücklich und extrem nervös. Um mich abzulenken, sah ich zu dem anderen Roboter hinüber, der auf mich wie ein Kegel mit zwei Armen wirkte und nach wie vor das drehende Hologramm präsentierte.
Ich ahnte etwas. Dieser alte Mann, der da als durchsichtige, 20 Zentimeter kleine Figur in der Luft schwebte, war das etwa ich? Ich warf einen kurzen Blick darauf. Na ja, viele Falten im Gesicht, deutlich schmächtiger als früher, aber für einen 65-Jährigen, der 30 Jahre lang im Bett gelegen hatte, gar nicht so schlecht.
»2050? Wir schreiben wirklich das Jahr 2050?«, murmelte ich.
Auf dem kreisrunden Kopf des Kegelroboters erschien ein riesiges Smiley, und auch Samantha, die nun zu ihrem Kollegen getreten war, lächelte. »Ja«, sagte sie.
Ich nickte in Richtung des Hologramms, das nun immer detaillierter wurde und offenbar mein Kreislaufsystem bis in die feinsten Verästelungen zeigte. »Ist sicher viel passiert in diesen 30 Jahren. Ich nehme an, das ist ein Live-Streaming aus der Cloud der Klinik?«
Das Smiley auf dem runden Kopf des kleinen Roboters lachte mit offenem Mund, und aus irgendeinem Lautsprecher des fröhlichen Gesellen erklang ein »Absolut korrekt! Die Daten stammen aus der Medical Sphere.«
»Das muss doch eine enorme Datenrate erfordern.«
Jetzt antwortete wieder Samantha: »Das ist gar nicht so viel. Doch wenn wir jetzt Messungen an Ihnen durchführen würden, etwa in den Blutgefäßen, dann könnte ich den Ärzten 3-D-Daten aus dem Körperinneren liefern – mit 100 Gigabit pro Sekunde, in Echtzeit und bis hinunter zur molekularen Bildgebung.«
Ich starrte sie an, mit offenem Mund. »Sie meinen drahtlos? Per Funk? 100 Gigabit pro Sekunde? Das ist ja 1000-mal schneller als das Beste, was wir 2020 geschafft hatten!«
Die Androidin nickte bestätigend, und ich meinte nur: »Samantha, ich glaube, Sie sollten mir ein bisschen etwas über die technischen Entwicklungen der letzten Jahrzehnte erzählen.«
Alles begann mit einer scheinbar simplen Überlegung. »Können Maschinen denken?« – mit dieser Frage leitete der geniale britische Mathematiker und Kryptoanalytiker Alan Turing im Jahr 1950 einen Fachaufsatz ein, der Generationen von Forschern inspirieren sollte.20 Turing, der im Zweiten Weltkrieg eine entscheidende Rolle bei der Entschlüsselung der deutschen Enigma-Maschine gespielt hatte, war sich natürlich vollkommen bewusst, dass sich trefflich darüber streiten ließ, was »denken« überhaupt bedeutet.
Daher ersetzte er seine eher philosophische Frage durch einen einfachen praktischen Test.21 In diesem Experiment führt ein menschlicher Fragesteller mit zwei Gesprächspartnern, die er weder sehen noch hören kann, via Bildschirm eine Unterhaltung. Das eine Gegenüber ist ein Mensch, das andere eine Maschine – und beide versuchen, den Fragesteller davon zu überzeugen, dass sie in Wirklichkeit Menschen sind. Wenn dieser anschließend nicht klar sagen kann, wer wer ist, hat die Maschine den Test bestanden, und Alan Turing schlägt vor, ihr dann ein dem Menschen ebenbürtiges Denkvermögen zu unterstellen.
40 Jahre nach Turings Veröffentlichung, 1990, schrieb der amerikanische Soziologe Hugh Gene Loebner einen nach ihm benannten Preis aus, der an dasjenige Computerprogramm gehen soll, das den Turing-Test erstmals besteht: In der ursprünglich von Turing konzipierten Form, in der die Gegenüber nur schriftlich kommunizieren, ist er mit 25000 Dollar dotiert, in einer erweiterten Variante, bei der auch Multimedia-Inhalte wie Bilder, Sprache und Videos verarbeitet werden müssen, sogar mit 100000 Dollar.22
Bisher musste das Preisgeld allerdings noch nie ausbezahlt werden. Das beste System des Jahres 2015, das sich dem Loebner-Wettbewerb stellte und einen Dialog mit der Jury versuchte, hieß Rose – angeblich eine 30 Jahre alte Sicherheitsberaterin aus der Hackerszene. Doch bereits nach wenigen Minuten gelang es der Jury, sie als »nicht menschlich« zu enttarnen: Ihre Antworten enthielten zwar eine Menge kluger Gedanken, aber manchmal wich sie Fragen ungeschickt aus, verwendete dieselben Textbausteine mehrfach und wusste auf einfache Alltagsfragen keine sinnvolle Antwort. Hinter Rose steckte ein vom Programmierer Bruce Wilcox entwickeltes Chatbot-System, also ein automatisches Dialogsystem.23 Eine der menschlichen Intelligenz ebenbürtige Maschine ist noch lange nicht in Sicht.
VOR 60 JAHREN: DAS ERSTE PROGRAMM, DAS SEINEN ERFINDER BESIEGTE Dennoch hat es seit der Zeit, als Alan Turing seinen Aufsatz schrieb, zweifellos enorme Fortschritte gegeben. Der Begriff »Künstliche Intelligenz« (KI oder im Englischen »Artificial Intelligence«, AI24) fand seit 1956 Verbreitung, als der US-Wissenschaftler John McCarthy eine Konferenz am Dartmouth College in New Hampshire so betitelte. Auf dieser Tagung diskutierten Forscher erstmals über Computer, die Aufgaben lösen sollten, die über das reine Rechnen mit Zahlen hinausgingen, etwa Texte analysieren, Sprachen übersetzen oder Spiele spielen.
Die größte Überraschung auf dieser ersten KI-Konferenz präsentierte der Elektroingenieur Arthur Samuel: Der begeisterte Dame-Spieler hatte für einen IBM-Großrechner ein Programm geschrieben, mit dem er sein Brettspiel üben konnte. Am Anfang kannte das Programm nicht viel mehr als die erlaubten Züge des Dame-Spiels und verlor dementsprechend stets gegen Samuel.
Doch dieser ließ im Hintergrund ein weiteres Programm mitlaufen, das – entsprechend den Strategien, die er selbst kannte – bei jedem Zug die Wahrscheinlichkeit bewertete, ob die aktuelle Aufstellung auf dem Brett eher zum Gewinnen oder zum Verlieren des Spiels führen würde. Und dann hatte Samuel eine geniale Idee: Er ließ den Computer gegen sich selbst spielen und herausfinden, ob diese Wahrscheinlichkeiten korrekt waren oder geändert werden sollten. Spiel für Spiel, wieder und immer wieder. Dabei lernte der Computer hinzu und verbesserte die Genauigkeit seiner Vorhersagen.
Was dann passierte, scheint heute eine Selbstverständlichkeit, war 1956 aber eine Sensation: Der Computer wurde ein so guter Dame-Spieler, dass Samuel keine Chance mehr gegen ihn hatte. Der Meister war besiegt. Ein Mensch hatte erstmals einer Maschine etwas beigebracht, bei dem sie durch stetiges Lernen schließlich besser wurde als ihr eigener Lehrer!
Ab da traute man Maschinen auch zu, Intelligenzleistungen ähnlich dem Menschen zu vollbringen. Der Begriff des »maschinellen Lernens« war plötzlich in aller Munde, und der spätere Wirtschaftsnobelpreisträger Herbert Simon wagte bereits 1957 die Prognose, dass binnen zehn Jahren ein Computer Schachweltmeister werden würde. Es dauerte dann zwar 40 Jahre, bis der IBM-Rechner Deep Blue im Jahr 1997 tatsächlich den damals amtierenden Weltmeister Garri Kasparow unter Turnierbedingungen niederrang, aber im Grundsatz hatte Herbert Simon recht: Auch im Spiel der Könige konnte sich ein Computer schließlich die Krone aufsetzen. Allerdings war hier Deep Blue im engeren Sinne kein lernendes System, sondern einfach ein sehr schnelles: Der Hochleistungscomputer konnte dank der enorm gestiegenen Rechenleistung pro Sekunde 200 Millionen Schachstellungen bewerten.
Den Beleg, dass Rechner sogar Probleme lösen können, für die man vorher hochintelligente Mathematiker brauchte, erbrachte der Sozialwissenschaftler Herbert Simon, der die Schachprognose gewagt hatte, gleich selbst: Zusammen mit einem Informatiker entwickelte er noch in den 1950er-Jahren ein Programm, das Dutzende von logischen Theoremen mathematisch beweisen konnte.
Die Logik wurde daher in der Folge neben dem »Number Crunching« – dem Rechnen mit Zahlen – zur Domäne der Computer. Nach und nach entstanden immer neue sogenannte Expertensysteme, mit denen Computerforscher versuchten, verschiedenste Aufgaben zu bewältigen, etwa durch die Anwendung von Wenn-dann-Regeln im Sinne von: »Wenn die Nase läuft und der Patient Halsweh hat und hustet, aber nur geringes Fieber hat, dann ist die Wahrscheinlichkeit größer, dass es sich um eine simple Erkältung handelt und nicht um eine gefährliche Virusgrippe.«
Doch auch die Rückschläge blieben nicht aus. So mussten die Wissenschaftler bald feststellen, dass solche regelbasierten Systeme für viele Anwendungsfälle gar nicht einsetzbar waren. Darunter fielen zu ihrem Leidwesen auch all diejenigen Tätigkeiten, die den meisten Menschen erheblich weniger Mühe machen, als Zahlen zu multiplizieren, mathematische Theoreme zu beweisen oder Schach zu spielen: beispielsweise Sprache zu verstehen, in Bildern sofort das Wesentliche zu erkennen oder Handschriften zu lesen.
LERNEN UND TRAINIEREN WIE IM MENSCHLICHEN GEHIRN Wenn man einem Computer etwa beibringen will, einen Baum zu erkennen, genügt es nicht, ihm zu beschreiben, wie ein Stamm oder Äste aussehen. Denn auch ein Strommast hat so etwas wie einen Stamm und Äste – und im Winter verlieren viele Bäume ihr Laub, sodass sich auch Blätter nicht als Unterscheidungsmerkmal eignen. Es lassen sich leicht zahllose solcher Fälle finden, wo man mit vorgegebenen Regeln einfach nicht weiterkommt. In den 1970er-Jahren wandten sich daher viele Forscher frustriert vom Gebiet der Künstlichen Intelligenz wieder ab. Die Medien schrieben kritische Artikel, Finanzierungsprogramme wurden gekürzt oder ganz gestrichen – im Rückblick wird dies heute als »Winter der Künstlichen Intelligenz« bezeichnet.
Seither gibt es immer wieder ein Auf und Ab, es entstehen neue Hypes und verschwinden wieder, doch seit Mitte der 1980er-Jahre das revolutionär neue Konzept der Neuronalen Netze seinen Aufschwung nahm – mit einem weiteren Boom seit 2006 –, wächst auch die Zahl der kommerziellen Erfolgsgeschichten. Ein Neuronales Netz orientiert sich, stark vereinfacht ausgedrückt, an der Funktionsweise der Nervenzellen, der Neuronen, im Gehirn: In ihm sind mehrere Schichten künstlicher Neuronen auf komplexe Weise miteinander verbunden, um Informationen zu verarbeiten.25
Da die Stärken dieser Verbindungen variieren können und auch Rückkopplungen möglich sind, sind diese Netze lernfähig. Das Prinzip dahinter ist recht einfach: Wird eine Verbindung immer wieder benutzt, steigt ihre Verbindungsstärke und damit ihre Bedeutung – im Gehirn ist das genauso. Wenn wir oft genug gelernt haben, dass eine rote Ampel »Halt! Gefahr!« bedeutet, dann ist diese Assoziation sofort da, wo immer wir eine rote Ampel sehen.
Insbesondere eignen sich solche Neuronalen Netze dazu, Muster zu erkennen, ohne dass ihnen vom Menschen einprogrammiert werden muss, an welchen exakten Eigenschaften der Muster sie dies festmachen sollen. Präsentiert man ihnen beispielsweise in einer Trainingsphase unzählige Fotos von Bäumen, Katzen oder Autos, können sie anschließend auch unbekannte Bilder sofort als Baum, Katze oder Auto identifizieren.
Ebenso kann man sie mit gesprochenen Worten oder Schriftzeichen trainieren, und sie können anschließend Sprachbefehle oder Handschriften erkennen. Eingesetzt werden heute solche Systeme bei Navigationssystemen ebenso wie bei der Spracherkennung im Smartphone, bei der Briefsortierung in Postverteilanlagen oder auch bei medizinischen Diagnosesystemen.
Doch damit sind noch längst nicht alle Probleme der Künstlichen Intelligenz gelöst. So kann ein Neuronales Netz zwar Muster erkennen, aber es weiß nichts über deren Bedeutung für den menschlichen Alltag. Außerdem gilt nach wie vor der alte Spruch »Computern fällt leicht, was Menschen schwerfällt – und umgekehrt« nicht nur für die klassischen Computer, sondern auch für die Roboter. Türen öffnen und Bälle fangen, laufen und Hindernissen ausweichen, das gehört alles zu den leichtesten Aufgaben, die man einem körperlich gesunden Menschen stellen kann, aber gleichzeitig zu den schwierigsten Aufgaben für Roboter.
Doch die Umkehrung ist ebenso richtig. So können Industrieroboter eine Menge Dinge, die wiederum für Menschen eine Qual sind: Beispielsweise heben sie 24 Stunden am Tag, ohne zu ermüden, schwere Autotüren oder setzen millimetergenau Schweißpunkte, ohne auch nur einmal zu klagen.
ROBOTER SHAKEY: PIONIER FÜR EIN HALBES JAHRHUNDERT Dennoch versuchen Wissenschaftler seit 50 Jahren, die stählernen Helfer aus der reinen Industrieumgebung zu befreien und in den Alltag der Menschen vordringen zu lassen. Der erste Roboter, dem dies ansatzweise gelang, wurde 1965 entwickelt: Forscher am Stanford Research Institute in Menlo Park, Kalifornien, bauten in diesem Jahr Shakey zusammen, den weltweit ersten mobilen, teilautonomen Roboter. Mit Rädern und Batterien konnte er sich selbständig bewegen, über Kamera, Schall- und Kollisionsdetektoren erforschte er seine Umgebung, und per Funk stand er mit einem Zentralcomputer in Kontakt.
Für Shakey wurden erstmals Navigationsalgorithmen erfunden, die noch heute – beispielsweise beim Mars Rover – zum Einsatz kommen. Damit konnte der Roboter Karten der Räume erstellen, durch die er sich bewegte, und sich daran orientieren. Außerdem wurden für ihn Bildanalyseprogramme entwickelt, die besonders gut Kanten sichtbar machten, sowie Problemlösealgorithmen, mit denen er Hindernisse umrunden oder einige komplexere Aktionen durchführen konnte.
»Wir haben mit Shakey vieles gemacht, was nie zuvor versucht worden war – vor allem im Zusammenführen von Robotik und Künstlicher Intelligenz«, erinnerte sich der Stanford-Forscher Peter Hart während der 50-Jahr-Geburtstagsfeier von Shakey auf der ICRA-Konferenz 2015 in Seattle.26 »Und wir mussten erkennen, wie lang und schwierig der Weg zu unserer großen Vision war: einem allgemein einsetzbaren elektronischen Butler. Alles in allem haben wir weniger erreicht, als wir hofften, aber viel mehr, als wir damals erkannten.«
Denn erst in der Rückschau wird offensichtlich, was die Forscher um Peter Hart und seinen damaligen Chef, Charles Rosen, geleistet hatten: Mit seinen Hardware-Komponenten und seinen Software-Algorithmen wurde Shakey zum Vorbild aller autonomen Roboter der nachfolgenden 50 Jahre. Die Microsoft-Gründer Bill Gates und Paul Allen ließen sich von Shakey ebenso inspirieren wie Arthur C. Clarke, der 1968 zusammen mit dem Regisseur Stanley Kubrick im Kinofilm 2001: Odyssee im Weltraum mit HAL 9000 den Prototyp einer gefährlichen Computerintelligenz schuf. Gemeinsam mit HAL 9000 und den fiktiven Robotern aus Star Wars sowie dem sehr realen Asimo teilt sich Pionier Shakey jedenfalls eine besondere Ehre: Bereits kurz nach der Eröffnung der Robot Hall of Fame der Carnegie-Mellon-Universität in Pittsburgh im Jahr 2003 wurde er in diese Ruhmeshalle der weltweit einflussreichsten Roboter aufgenommen.
Auf Shakey folgten viele weitere Roboter-Meilensteine: 1998 startete die Entwicklung der PackBot-Roboter der US-Firma iRobot, die dank ihres Kettenantriebs sogar Treppen erklimmen können und so robust sind, dass sie selbst einen Sturz aus mehreren Metern Höhe überstehen. Eingesetzt werden diese mit Kameras, Mikrofonen und anderen Sensoren ausgerüsteten Maschinen oft vom Militär für die Detektion von Sprengstoffen oder von Polizeikräften, etwa bei Entführungen. Sie waren auch die Ersten, die 2011 die zerstörten Reaktorgebäude von Fukushima erkundeten.
ASIMO, ROOMBA, WATSON UND EIN GEPARD UNTER DEN ROBOTERN Im Jahr 2000 präsentierte Honda nach 15-jähriger Entwicklungszeit den ersten Asimo: Mit 1,30 Meter Höhe war er so groß wie ein Zehnjähriger, mit rund 50 Kilogramm allerdings deutlich schwerer. Doch er lief, sprang, hüpfte und gestikulierte wie ein fröhliches Kind im blickdichten Astronautenanzug – Asimo war der erste echte humanoide Roboter.
2002 kam dann mit dem Staubsaugroboter Roomba von iRobot endlich ein breit einsetzbarer Roboter für den Privatgebrauch auf den Markt. Bereits in den ersten Versionen konnte er Hindernissen ausweichen, selbständig dreckige und staubige Stellen finden und zur Ladestation zurückkehren, wenn er wieder aufgeladen werden musste. Bis heute hat iRobot mehr als zehn Millionen solcher Haushaltsroboter verkauft.
Seit 2010 beschleunigte sich die Entwicklung enorm – sowohl auf den Feldern der Robotik wie der Künstlichen Intelligenz. 2011 brachte Apple die Spracherkennungssoftware Siri als persönlichen Assistenten für Smartphones auf den Markt, und im selben Jahr schlug das Computersystem Watson erstmals die menschlichen Champions im Ratespiel »Jeopardy!«. Bis Watson in der Lage war, 200 Millionen Seiten an Textinhalten zu analysieren – einschließlich des Internetlexikons von Wikipedia –, hatten die IBM-Forscher das System fünf Jahre lang entwickelt und optimiert. Inzwischen ist daraus eine eigene Geschäftseinheit geworden, in die IBM bereits über eine Milliarde Dollar investierte, um Watson für medizinische Analysen ebenso einsetzen zu können wie in Callcentern oder in Banken. In Kapitel 5 werde ich darauf näher eingehen.
2012 präsentierte die US-Firma Boston Dynamics mit Cheetah den schnellsten Roboter der Welt: Mit galoppierenden Sprüngen, mit denen er sogar Hindernisse überwinden kann, erreicht der Vierbeiner bis zu 45 Kilometer pro Stunde. Er ist damit schneller als Usain Bolt, der Olympiasieger und Weltrekordhalter über die 100- und 200-Meter-Strecke. An seinen Namensgeber, den Geparden, der kurzzeitig sogar 120 Kilometer pro Stunde erreicht, kommt Cheetah allerdings noch nicht heran.27
Ebenfalls 2012 gewannen die Firmen Glory und Kawada Industries den japanischen Preis für die »Industrie der nächsten Generation« – ausgezeichnet wurden sie für den Einsatz der Nextage-Roboter in der industriellen Fertigung. 2013 baute Boston Dynamics die ersten Atlas-Roboter für künftige Hilfseinsätze bei Katastrophen, und 2015 zeigten Unternehmen wie Kuka, ABB und Fanuc auf der Industriemesse in Hannover die ersten kollaborativen Roboter, die ohne die bisher in Fabriken üblichen Schutzzäune direkt mit Menschen zusammenarbeiten können.
MILLIARDENTEURE FORSCHUNGSPROGRAMME IN DEN USA, EUROPA UND JAPAN Zugleich fördern Regierungen in aller Welt die Entwicklung: So steckt die National Science Foundation in den USA pro Jahr etwa 200 Millionen Dollar in Künstliche Intelligenz, maschinelles Lernen und die Robotik. Auch die Europäische Union unterstützt im Rahmen ihres Programms Horizont 2020 entsprechende Forschungen in Hunderten von Teilprojekten mit rund 100 Millionen Euro pro Jahr.28 Hinzu kommt als Großprojekt der EU-Kommission das Human-Brain-Projekt (Kapitel 6), das bis 2023 das menschliche Gehirn mittels Computer simulieren und nachbilden soll – wobei die Forscher hoffen, dass dies nicht nur die Medizin, sondern auch die Robotik deutlich voranbringt. Darüber hinaus investiert auch Japan ähnliche Summen in Wissenschafts- und Technologieprogramme, die mithilfe von Robotern und intelligenten Computersystemen dem Katastrophenschutz ebenso dienen sollen wie der älter werdenden Bevölkerung und dem Ausbau der Städte zu »Smart Cities«.
Japans Premierminister Shinzo Abe forderte im Mai 2015 die Firmen des Landes sogar auf, den Einsatz von Robotern »in jeder Ecke von Wirtschaft und Gesellschaft« voranzutreiben. Er will mit einer Roboter-Revolution den Umsatz japanischer Unternehmen auf diesem Feld von derzeit etwa fünf Milliarden Euro pro Jahr bis 2020 mehr als verdreifachen. Schon heute decken Japans Firmen wie Fanuc, Yaskawa und Kawasaki neben Unternehmen aus Deutschland, den USA und Südkorea einen Großteil des Weltmarkts ab – wobei auch China mit seinen rund 600 Roboter-Firmen rasant aufholt.
Doch Japans Premier will an allen vorbeiziehen: So will Abe sogar die Olympischen Sommerspiele 2020, die in Tokio stattfinden, für seine Roboter-Revolution nutzen: »Ich möchte 2020 auch die Roboter der Welt nach Japan rufen, damit sie einen Wettstreit ihrer technischen Fähigkeiten in einer Art Roboter-Olympiade austragen«, sagte er 2014 bei einem Besuch der Saitama-Fabrik von Glory und ergänzte: »Wir sind fest entschlossen, Roboter zu einem Eckstein unserer wirtschaftlichen Wachstumsstrategie zu machen.«
TREIBER NO. 1: DAS MOORESCHE GESETZ FÜHRT ZUM SUPERCOMPUTER IM SMARTPHONE Keine Frage: Wir sind wirklich mittendrin. Die Zeit ist jetzt reif für Roboter und Computer mit einer am Menschen orientierten Intelligenz. Was aber treibt diese Entwicklung, heute und in den nächsten Jahrzehnten? Ein Faktor, der erheblich dazu beiträgt, dass solche Systeme realisiert werden können, ist die exponentielle Zunahme der Rechengeschwindigkeit und der Menge an speicherbaren Daten.
Musste der Roboter Shakey in den 1960er-Jahren noch mit einem Arbeitsspeicher von 192 Kilobyte auskommen, so verfügte der IBM-Rechner Watson beim »Jeopardy!«-Wettstreit im Jahr 2011 bereits über einen Arbeitsspeicher von 16 Terabyte. Das ist 83-Millionen-mal mehr als bei Shakey und zugleich mehr, als alle Bücher der Kongressbibliothek in Washington – der größten Bibliothek der Welt – an Informationen enthalten. Mehr noch: Schaffte Shakey etwa 12000 Rechenoperationen pro Sekunde, so waren es bei den Rechnerschränken von Watson mit ihren 2880 Power-7-Prozessoren rund 80 Billionen Rechenoperationen pro Sekunde. Das ist eine Steigerung um das 6,7-Milliardenfache.
Letztlich basiert all dies auf dem Mooreschen Gesetz, das Gordon Moore, einer der Gründer der Chipfirma Intel, im April 1965 – im selben Jahr, als Shakey gebaut wurde – formulierte.29 Es besagt, dass sich die Zahl der Transistoren, also der elektronischen Schaltelemente, auf einem fingernagelgroßen Mikrochip alle 18 bis 24 Monate verdoppelt. Dieser Wert ist ein entscheidender Faktor für die Rechenleistung und die Speicherfähigkeit der Chips.
So besaß der erste Mikroprozessor, der Intel 4004, im Jahr 1971 insgesamt 2300 Transistoren. 20 Jahre später hatte der Intel 80486 schon 1,2 Millionen Transistoren, und wieder 20 Jahre später verfügte der Power-7-Prozessor von IBM über 1,2 Milliarden Transistoren. Dies entspricht einer Zunahme um das 1000-Fache binnen 20 Jahren – ohne dass die Kosten für solche Mikrochips wesentlich angestiegen sind. Oder anders ausgedrückt: Für das gleiche Geld bekommt man jeweils 20 Jahre später die 1000-fache Speicher- und Rechenleistung.
Ungebremstes Wachstum: Laut dem Futuristen Ray Kurzweil verdoppelt sich alle 1,5 bis zwei Jahre die Leistung eines 1000-Dollar-Computers. Seit 1965 entspricht das dem Mooreschen Gesetz – doch die Entwicklung endet nicht: Zwischen 2035 und 2050 könnte die Rechenleistung des menschlichen Gehirns erreicht sein.
Den Effekt kann jeder von uns in seiner Jackentasche bewundern: Das beste Smartphone von heute ist mit rund 100 Milliarden Rechenoperationen pro Sekunde fast so schnell wie der beste Supercomputer Mitte der 1990er-Jahre. Zugleich sanken aber die Kosten um einen Faktor 10000, und heutige Smartphones brauchen auch nur noch ein Zehntausendstel bis ein Hunderttausendstel der elektrischen Leistung des damaligen Supercomputers. Da jedes Jahr etwa eine Milliarde Smartphones weltweit verkauft werden, kann man ohne Übertreibung sagen, dass heute Milliarden von Menschen Computer mit sich herumtragen, die annähernd so leistungsfähig sind wie Supercomputer vor 20 oder 25 Jahren – von denen es damals nur eine Handvoll gab.
TRANSISTOREN VON DER GRÖSSE WENIGER ATOME Wie lange kann eine solche Entwicklung noch weitergehen? Um zwei Milliarden Transistoren auf die Mikroprozessoren
Tausende von E-Books und Hörbücher
Ihre Zahl wächst ständig und Sie haben eine Fixpreisgarantie.
Sie haben über uns geschrieben: