Future Law -  - E-Book

Future Law E-Book

0,0
77,99 €

-100%
Sammeln Sie Punkte in unserem Gutscheinprogramm und kaufen Sie E-Books und Hörbücher mit bis zu 100% Rabatt.
Mehr erfahren.
Beschreibung

Ob vernetzte Fabriken, intelligente Social Bots oder autonomes Fahren – smarte Produkte sind in aller Munde. Das vorliegende Buch erweitert in der 2. Auflage das Spektrum der Themen, die in Zukunft die rechtliche Diskussion beherrschen werden, bis hin zum Weltraumrecht. Es erörtert Fragen künstlicher Intelligenz und autonomer Systeme, insbesondere unter haftungs- und produktsicherheitsrechtlichen Aspekten; ein praktischer Teil stellt ausgewählte Anwendungen des Internets der Dinge vor.

Das E-Book können Sie in Legimi-Apps oder einer beliebigen App lesen, die das folgende Format unterstützen:

EPUB
MOBI

Seitenzahl: 346

Bewertungen
0,0
0
0
0
0
0
Mehr Informationen
Mehr Informationen
Legimi prüft nicht, ob Rezensionen von Nutzern stammen, die den betreffenden Titel tatsächlich gekauft oder gelesen/gehört haben. Wir entfernen aber gefälschte Rezensionen.



Future Law

Autonomes Fahren, Augmented Reality, Blockchain, Cybersecurity, Digital Twin, GAIA-X, Industrie 4.0, IoT, Robotik, Spacelaw

Herausgegeben von

Philipp Reusch

Rechtsanwalt, Berlin

unter Mitarbeit von

Wiete-Johanna Herweg; Stefan Hessel; Monika Menz; Karin Potel

2., aktualisierte und erweiterte Auflage 2022

Fachmedien Recht und Wirtschaft | dfv Mediengruppe | Frankfurt am Main

Bibliografische Information der Deutschen Nationalbibliothek

Die Deutsche Nationalbibliothek verzeichnet diese Publikation in der Deutschen Nationalbibliografie; detaillierte bibliografische Daten sind im Internet über http://dnb.d-nb.de abrufbar.

ISBN 978-3-8005-1730-5

© 2022 Deutscher Fachverlag GmbH, Fachmedien Recht und Wirtschaft, Frankfurt am Mainwww.ruw.de Das Werk einschließlich aller seiner Teile ist urheberrechtlich geschützt. Jede Verwertung außerhalb der engen Grenzen des Urheberrechtsgesetzes ist ohne Zustimmung des Verlages unzulässig und strafbar. Das gilt insbesondere für Vervielfältigungen, Bearbeitungen, Übersetzungen, Mikroverfilmungen und die Einspeicherung und Verarbeitung in elektronischen Systemen.

Satz: Lichtsatz Michael Glaese GmbH, 69502 Hemsbach

Druck: Druckerei Hachenburg N PMS GmbH, 57627 Hachenburg

Vorwort

Die Innovationssprünge in der realen Welt sind mannigfaltig und es ist eine Binse, dass der rechtliche Rahmen neuer Geschäftsmodelle, Technologien und Produkte nicht immer vollständig und perfekt ist, manchmal schlicht gar nicht existiert und wir die Geburtsstunde neuer Rechtsgebiete live erleben.

Aus dieser Situation ist 2018 die erste Auflage des Future Law erschienen, mit der klaren Zielsetzung, reale Phänomene und deren rechtlichen Rahmen darzustellen. Alles in dem sicheren Bewusstsein, gerade kein Lehrbuch oder Rechtshandbuch entwickeln zu können, in dem fertige Lösungen für Rechtsanwender*innen oder Praktiker*innen enthalten sind.

Vielmehr ging und geht es darum, die unfertigen, evolvierenden Bereiche des Rechts darzustellen, offene Fragen deutlich zu machen und in der nötigen Demut, wo möglich, Empfehlungen oder Lösungen vorzuschlagen – ebenso umgekehrt auf solche zu verzichten, wenn schlicht keine sinnvolle 100 %-Lösung erkennbar ist.

Mit dem Ablauf von nunmehr weiteren vier Jahren hoher Innovationen in allen Bereichen des Wirtschaftslebens hat die Neuauflage ihren Inhalt deutlich erweitern müssen und wollen. Phänomene wie der autonome öPNV, Gestaltungen wie die im Kunstmarkt explosionsartig verbreiteten NFT oder auch die Verbreitung von Systemen künstlicher Intelligenz haben dazu geführt, dass meine Kolleginnen und Kollegen ein erheblich breiteres Spektrum rechtlicher Themen aufgreifen und mit dem Weltraumrecht sogar in einen extraterrestrischen Bereich wechseln konnten.

Future Law möchte Diskussions- und Sachstände darstellen, unterschiedliche Meinungen explizit zulassen, ohne sie aufzulösen – das Buch ist als Basis eines Diskurses gedacht, nicht als dessen Abschluss.

In diesem Sinne bitte ich die geschätzten Leserinnen und Leser um jederzeit gerne genommenes kritisches Feedback, in dem Wunsch, in der dritten Auflage noch mehr Themen und Tiefe entwickeln zu können und in eine fachliche Diskussion zu kommen, die der Entwicklung des Rechts förderlich sein kann.

Dieses Buch wäre ohne die tatkräftige und geduldige Unterstützung der Menschen im DFV nicht möglich gewesen. Ihnen allen gebührt ebenso mein Dank wie meinen Kolleginnen und Kollegen, die Future Law mit ihren Beiträgen bereichert haben.

Ich wünsche Ihnen viel Freude bei der Lektüre und freue mich auf konstruktive Rückmeldungen.

Berlin, im Juli 2022

Philipp Reusch

Inhaltsverzeichnis

Vorwort

Abkürzungsverzeichnis

Teil A Allgemeines

I. Ausgangslage

II. Automatische und autonome Systeme

Teil B Rechtlicher Rahmen autonomer Systeme

I. Vertragliche Haftung gem. § 280 BGB

1. Zustandekommen des Vertrags

a) Abgabe der Willenserklärung

aa) Eigene Willenserklärung des Computeragenten

bb) Zurechnung der Erklärung über § 278 BGB analog

cc) Computeragent als Bote

dd) Offerta ad incertas personas

ee) Stellvertretung (§§ 164ff. BGB)

ff) Anwendung der Grundsätze zur Blanketterklärung

gg) Übertragung der Grundsätze zur Computererklärung

hh) Stellungnahme

b) Zugang der Willenserklärung

2. Pflichtverletzung

a) Anknüpfung an das Verhalten des Computeragenten

b) Zurechnung des Verhaltens des Systems an den Nutzer gem. §§ 280 Abs. 1, 278 BGB

c) Anknüpfung an eigenes Verschulden des Betreibers gem. §§ 280 Abs. 1, 276 BGB

3. Kausalität und Rechtsfolge: Schadensersatz

II. Außervertragliche Haftung

1. § 1 Abs. 1 S. 1 ProdHaftG

a) Rechtsgutsverletzung

b) Produkt, insbesondere Software

c) Fehler

aa) Konstruktionsfehler

bb) Fabrikationsfehler

cc) Instruktionsfehler

d) Kausalität

e) Ersatzberechtigter und Ersatzverpflichteter

f) Haftungsausschluss

2. Haftung nach dem StVG für autonome Fahrzeuge

a) Definition autonomes Fahren

b) Zulassungsrechtliche Probleme des autonomen Fahrens

c) § 7 Abs. 1 StVG

d) § 18 Abs. 1 S. 1 StVG

e) Rechtsfolge: Fiktiver oder konkreter Schadensersatz

f) Anpassung des StVG an die technologische Entwicklung des autonomen Fahrens

aa) Die 8. StVG-Novelle

(1) Erhöhung der Haftungsbeschränkung des § 12 Abs. 1 StVG

(2) Der Entlastungsbeweis gem. § 18 Abs. 1 S. 2 StVG bei autonomen Fahrzeugen

(3) Änderung der Beweislastverteilung durch § 63a Abs. 1 StVG?

(4) Haftungsquotelung

bb) 9. StVG Novelle

cc) Zwischenfazit

g) Exkurs: Die generelle Zulässigkeit des autonomen Fahrens

aa) Ethische Ebene

bb) Technische Ebene

cc) Rechtliche Ebene

dd) Mittelbare Drittwirkung der Grundrechte

ee) Zwischenfazit

3. § 823 BGB

a) Produzentenhaftung

aa) Produktfehler; zusätzlich Produktbeobachtungspflicht

bb) Insbesondere: Updateverpflichtung

cc) Kausalität

dd) Verschulden, Beweislast und Rechtsfolge

b) Nutzerhaftung

III. Schaffung einer ePerson

1. Autonomie als Quelle der Rechtsfähigkeit

2. Auswirkungen auf den Vertragsschluss

3. Alternativer Lösungsansatz

4. Zusätzliche Schaffung eines neuen Gefährdungshaftungstatbestands

5. Notwendigkeit der Schaffung einer ePerson

IV. Produktsicherheitsrechtlicher Rahmen

1. Abgrenzung zum ProdHaftG

2. Anwendungsbereich

4. Adressaten des ProdSG

5. Pflichten aus dem ProdSG

6. Harmonisierter Produktbereich

7. Hauptanwendungsfall

8. KI-Verordnungsentwurf

a) Anwendungsbereich

b) Verbotene KI

c) KI mit hohem Risiko

d) Pflichten für Provider

e) Zwischenfazit

9. Nicht-harmonisierter Produktbereich

10. Befugnisse der Behörden

11. Beweislast

12. Strafen

V. Cybersicherheit und Digitalisierung

1. Cybersicherheit als Herausforderung der Digitalisierung

2. Zunehmende Bedeutung des Datenschutzrechts

a) Neue Anforderungen an technische und organisatorische Maßnahmen

b) Meldung und Benachrichtigung bei Datenschutzverletzungen

c) Verpflichtung von Herstellern durch die DSGVO

d) Drittlandsübermittlungen: Nationale Datenräume dank „Schrems II“?

3. Cybersicherheit für Geschäftsgeheimnisse

4. Aktualisierungspflicht bei digitalen Produkten

5. Betrieb Kritischer Infrastrukturen

6. Neue Herstellerpflichten für IoT-Geräte und andere Funkanlagen

7. Medizinprodukte: Gesundheits-Apps

8. Automotive und Mobility: Mehr Cybersicherheit für autonome Fahrzeuge

9. Cybersicherheit im Entwurf der europäischen KI-Verordnung

10. Compliance Management für Cybersicherheit

VI. Das digitale Upgrade des BGB

1. Die Digitale-Inhalte-Richtlinie und die Notwendigkeit der Digitalisierung des BGB

2. Anwendungsbereich

3. Bereitstellung

4. Neuer Mangelbegriff

5. Berücksichtigung datenschutzrechtlicher Aspekte

6. Aktualisierungen und Änderungen

7. Abweichende Vereinbarungen

8. Fazit

Teil C Space Law

I. Definition

II. Rechtlicher Rahmen

1. Völkerrecht

a) Weltraumvertrag (1967)

b) Weltraumrettungsübereinkommen (1968)

c) Weltraumhaftungsübereinkommen (1972)

d) Weltraumregistrierungsübereinkommen (1975)

e) Mondvertrag (1979)

2. Europarecht

3. Nationales Recht

III. Grundprinzipien des Weltraumrechts

1. Prinzip der freien Erkundung und Benutzung

2. Raumfreiheit

3. Aneignungsverbot

4. Anwendbarkeit des Internationalen Rechts

IV. Grundstruktur der Weltraumhaftung

1. Der Startstaat

2. Staatenhaftung

a) Schadensquellen und Schaden

b) Gefährdungshaftung

c) Verschuldenshaftung

d) Geltendmachung eines Schadensersatzanspruchs

e) Haftungsrisiken

3. Vertragliche und deliktische Haftung der Privatakteure

4. Anwendbares Recht

V. Haftungsrechtlicher Rahmen

VI. Status quo und Ausblick

Teil D Digitale Phänomene und dessen rechtlicher Rahmen

I. Der Digital Twin

1. Arten und Anwendungsbereiche des Digital Twins

a) Arten von Digital Twins

b) Digital Twin in der Bau- und Energiewirtschaft

2. Product Compliance und der Digital Twin

3. Auswirkung auf das Konformitätsverfahren

a) Eigenprüfung der Konformität

b) Überprüfung der Konformität durch eine akkreditierte Stelle

c) Third Party Assessments im Digital Twin

4. Produkthaftungsrechtliche Implikation

5. Gewährleistungsrechtliche Auswirkungen

6. Datenschutzrechtliche Implikation

7. Cybersicherheit im Digital Twin

II. Die Blockchain-Technologie

1. Einführung in die Blockchain

a) Vorteile, Nachteile und technischer Hintergrund

b) Inkompatible Blöcke

c) Mining

d) Das Problem Double-spend

aa) Was ist der Double-spend?

bb) Die Lösung

cc) Haftung für den Double-spend

e) Rechtliche Einordnung von Kryptowährungen und Haftung

2. Rechtliche und technische Komplikationen

a) Unwirksamkeitsgründe des BGB

b) Schwebende Unwirksamkeit

c) Widerruf und Rücktritt

3. Zwischenfazit

4. Selbstausführende Verträge: Smart Contracts

a) Einführung

b) Rechtliche Implikationen

aa) Vertragsschluss oder Vertragsdurchführung

bb) Wirksamer Vertragsschluss

cc) Möglicher Verstoß gegen das RDG

dd) AGB-Recht

5. Non-Fungible-Token (NFT)

a) Einleitung

b) Was sind NFTs?

c) NFT als Rechtsposition

d) Urheberrechtliche Aspekte von NFTs

aa) Urheberrechtlicher Schutz von NFTs

bb) Urheberrechtliche Fragestellungen bei der Erstellung von NFTs

cc) Urheberrechtliche Nutzungsrechte an den Bezugsobjekten

e) Urheberrechtliche Zulässigkeit des Weiterverkaufs von NFTs

f) Kein gutgläubiger Erwerb von Nutzungsrechten

g) Fazit

6. Regulatorischer Rahmen für Kryptowerte

a) Anwendungsbereich der MiCA-Verordnung

b) Pflichten und Anforderungen an Emittenten

c) Krypto-Dienstleistungen

d) Zwischenfazit

III. GAIA-X und der Digital Twin

1. Use Cases von GAIA-X 4 KI

a) Use Case „Produktion“

b) Use Case „AVF“

2. Zielsetzung und (rechtliche) Vorteile von Dateninfrastrukturen

3. Einheitliche rechtliche Standards in Dateninfrastrukturen

a) Datenschutzrechtliche Anforderungen an Dateninfrastrukturen

b) Anforderungen des GeschGehG

4. Praktische Herausforderungen einer einheitlichen europäischen Dateninfrastruktur

5. Praxisbeispiele eines digitalen Zwillings und GAIA-X

a) Smart Living

b) Finanzwirtschaft

c) Gesundheitswesen

d) Öffentliche Verwaltung

Teil E Fazit

Literatur

Abkürzungsverzeichnis

a.A.

anderer Ansicht

ABl.

Amtsblatt

Abs.

Absatz

AFGBV

Autonome Fahrzeug-Genehmigungs- und Betriebs-Verordnung

AGB

Allgemeine Geschäftsbedingungen

Art.

Artikel

AVF

automatisierten und vernetzten Fahren

B2B

Business-to-Business

B2C

Business-to-Consumer

BaFin

Bundesanstalt für Finanzdienstleistungsaufsicht

BAuA

Bundesanstalt für Arbeitsschutz und Arbeitsmedizin

BayLDA

Bayerisches Landesamt für Datenschutzaufsicht

BB

Betriebs-Berater (Zeitschrift)

beckOGK

beck-online.GROSSKOMMENTAR

BeckOK

Beck scher Onlinekommentar

BeckOK-UrhR

Beck’scher Online-Kommentar Urheberrecht

BfArM

Bundesinstitut für Arzneimittelund Medizinprodukte

BGB

Bürgerliches Gesetzbuch

BGBl.

Bundesgesetzblatt

BGH

Bundesgerichtshof

BIM

Building Information Modeling

Bitkom

Bundesverband Informationswirtschaft, Telekommunikation und Neue Medien e.V.

BKR

Zeitschrift für Bank und Kapitalmarktrecht

BMBF

Bundesministeriumfür Bildung und Forschung

BMDV

Bundesministerium für Digitales und Verkehr

BMVI

Bundesministerium für Verkehr und digitale Infrastruktur

BMWK

Bundesministerium für Wirtschaft und Klimaschutz

BSI

Bundesamts für Sicherheit in der Informationstechnik

bspw.

beispielsweise

BT-Drucks.

Bundestagsdrucksache

BVerfG

Bundesverfassungsgericht

bzgl.

bezüglich

bzw.

beziehungsweise

CB

Compliance Berater (Zeitschrift)

CCZ

Corporate Compliance Zeitschrift

CD

Compact Disk

CR

Computer und Recht (Zeitschrift)

CSMS

Cybersicherheitsmanagementsystems

Cybersecurity Act

Verordnung (EU) 2019/881 des Europäischen Parlaments und des Rates vom 17. April 2019 über die ENISA (Agentur der Europäischen Union für Cybersicherheit) und über die Zertifizierung der Cybersicherheit von Informations- und Kommunikationstechnik und zur Aufhebung der Verordnung (EU) Nr. 526/2013

d.h.

das heißt

DiGA

Digitale Gesundheitsanwendungen

DiGAV

Digitale-Gesundheitsanwendungen-Verordnung

Digitale-Inhalte-Richtlinie

RL (EU) 2019/770 über „bestimmte vertragsrechtliche Aspekte der Bereitstellung digitaler Inhalte und digitaler Dienstleistungen

DLT

Distributed-Ledger-Technologie

DSGVO

Datenschutz-Grundverordnung

DSK

Datenschutzkonferenz

DSRITB

Deutsche Stiftung für Recht und Informatik (Tagungsband)

DStR

Deutsches Steuerrecht (Zeitschrift)

DTO

Digital Twin of Organisation

DuD

Datenschutz und Datensicherheit

EDSA

Europäische Datenschutzausschuss

EDSB

Europäische Datenschutzbeauftragte

EJIL

European Journal of International LawWissenschaftliche (Zeitschrift)

ENISA

Europäische Agentur für Netz- und Informationssicherheit

ESA

European Space Agency

ESMA

Europäische Wertpapier- und Marktaufsichtsbehörde

ESO

Europäische Standardisierungsorganisation

etc.

et cetera

EU

Europäische Union

EuGH

Europäischer Gerichtshof

evtl.

eventuell

EWR

Europäischer Wirtschaftsraum

EZB

Europäische Zentralbank

f./ff.

(fort-)folgende

FAZ

Frankfurter Allgemeine Zeitung

FeV

Verordnung über die Zulassung von Personen zum Straßenverkehr (Fahrerlaubnis-Verordnung)

FZV

Verordnung über die Zulassung von Fahrzeugen zum Straßenverkehr (Fahrzeug-Zulassungsverordnung)

gem.

gemäß

GeschGehG

Gesetz zum Schutz von Geschäftsgeheimnissen

GG

Grundgesetz

ggf.

gegebenenfalls

GPSG

Geräte- und Produktsicherheitsgesetz

GRUR

Gewerblicher Rechtsschutz und Urheberrecht

h.M.

herrschende Meinung

hENs

harmonisierte Europäische Normen

HFR

Höchstrichterliche Finanzrechtsprechung (Zeitschrift)

Hrsg.

Herausgeber

Hs.

Halbsatz

i.d.R.

in der Regel

i.S.d.

im Sinne des/der

i.R.d.

im Rahmen des/der

i.S.v.

im Sinne von

i.V.m.

in Verbindung mit

IKT

Informations- und Kommunikationstechnologie

InTeR

Zeitschrift zum Innovations- und Technikrecht

IoT

Internet of Things (Internet der Dinge)

IPFS

InterPlanetary File System

IWRZ

Zeitschrift für Internationales Wirtschaftsrecht

JR

Juristische Rundschau (Zeitschrift)

JuS

Juristische Schulung (Zeitschrift)

JZ

Juristenzeitung (Zeitschrift)

K&R

Kommunikation und Recht (Zeitschrift)

Kap.

Kapitel

Kfz

Kraftfahrzeug

KI

Künstliche Intelligenz

KI-VO-E

Verordnung zur Regulierung von Künstlicher Intelligenz (Entwurf)

km

Kilometer

KRITIS

Kritische Infrastrukturen

KWG

Gesetz über das Kreditwesen

LAG

Landesarbeitsgericht

LfDI

Landesbeauftragter für den Datenschutz und die Informationsfreiheit

LG

Landgericht

lit.

litera

LRZ

E-Zeitschrift für Wirtschaftsrecht und Digitalisierung

LTO

Legal Tribune Online

LuftSiG

Luftsicherheitsgesetzes

m.w.N.

mit weiteren Nachweisen

M2M

Machine-to-Machine

MDR

Monatsschrift für Deutsches Recht

MiCA

Markets in Crypto-Assets

Mio.

Millionen

MMR

MultiMedia und Recht (Zeitschrift)

MR

Medien und Recht (Zeitschrift)

MüKo-BGB

Münchener Kommentar zum Bürgerlichen Gesetzbuch

n.F.

neue Fassung

NASA

National Aeronautics and Space Administration

NFT

Non-Fungible-Token

NJOZ

Neue Juristische Online-Zeitschrift

NJW

Neue Juristische Wochenschrift (Zeitschrift)

NJW-RR

Neue Juristische Wochenschrift Rechtsprechungs-Report Zivilrecht (Zeitschrift)

Nr.

Nummer

NVwZ

Neue Zeitschrift für Verwaltungsrecht

NZA

Neue Zeitschrift für Arbeitsrecht

NZV

Neue Zeitschrift für Verkehrsrecht

OLG

Oberlandesgericht

PHi

Produkthaftpflicht international (Zeitschrift)

ProdHaftG

Gesetz über die Haftung für fehlerhafte Produkte (Produkthaftungsgesetz)

ProdHaft-Richtlinie

Produkthaftungsrichtlinie

ProdSG

Gesetz über die Bereitstellung von Produkten auf dem Markt (Produktsicherungsgesetz)

ProdSV

Produktsicherheitsverordnung

RAüG

Raumfahrtaufgabenübertragungsgesetz

RAW

Recht Automobil Wirtschaft (Zeitschrift)

RdE

Recht der Energiewirtschaft (Zeitschrift)

RDG

Rechtsdienstleistungsgesetz

RDI

Recht Digital (Zeitschrift)

RED

Richtlinie 2014/53/EUüber die Harmonisierung der Rechtsvorschriften der Mitgliedstaatenüber die Bereitstellung von Funkanlagen auf dem Markt (Radio Equipment Directive)

Ri

Recht innovativ (Zeitschrift)

Rn.

Randnummer

Rom I-VO

Verordnung (EG) Nr. 593/2008 über das auf vertragliche Schuldverhältnisse anzuwendende Recht

Rom II-VO

Verordnung (EG) Nr. 864/2007 des Europäischen Parlaments und des Rates vom 11.7.2007 über das auf außervertragliche Schuldverhältnisse anzuwendende Recht

Rspr.

Rechtsprechung

S.

Satz/Seite

s.o.

siehe oben

SGB

Sozialgesetzbuch

sog.

sogenannt/sogenannte(r/s)

st. Rspr.

ständige Rechtsprechung

StGB

Strafgesetzbuch

StIGH

Ständiger Internationaler Gerichtshof

StVG

Straßenverkehrsgesetz

StVO

Straßenverkehrs-Ordnung

StVZO

Straßenverkehrs-Zulassungs-Ordnung

u.a.

unter anderem/und andere

u.U.

unter Umständen

UmweltHG

Umwelthaftungsgesetz

UN

United Nations (Vereinte Nationen)

UNECE

United Nations Economic Commission for Europe

UrhG

Urheberrechtsgesetz

USB

Universal Serial Bus

UWG

Gesetz gegen den unlauteren Wettbewerb

v.

von/vom

vgl.

vergleiche

VO

Verordnung

Vol.

Volume

Vorbem.

Vorbemerkung

VuR

Verbraucher und Recht (Zeitschrift)

VW

Versicherungswirtschaft (Zeitschrift)

WRV

Weltraumvertrag

WRV

Weltraumvertrag

(Wiener) Übereinkommen über den Straßenverkehr

z.B.

zum Beispiel

ZD

Zeitschrift für Datenschutz

Ziff.

Ziffer

zit.

zitiert

ZLW

Zeitschrift für Luft- und Weltraumrecht

ZPO

Zivilprozessordnung

ZRP

Zeitschrift für Rechtspolitik

ZUM

Zeitschrift für Urheber- und Medienrecht

Teil A Allgemeines

I. Ausgangslage

1

Ob smarte Fabriken, intelligente Social Bots oder das neue eThema Metaverse – autonome Systeme sind in aller Munde. Begleitet wird die Diskussion teilweise von Neugier, teilweise von Skepsis. Manch einer hat auch Angst, dass die Entwicklung den Menschen überholen könnte. Als Schlagwörter für diese Technologien haben sich mittlerweile die Begriffe Internet of Things (IoT) oder Internet der Dinge, Industrie 4.0, Deep oder Machine Learning und Machine-to-Machine-Communication (oder M2M-Kommunikation) etabliert. Die verschiedenen Begrifflichkeiten und Anglizismen sollen über eines nicht hinwegtäuschen: Alle behandeln dasselbe Thema. Es geht dabei um Systeme, die intelligent miteinander kommunizieren, eigenständig Lösungen finden und diese durch selbstlernende Prozesse immer weiter verbessern. Ob es sich um physische Systeme wie Autos oder rein digitale Systeme in Form von Software handelt, ist dabei irrelevant. Letztlich fällt einzig der Begriff Industrie 4.0 aus der Reihe. Hierbei handelt es sich um einen von der Bundesregierung kreierten Marketingbegriff zur Förderung benannter Technologien im industriellen Einsatz, international wird man von Industrial IoT sprechen.

2

Eines der frühesten Beispiele autonomer Systeme war teilweise der von IBM entwickelte „Supercomputer“ namens Watson, der 2011 in der Fernsehsendung Jeopardy gegen ehemalige Gewinner antrat und diese besiegte. Die Schwierigkeit bestand für Watson darin, die Struktur der Fragen zu verstehen. Bei Jeopardy bekommen die Kandidaten die Antwort vorgegeben und müssen die dazugehörige Frage stellen. Watson sollte zuvor jedoch nicht mit den möglichen Antwort-Frage-Kombinationen gefüttert werden, sondern die Frage selbst ermitteln. Angesichts der vielen Scherzfragen in dem Format ein schwieriges Unterfangen, da diese eine besondere Schwierigkeit für den Computer darstellten. Das Experiment glückte letztlich jedoch. Der Computer dient heute noch als Grundlage für viele Weiterentwicklungen. Die Pioniere solcher Technologien heißen u.a. Mark Zuckerberg oder Elon Musk mit ihren Unternehmen Meta (ehemals Facebook), Tesla, SpaceX etc., die jedoch vollkommen unterschiedliche Ansichten zu dem Thema vertreten. Während Musk vor den Gefahren der Technologie warnt, versteht Zuckerberg dessen Skepsis weniger. Wenige Tage nach einer Auseinandersetzung zwischen den beiden geschah dann das von vielen Befürchtete, allerdings im kleinen Stil. Meta, damals noch als Facebook agierend, hatte die Kontrolle über sog. „Chat Bots“ kurzzeitig verloren. Es handelt sich dabei um Programme, die in Online-Chats die Position des Gegenübers einnehmen sollen, ohne dass man bemerkt, dass am anderen Ende kein Mensch, sondern eine Maschine sitzt. Diese Bots haben sich zum Training und zur Simulation echter Konversationen miteinander unterhalten und dabei, was unbeabsichtigt war, eine eigene Sprache entwickelt, die niemand verstand. Daraufhin mussten die Bots abgeschaltet und ihnen die englische Sprache wiederauferlegt werden.1 Es kam also nicht zur Machtübernahme durch die Roboter – ein Szenario, dessen sich auch Hollywood gerne bedient. Abseits von Populismus und Panikmache illustrieren solche Vorkommnisse auf zugegebenermaßen amüsante Art und Weise jedoch die Herausforderungen, denen wir uns bei solchen Technologien noch gegenübersehen. Was geschieht, wenn diese „Roboter“ so eigenständig werden, dass sie auf den Input eines Menschen gar nicht mehr angewiesen sind? Wie werden deren Handlungen einem Menschen zugerechnet, oder bedarf es einer Zurechnung gar nicht? Wer haftet, wenn etwas schiefläuft? Vielfach wird daher die Frage gestellt, ob unsere Gesetze durch die Neuerungen, der voraussichtlichen nächsten industriellen Revolution, noch die Gefahren, regulieren können.

3

Rund um die Fragen automatischer und autonomer Systeme soll dieses Buch in Teil I zunächst eine allgemeine Einführung inklusive Definitionen liefern. In Teil II wird der rechtliche Rahmen für Produkte im Allgemeinen und von autonomen Systemen im Speziellen erörtert. Dabei ist zwischen vertraglicher und außervertraglicher Haftung zu differenzieren. Darüber hinaus werden auch produktsicherheitsrechtliche Anforderungen beschrieben. Im Rahmen der vertraglichen Haftung wird insbesondere das Problem des Vertragsschlusses durch oder unter Einschaltung von autonomen Systemen sowie die für die Haftung erforderliche Pflichtverletzung näher beleuchtet. Auf außervertraglicher Ebene liegt der Fokus auf dem autonomen Fahren und der Haftung für Software.

4

Durch die neue StVO, das Gesetz zum autonomen Fahren des BMDV und dem Cybersecurity Act, haben sich nun neue Entwicklungen in den Betrachtungsraum geschoben, die in Ergänzung zur 1. Auflage das Bild abrunden. Teil III behandelt sodann die IoT-Anwendungen der Blockchain, Digital Twin und GAIA-X, die zur Umsetzung der rechtlichen Anforderungen dienen oder autonome Systeme ermöglichen können. Eine besondere Ausprägung bilden NFTs sowie Überlegungen zur Digitalisierung von Warenbegleitdokumenten, die durch Dr. David Saive in Deutschland aufgebracht wurden. Anschließend wird in Teil IV die praktische Relevanz des Weltraumrechts, insbesondere haftungsrechtliche Fragen erläutert, bevor in Teil V ein Fazit gezogen werden soll.

1

Clark

, businessinsider v. 21.6.2017, https://www.businessinsider.com/facebook-chatbots-created-their-own-language-2017-6 (zuletzt abgerufen am 6.4.2022); Indo-Asian News Service v. 31.7.2017, https://gadgets.ndtv.com/social-networking/news/facebook-shuts-ai-system-after-bots-create-own-language-1731309 (zuletzt abgerufen am 6.4.2022).

II. Automatische und autonome Systeme

5

Betrachtet man die Probleme, die sich beim Einsatz von Computern und Maschinen in Haftungsfragen stellen, so sind zunächst automatisierte von autonomen Systemen zu unterscheiden. Je nachdem, ob das System als autonom oder automatisiert einzuordnen ist, schließen sich daran unterschiedliche Fragestellungen an.

6

Automatisierte Systeme funktionieren nach einer eindeutig vorgegebenen Programmierung und führen präzise spezifizierte, sich regelmäßig wiederholende Automatismen aus.2 Ein Beispiel für ein automatisches System ist der Kühlschrank, der nach individuellen Vorgaben jede Woche eine bestimmte Menge Milch bestellt.

7

Thema dieses Buchs sollen jedoch autonome Systeme sein, genannt Computeragenten. Sie agieren zielorientiert in der Interaktion mit anderen Systemen („M2M-Communication“),3 sind lernfähig und in ihren Entscheidungen weitestgehend unabhängig vom eigentlichen Nutzer.4 Dieser beeinflusst lediglich indirekt durch sein eigenes Verhalten die Reaktion des Systems, indem sich dieses an die Verhaltensweisen des Menschen anpasst. So errechnet ein autonomer Kühlschrank aufgrund des bisherigen Milchkonsums der letzten Woche(n) den Bedarf der Zukunft und stimmt in Interaktion mit der ebenfalls intelligenten Kaffeemaschine die Bestellung von Milch und Kaffee für den heimischen Cappuccino ab, die vom System selbst ausgeführt wird. Während beim automatisierten Kühlschrank also eine Voreinstellung durch den Nutzer zu erfolgen hat, „entscheidet“ der autonome Kühlschrank weitestgehend selbst. Dabei sind viele Vorgänge bereits so sehr „autonomisiert“, dass das menschliche Handeln fast vollständig in den Hintergrund tritt und die Reaktion des Systems nicht vorhersehbar ist.5 In diesem Zusammenhang spricht man von der Nicht-Determiniertheit eines Systems, da die Entscheidungen des Systems nicht direkt vom Willen des Nutzers abhängig sind, sondern von dessen Verhalten. Weshalb im Nachhinein häufig auch nicht sicher nachgewiesen werden kann, warum der Computeragent diese Erklärung abgegeben hat.6

2

Dienst/Falke

, in: Bräutigam/Rücker, E-Commerce 14 B I Rn. 5f.;

Groß/Gressel

, NZA 2016, 990, 991.

3

Horner/Kaulartz

, DSRITB 2015, 501, 502;

Simmchen

, MMR 2017, 162, 164.

4

Sorge

, S. 8;

Kuhlmann

, DSRITB 2016, 1039, 1041;

Dienst/Falke

, in: Bräutigam/Rücker, E-Commerce 14 B I Rn. 5f.;

Schuster

, in: Spindler/Schuster, Vorbem. §§ 116ff. BGB Rn. 9;

Müller-Hengstenberg/Kirn

, MMR 2014, 307, 309;

Groß

, InTeR 2018, 4, 5.

5

Beck

, JR 2009, 225, 226.

6

Lukas

, LRZ 2021, 97, 98.

Teil B Rechtlicher Rahmen autonomer Systeme

I. Vertragliche Haftung gem. § 280 BGB

8

Eine Haftung kann sich aus Vertrag oder aus Delikt ergeben. Die vertragliche Haftung richtet sich maßgeblich nach § 280 BGB und ist z.B. in den Fällen einschlägig, in denen in bestehenden Vertragsbeziehungen intelligente Systeme zum Einsatz kommen. Allerdings kommen auch beim Vertragsschluss bereits Computeragenten zum Einsatz. Erste Voraussetzung der Haftung ist das Vorliegen eines Schuldverhältnisses, mithin eines Vertrags.1 Somit ist zunächst zu klären, wie ein Vertrag bei einem zwischengeschalteten Computeragenten zustande kommt. Die weiteren Voraussetzungen des § 280 BGB sind eine Pflichtverletzung, die der Schuldner zu vertreten hat, sowie ein kausaler Schaden.

1.Zustandekommen des Vertrags

9

Ein Vertrag besteht aus zwei übereinstimmenden, aufeinander bezogenen Willenserklärungen, Angebot und Annahme.2 Für die vertragliche Haftung gem. § 280 BGB ist von entscheidender Bedeutung, wer die Willenserklärung abgibt und für und gegen wen sie wirkt. Mit der Beantwortung dieser Fragen werden sowohl der Vertragspartner als auch der Haftungsgegner identifiziert. Eine Willenserklärung wird durch Abgabe und Zugang wirksam.3 Für das Zustandekommen des Vertrags werden in der juristischen Diskussion verschiedene Ansätze verfolgt.

a)Abgabe der Willenserklärung

10

Zunächst ist zu klären, wie die Abgabe einer Willenserklärung durch den Computeragenten zu bewerten ist. Abgegeben ist eine Willenserklärung, wenn sie nach außen hin mit Wissen und rechtlichem Wollen des Erklärenden dergestalt für andere wahrnehmbar gemacht wird, dass an der Endgültigkeit der Äußerung kein vernünftiger Zweifel mehr bestehen kann.4

aa)Eigene Willenserklärung des Computeragenten

11

Da die Erklärung von einem autonomen System stammt, könnte eine Willenserklärung des Computeragenten selbst vorliegen. Eine Willenserklärung besteht aus einem äußeren und einem inneren Tatbestand.

12

Der äußere Tatbestand ist mit der Äußerung, die einen Rechtsfolgenwillen nach außen erkennen lässt,5 auch dann erfüllt, wenn sie von einem Computeragenten stammt.6 Denn objektiv stellt es sich für den Erklärungsempfänger wie die Äußerung eines Rechtsfolgenwillens dar.

13

Der innere Tatbestand umfasst dagegen den Handlungswillen, das Erklärungsbewusstsein und den Geschäftswillen.7 Er erfordert nach ganz überwiegender Meinung die Möglichkeit zur freien Willensbildung, was für den Computeragenten – das autonome System – mehrheitlich bezweifelt wird.8 Denjenigen, der eine Willenserklärung abgibt, können als Rechtsfolge dieser Erklärung bestimmte Rechte und Pflichten treffen, insbesondere aus einem Rechtsgeschäft. Das BGB spricht die Möglichkeit, einen Willen zu bilden und Träger von Rechten und Pflichten zu sein, natürlichen und juristischen Personen zu.9 Eine künstliche ePerson kennt es jedoch nicht. Somit kommt dem Computeragenten keine eigene Rechtspersönlichkeit zu, sodass auch keine Willenserklärung des Systems vorliegen kann.10

14

Nach überwiegender Ansicht kann somit keine eigene Willenserklärung des Systems vorliegen.11 Stattdessen gibt nicht das „Computersystem“, sondern die Person (oder das Unternehmen), die es als Kommunikationsmittel nutzt,12 die Erklärung ab oder ist Empfänger der abgegebenen Erklärung.

15

Es stellt sich folgerichtig somit die Frage, wie die vom System erstellte Erklärung dem Betreiber zugerechnet werden kann.

bb)Zurechnung der Erklärung über § 278 BGB analog

16

§ 278 BGB dient der Zurechnung des Verhaltens von Hilfspersonen zu dem eigentlichen Vertragspartner in bestehenden Sonderrechtsverhältnissen.13 Eine direkte Anwendung des § 278 BGB scheitert daran, dass es sich bei einem Computeragenten mangels Rechtspersönlichkeit nicht um einen Erfüllungsgehilfen handeln kann.14 Zur analogen Anwendung der Norm bedarf es einer planwidrigen Regelungslücke bei vergleichbarer Interessenlage. Eine analoge Anwendung wird dabei von der ganz herrschenden Meinung abgelehnt. Zur Begründung wird angeführt, dass die Beweislastumkehr des § 280 Abs. 1 S. 2 BGB, wonach sich der Schädiger für die Pflichtverletzung exkulpieren muss – und die generell bestehende Pflicht – Maschinen ordnungsgemäß auszuwählen und zu warten, in der Regel ausreichen, um keine Haftungslücken entstehen zu lassen. Demnach fehlt es bereits an der notwendigen Regelungslücke.15

cc)Computeragent als Bote

17

Eine andere Möglichkeit der Zurechnung besteht darin, den Computeragenten als Erklärungsboten zu behandeln. Der Bote, in Abgrenzung zum Stellvertreter i.S.d. §§ 164ff. BGB, ist der Überbringer einer fremden Willenserklärung.16 Einer Geschäftsfähigkeit bedarf es dafür nicht.17 Eine Inhaltsgestaltung durch den Boten findet dabei nicht statt.18 Im beschriebenen Fall des autonomen Kühlschranks bestimmt dieser aber selbst die Menge und damit einen wesentlichen Inhaltsbestandteil der Willenserklärung. Eine Botenstellung scheidet somit nach überwiegender Ansicht ebenfalls aus.19 Darüber hinaus ergäbe sich das Problem, dass das System mangels eigener Rechtspersönlichkeit auch keine Haftungsverpflichtung des „Pseudoboten“20 gem. § 122 BGB analog treffen kann.

dd)Offerta ad incertas personas

18

Der Einsatz von autonomen Systemen könnte auch als ein Angebot an jedermann (sog. „offerta ad incertas personas“) durch den Nutzer gewertet werden. Diese Ansicht geht davon aus, dass durch den Einsatz des Computeragenten, ähnlich dem Aufstellen eines Warenautomaten, die Bereitschaft zum Vertragsschluss signalisiert wird, da zum Vertragsschluss keine weitere Willensbetätigung des Nutzers mehr notwendig ist. Dem ist jedoch entgegenzuhalten, dass der Computeragent, anders als der Warenautomat, keine Willenserklärungen „auf Vorrat“ bereithält, sondern für jeden Fall individuell neue Willenserklärungen erstellt.21 Darüber hinaus wird gegen diese Lösungsmöglichkeit angeführt, dass der Betreiber des Computeragenten zum einen dessen Willen nicht konkretisiert antizipieren kann. Dies ist jedoch für die Rechtsfigur der offerta ad incertas personas erforderlich. Zum anderen besteht ein weiteres Problem darin, dass bei dieser Konstruktion kein Vertrag zustande kommen kann, wenn auf beiden Seiten autonome Systeme eingesetzt werden. Von beiden Seiten könnten dann nur Angebote abgegeben werden, jedoch nicht angenommen werden. Ein Vertrag kann somit nicht zustande kommen.22 Dem wiederum ist entgegenzuhalten, dass die für den Vertragsschluss erforderlichen Willenserklärungen sich nur inhaltlich decken und aufeinander bezogen sein müssen. Dafür genügen aber auch zwei Erklärungen mit dem Inhalt „Ich bin bereit zum Vertragsschluss mit dem Inhalt X“. Nicht erforderlich ist, dass die Willenserklärung ausdrücklich als Angebot und Annahme erkennbar ist.

ee)Stellvertretung (§§ 164ff. BGB)

19

Eine weitere mögliche Lösung besteht darin, den Computeragenten als Stellvertreter des Betreibers i.S.d. §§ 164ff. BGB zu behandeln. Dazu müsste das autonome System eine eigene Willenserklärung im fremden Namen mit Vertretungsmacht abgeben.23 Die Vertretungsmacht könnte zwar aus der Programmierung stammen.24 Dem steht entgegen, dass der Vertreter zumindest beschränkt geschäftsfähig gem. § 165 BGB und damit rechtsfähig gem. § 1 BGB sein muss. Es bedarf daher einer eigenen Rechtspersönlichkeit des Computeragenten. Beides trifft auf den Computeragenten nicht zu.25

20

Eine direkte Anwendung der §§ 164ff. BGB scheidet somit aus. Es käme eine analoge Anwendung der §§ 164ff. BGB in Betracht. Für eine Analogie bedarf es einer planwidrigen Regelungslücke bei vergleichbarer Interessenlage.

21

Für den Vertragsschluss unter Einschaltung autonomer Systeme wurden keine gesetzlichen Regelungen getroffen. Es besteht somit eine Regelungslücke. Die Planwidrigkeit der Regelungslücke ließe sich verneinen, wenn man bedenkt, dass der heutige Gesetzgeber in Kenntnis der Rechtslage weder auf nationaler noch auf europäischer Ebene tätig geworden ist. Er könnte somit eine bewusste Entscheidung getroffen haben, den Fall des Computeragenten nicht zu regeln. Angesichts des Umstands, dass die Agentenproblematik in kaum einem Rechtsgebiet ausdrückliche Berücksichtigung findet, wird in der Literatur teilweise von einer Planwidrigkeit ausgegangen.26

22

Betrachtet man jedoch die Haftung des Vertreters ohne Vertretungsmacht gem. §§ 179ff. BGB, so bedarf es auch hierfür einer eigenen Rechtspersönlichkeit, die das autonome System nicht besitzt. Zwar ist die fehlende Rechtspersönlichkeit des autonomen Systems gerade der Grund für die Analogie. Bis auf die Teilrechtsfähigkeit, die dem Computeragenten jedoch ebenfalls nicht zukommt, gibt es aber keine der Rechtsfähigkeit vergleichbare Konstellation. Die Analogie scheitert somit allenfalls an der Vergleichbarkeit der Interessenlagen.27 Die Rechtsfähigkeit stellt eine nicht analogiefähige Voraussetzung der §§ 164ff. BGB dar.

ff)Anwendung der Grundsätze zur Blanketterklärung

23

Eine Zurechnung der Erklärung könnte über die Grundsätze zur Blanketterklärung erfolgen. Die Grundsätze der Blanketterklärung finden Anwendung, wenn der Erklärende ein blanko ausgefülltes Vertragsformular mit Handlungswillen und Erklärungsbewusstsein an einen anderen übergibt und dieser dazu ermächtigt wird, das Formular auszufüllen. Einen auf die konkrete Erklärung bezogenen Geschäftswillen besitzt der Blankettgeber nicht, da er diese noch nicht kennt.28 Trotzdem wird ihm die Erklärung auch bei abredewidrigem Ausfüllen nach den Grundsätzen der Blanketterklärung zugerechnet. Ihm sind die mit seinem Verhalten einhergehenden Missbrauchsmöglichkeiten bekannt oder müssen ihm bekannt sein.29 Eine Geschäfts- oder Rechtsfähigkeit des Blankettnehmers ist dabei keine Voraussetzung.30

24

Nach einer Ansicht gelten diese Grundsätze, wenn sie schon für die Überreichung des Blanketts an eine natürliche Person gelten, erst recht dann, wenn zum Vertragsschluss „nur“ ein Computeragent eingesetzt wird. Denn im Gegensatz zur natürlichen Person sei der Computeragent in höherem Maße durch technische Maßnahmen kontrollierbar.31

25

Dem wird entgegengehalten, dass Computersysteme, anders als natürliche Personen, anfälliger für Angriffe von außen sind, z.B. durch Hacking. Zwar ist auch der Mensch durch externe Einwirkungen beeinflussbar. Dies zeigt jedoch, dass der Einsatz eines Computers nicht ohne Weiteres mit dem eines Menschen vergleichbar ist, sodass ein Erst-Recht-Schluss ausscheidet. Trotzdem lassen sich gewisse Parallelen nicht abstreiten. Auch nach der Gegenansicht sind die Grundsätze zur Blanketterklärung daher grundsätzlich anwendbar.32

26

Dem wird wiederum entgegnet, dass es aus rechtsökonomischer Sicht nicht förderlich ist, dem Betreiber eines autonomen Systems jede produzierte Willenserklärung zuzurechnen, da dies dem Einsatz von Computeragenten und somit dem technischen Fortschritt im Wege stünde. Die Technologie würde unattraktiver werden, wenn auch alle nicht beabsichtigten Erklärungen zugerechnet würden. Außerdem wird kritisiert, worin genau der Anknüpfungspunkt für die Anwendung der Grundsätze zur Blanketterklärung bestehen soll, der bei Computeragenten der Blankounterschrift des Blankettgebers entspricht. Dafür kommt lediglich das Betreiben des Systems in Betracht.33 Bei der Blanketterklärung wird jedoch jeder Fall der Zurechnung einzeln bewertet und nicht einmalig eine Blankounterschrift für alle zukünftigen Fälle ausgestellt. Somit kann im Einzelfall der subjektive Tatbestand der zuzurechnenden Willenserklärung fingiert werden. Ginge man vom Betreiben des autonomen Systems als Anknüpfungspunkt aus, so würde man für alle zukünftig generierten Willenserklärungen dauerhaft den subjektiven Tatbestand fingieren.34

gg)Übertragung der Grundsätze zur Computererklärung

27

Die Grundsätze der Computererklärung finden bei automatisch produzierten Erklärungen von Computern Anwendung. Nach einer Ansicht sind diese Grundsätze auf Erklärungen von autonomen Systemen zu übertragen. Die Computererklärung wird unter vorher festgelegten Voraussetzungen ausgegeben. Diese werden durch die Programmierung des Systems durch den Nutzer geschaffen. Das Zurechnungsmodell der Computererklärung kommt somit grundsätzlich bei automatischen Systemen zur Anwendung. Demnach wird der Wille des Betreibers durch die Programmierung des automatischen Systems antizipiert. Anknüpfungspunkt ist daher die Inbetriebnahme und die Programmierung des Systems.35 Eine generelle Fiktion des subjektiven Tatbestands wie bei der Blanketterklärung findet nicht statt, da dieser bei Inbetriebnahme des Systems beim Betreiber bereits vorliegt.

28

Ob sich diese Grundsätze jedoch tatsächlich auf die Erklärung eines autonom handelnden Systems übertragen lassen, ist wegen der zunehmenden Selbstständigkeit umstritten.36

29

Dies bejahend wird angeführt, dass durch die Inbetriebnahme des autonomen Computeragenten ebenfalls eine Vorprogrammierung vorgenommen wurde, die lediglich in Form von Variablen erfolgte.37 Diese Variablen befinden sich von Beginn der Inbetriebnahme in der „Gleichung“ des Systems und werden durch das Verhalten des Nutzers konkretisiert. Nach dieser Ansicht ließe sich die Erklärung des Computeragenten dem Betreiber analog den Grundsätzen der Computererklärung zurechnen.38

30

Dem ist entgegenzuhalten, dass die Willensbetätigung des Nutzers bei automatisierten Willenserklärungen bereits stärker konkretisiert ist als dies bei der Inbetriebnahme autonomer Systeme der Fall ist. Die mangelnde Konkretisierung wird gerade durch die Verwendung von Variablen und Algorithmen verdeutlicht. Zum Teil wird daher schon wegen der Autonomie des Computeragenten die Vergleichbarkeit zur Computererklärung verneint.39 Bejaht man die grundsätzliche Vergleichbarkeit, ist es trotzdem fraglich, ob eine Übertragung der Grundsätze möglich ist. Das Ergebnis der Übertragung müsste eine Erklärung sein, die sowohl den äußeren als auch den inneren Tatbestand einer Willenserklärung erfüllt. Hilfreich kann die Zerlegung des Worts „Willenserklärung“ in seine Bestandteile „Wille“ und „Erklärung“ sein.

31

Eine Erklärung, die sich nach außen als Äußerung eines Rechtsfolgenwillens darstellt, liegt auch bei einem Computeragenten vor. Der äußere Tatbestand ist somit erfüllt.

32

Der innere Tatbestand besteht aus dem Handlungswillen, dem Erklärungsbewusstsein und dem Geschäftswillen. Hierfür bedarf es nach überwiegender Ansicht der Möglichkeit zur Willensbildung. Diese Fähigkeit wird Computeragenten jedoch abgesprochen.40 Der „Wille“ muss daher vom Nutzer stammen. Dieser hat jedoch zum Zeitpunkt der Inbetriebnahme und zum Teil auch bei Abgabe der Willenserklärung durch den Computeragenten noch gar keinen konkreten Willen gebildet. Somit wird zum Teil nach einer Möglichkeit gesucht, die Willensbildung des Betreibers in irgendeiner Form auf das autonome System auszulagern. Mayinger kritisiert dabei, dass durch die Anwendung der Grundsätze zur Computererklärung bei autonomen Systemen eine vollständige Fiktion des subjektiven Tatbestands der Willenserklärung vorgenommen wird.41

33

Die Aussage der Fiktion des subjektiven Tatbestands sollte kritisch untersucht werden. Wie bereits dargestellt, besteht der subjektive Tatbestand der Willenserklärung aus dem Handlungswillen, Erklärungsbewusstsein und Geschäftswillen.42 Der Handlungswille ist der Wille, überhaupt zu handeln. Das Erklärungsbewusstsein erfordert das Bewusstsein, durch sein Handeln eine rechtserhebliche Erklärung abzugeben. Der auf die Herbeiführung einer bestimmten Rechtsfolge gerichtete Wille, mithin die Vornahme des konkreten Geschäfts, erfüllt schließlich die Anforderungen an den Geschäftswillen. Nach herrschender Meinung ist im subjektiven Tatbestand das einzige konstitutive Element einer Willenserklärung der Handlungswille.43 Bei fehlendem Erklärungsbewusstsein kommt lediglich eine Anfechtbarkeit der Willenserklärung gem. § 119 Abs. 1 BGB analog in Betracht, wenn sich das Verhalten des Erklärenden dem Empfänger als Ausdruck eines Rechtsfolgenwillens darstellt.44 Begründet wird dies mit der Schutzbedürftigkeit des Erklärungsempfängers, für den sich das Verhalten des Erklärenden wie eine Willenserklärung darstellt und der von den inneren Vorgängen beim Erklärenden keine Kenntnis haben kann. Eines auf das konkrete Rechtsgeschäft bezogenen Geschäftswillens bedarf es daher ebenfalls nicht. Ein Fehlen des Geschäftswillens führt vielmehr zur Anfechtbarkeit der Willenserklärung gem. § 119 BGB.45

34

Mayingers Argumentation geht fehl. Der Anknüpfungspunkt der Computererklärung ist nicht der Wille des Computeragenten, sondern dessen Betreibers. Es ist im Moment wohl zutreffend, dass autonome Systeme nicht die Fähigkeit besitzen, einen Willen zu bilden. Darauf kommt es jedoch nicht an. Im Falle des Einsatzes eines autonom handelnden Computeragenten kann der Anknüpfungspunkt für die Abgabe einer Willenserklärung durch den Nutzer nur die Inbetriebnahme des Systems sein. Sie ist gleichzeitig die einzige durch den Nutzer gesetzte Voraussetzung für die spätere Erklärung.46 Einer Auslagerung der Willensbildung auf den Computeragenten bedarf es dann gerade nicht.

35

Somit ist das Vorliegen des subjektiven Tatbestands im Moment der Inbetriebnahme zu untersuchen. Bei willentlicher Inbetriebnahme ist der Handlungswille zweifelsohne gegeben. Hierdurch wird die Abgabe der Willenserklärung letztendlich auch in Gang gesetzt. Das Vorliegen des Handlungswillens ist jedoch das einzige zwingende Merkmal des subjektiven Tatbestands einer Willenserklärung. Somit kann von der vollständigen Fiktion desselben keine Rede sein. Auf das Erklärungsbewusstsein und den Geschäftswillen kommt es dann nicht mehr an, wenn das Verhalten von außen betrachtet auf einen Rechtsbindungswillen schließen lässt. Der Empfänger der Erklärung des Computeragenten hat von der Verwendung des autonomen Systems unter Umständen keine Kenntnis. Für ihn stellt sich das Verhalten somit als Ausdruck eines Rechtsbindungswillens und damit als Willenserklärung des Nutzers des Computeragenten dar. Auf das eventuell fehlende Erklärungsbewusstsein oder den wohl zweifellos fehlenden Geschäftswillen kommt es nicht an.47

36

Teilweise wird das Vorliegen des Erklärungsbewusstseins sogar bejaht. Der Betreiber eines Computeragenten hat damit zu rechnen, dass das Verhalten des Systems als Willenserklärungen aufgefasst werden kann. Dies genügt nach h.M. für das sog. potenzielle Erklärungsbewusstsein.48

37

Das Vorliegen des Geschäftswillens verneint auch diese Ansicht, was jedoch nicht die Nichtigkeit der Willenserklärung zur Folge hat.49 Stattdessen ist unter Umständen eine Anfechtbarkeit der Willenserklärung gem. § 119 BGB analog oder direkt zu bejahen.

38

Sorge kritisiert diese Anfechtungsmöglichkeit mit Hinweis auf die Interessenlage. Der Betreiber eines Computeragenten profitiert maßgeblich von der autonomen Erstellung von Erklärungen. Deshalb soll die Anfechtung zwar möglich, aber i.d.R. ausgeschlossen sein. Der potenziell zur Anfechtung berechtigende Fehler geschieht in der Erklärungsvorbereitung. Der Prozess der (Geschäfts-)Willensbildung sei demnach dem System übertragen.50 Es handele sich somit um einen Motivirrtum. Ein Motivirrtum berechtigt jedoch nicht zur Anfechtung.

39

Der Einschränkung der Anfechtungsmöglichkeit ist ebenfalls kritisch gegenüberzutreten. Das autonome System besitzt gerade nicht die Fähigkeit zur Bildung eines Willens, mithin eines Geschäftswillens. Der Aussage Sorges, dass dem Computeragenten der Prozess der Willensbildung übertragen wurde, kann somit nicht zugestimmt werden. Die bisher in Literatur und Rechtsprechung verbreitete Auffassung, dass für das Vorliegen einer Willenserklärung der Geschäftswille nicht erforderlich ist, kommt nach vertretener Ansicht bereits zu interessengerechten Ergebnissen. Denn eine Willenserklärung liegt vor, die Anfechtbarkeit selbiger ist mangels Geschäftswillens jedoch grundsätzlich zu bejahen. Ein Motivirrtum liegt darin gerade nicht.

40

Mayinger argumentiert, dass der Betreiber des autonomen Systems schützenswerter sei als ein normaler Erklärender, dem das Erklärungsbewusstsein fehlt.51 Grund dafür sei die inhaltliche Ausgestaltung der Erklärung durch den Computeragenten, auf die der Betreiber weniger Einfluss hat. Nach ihrer Ansicht sollte der Betreiber daher bessergestellt werden als der Erklärende. Die Schutzbedürftigkeit des Betreibers wird im Ergebnis allerdings lediglich mit Wirtschaftlichkeits- und Praktikabilitätsgedanken begründet. Dem ist daher nicht zuzustimmen. Der Betreiber ist sich über die Gefahren der Nutzung bewusst oder muss sich darüber bewusst sein. Eine Privilegierung rechtfertigt dies nicht.

41

Zur Einschränkung der Zurechnung könnte dem Betreiber jedoch ein Korrektiv zur Seite gestellt werden. Das Vorliegen einer Willenserklärung wird grundsätzlich verneint, wenn der Erklärende bei Anwendung der im Verkehr erforderlichen Sorgfalt nicht hätte erkennen und vermeiden können, dass sein Verhalten vom Empfänger nach Treu und Glauben und mit Rücksicht auf die Verkehrssitte als Willenserklärung aufgefasst werden durfte.52 Richtigerweise kann beim Einsatz von Computeragenten so jedoch nicht das Vorliegen einer Willenserklärung verneint werden. Eine Erklärung des Systems, die sich auch für den Empfänger als Willenserklärung des Nutzers darstellt und auch vernünftigerweise darstellen darf, liegt vor. Denn der Erklärungsempfänger hat keinen Einblick in die Vorgänge beim Erklärenden und weiß zum Teil gar nicht, dass die Erklärung von einer Maschine und nicht von einem Menschen stammt. Es kann daher nur die Zurechnung der Willenserklärung verneint werden, nicht aber bereits deren Vorliegen. Dies wird dem Problem der durch autonome Systeme generierten Willenserklärungen auch am ehesten gerecht. Kommt es durch Programmierungs- oder Softwarefehler im System zu Erklärungen, mit denen der Nutzer auch bei Anwendung der im Verkehr erforderlichen Sorgfalt nicht zu rechnen braucht, liegt somit keine Willenserklärung des Betreibers vor. Daran schließen sich jedoch weitere Fragen an.

42

Problematisch erscheint dabei, dass der Empfänger in solchen Fällen schutzlos dasteht. Die Vermeidung jeglicher Schäden wird in solchen Situationen jedoch nicht möglich sein. Vielmehr ist ein Interessenausgleich zwischen der Schutzbedürftigkeit des Empfängers und des Erklärenden vorzunehmen. Wird jedoch ein Ergebnis – gleich ob durch einen Computeragenten oder den Erklärenden – produziert, mit dem der Erklärende bei Anwendung der im Verkehr erforderlichen Sorgfalt nicht zu rechnen braucht, braucht er sich daran auch nicht festhalten zu lassen. Zumal sich mit dem Begriff der „im Verkehr erforderlichen Sorgfalt“ ein unbestimmter Rechtsbegriff und damit eine weitere Stellschraube findet, mit der ein interessengerechter Ausgleich vorgenommen werden kann. Es ließen sich im Rahmen der Rechtsfortbildung z.B. höhere Anforderungen an die im Verkehr erforderliche Sorgfalt bei der Verwendung von autonomen Systemen stellen, etwa in Form von regelmäßiger Wartung und Überwachung. Diese Pflichten bestehen auch jetzt schon, könnten aber bei Computeragenten stärker ausgeprägt sein. Zwar werden die Gegner dieser Ansicht mit Recht anführen, dass sich Überwachungserfordernisse gerade nicht mit dem Gedanken der Autonomisierung des Rechtsverkehrs in Einklang bringen lassen. Solange jedoch keine hinreichende Zuverlässigkeit der Systeme und damit auch Akzeptanz in der Gesellschaft bestehen, ist es die Sache des Betreibers, ob er sich eines autonomen Systems bedient oder nicht. Die Gefahrtragung kann dabei nicht auf den Erklärungsempfänger abgewälzt werden. Dem steht auch nicht entgegen, dass bei der Verwendung eines Computeragenten die Gefahr der bewussten Abweichung vom Willen des Betreibers wie bei der Einschaltung von Boten oder Stellvertretern nicht gegeben ist.53 Die Beschränkung einiger Gefahren kann keine Kompensation dafür darstellen, dass sich an anderer Stelle die Gefahr eventuell erhöht hat. Letztlich liegt es auch an der Auswahl der Software und des Computeragenten. Bei qualitativ hochwertigen Systemen werden sich weniger Fehler einschleichen als bei qualitativ minderwertigen. Dem Nutzer eines qualitativ schlechten Computeragenten ist die Gefahrtragung dann aber auch zumutbar. Mit zunehmendem technischem Fortschritt werden sich die Probleme in dieser Hinsicht daher ggf. relativieren.

43

Verneint man nach den dargestellten Grundsätzen die Zurechnung der durch den Computeragenten generierten Willenserklärung an dessen Betreiber, stellt sich jedoch die Frage, wem diese Willenserklärung dann