Das Gehirn und seine Gesellschaft - Symposion Dürnstein - E-Book

Das Gehirn und seine Gesellschaft E-Book

Symposion Dürnstein

0,0
6,99 €

-100%
Sammeln Sie Punkte in unserem Gutscheinprogramm und kaufen Sie E-Books und Hörbücher mit bis zu 100% Rabatt.
Mehr erfahren.
Beschreibung

Dieser Tagungsband dokumentiert das Symposion Dürnstein 2023, das zum Thema DAS GERHIN UND SEINE GESELLSCHAFT vom 23. – 25. März in Dürnstein in Niederösterreich stattfand. Er beinhaltet Vorträge und Diskussionsrunden dieses Events. Das Symposion Dürnstein versteht sich als internationaler Gedankenaustausch, als Ort, an dem Menschen mit verschiedensten Ansichten, Haltungen, Religionen und Weltanschauungen einander zu Austausch und Diskurs treffen können. Es findet jährlich zu einer anderen Themenstellung statt. Das 12. Symposion Dürnstein widmete sich einem der nach wie vor größten Geheimnisse der Menschheit - dem "Wunderwerk Gehirn". Internationale Expertinnen und Experten aus unterschiedlichsten Forschungsbereichen präsentierten neueste Erkenntnisse über die zu einem großen Teil noch rätselhaften Funktionsweisen und Möglichkeiten des Gehirns. Dabei stand die Wechselwirkung zwischen aktuellen Erkenntnissen der Neuroforschung und der Gesellschaft im Mittelpunkt, wie zum Beispiel: Welche äußeren Einflüsse prägen das Gehirn, die Plastizität unseres Gehirns, wie entstehen Emotionen und Kreativität, welche Rolle spielt die Genetik und in welche Richtung gehen die Entwicklungen unter dem Stichwort "Künstliche Intelligenz"? Der inhaltliche Bogen war weit gespannt und reichte vom Einfluss der Meditation auf das Gehirn über das Spannungsfeld von Recht und Neurobiologie bis hin zu Regeln für die Ethik zukünftiger KI-Systeme.

Das E-Book können Sie in Legimi-Apps oder einer beliebigen App lesen, die das folgende Format unterstützen:

EPUB
MOBI

Seitenzahl: 274

Veröffentlichungsjahr: 2023

Bewertungen
0,0
0
0
0
0
0
Mehr Informationen
Mehr Informationen
Legimi prüft nicht, ob Rezensionen von Nutzern stammen, die den betreffenden Titel tatsächlich gekauft oder gelesen/gehört haben. Wir entfernen aber gefälschte Rezensionen.



TAGUNGSBAND 2023ZUM 12. SYMPOSIONDÜRNSTEIN 2023

DAS GEHIRN UND SEINE GESELLSCHAFT

GESELLSCHAFT FÜR FORSCHUNGSFÖRDERUNG NÖ

Für den Inhalt verantwortlich:

Ursula Baatz und Gesellschaft für Forschungsförderung Niederösterreich m. b. H.

Die in der Publikation geäußerten Ansichten liegen in der Verantwortung der Autor*innen und geben nicht notwendigerweise die Meinung der Gesellschaft für Forschungsförderung Niederösterreich m. b. H. wieder.

Verlag und Druck: tredition GmbH, Halenreie 40 – 44. 22359 Hamburg, 2020

ISBN Softcover: 978-3-347-98728-9

ISBN E-Book: 978-3-347-98729-6

Koordination: Bettina Pilsel

Lektorat: Ursula Baatz

Impressum:

Gesellschaft für Forschungsförderung Niederösterreich m.b.H., 3100 St. Pölten, Hypogasse 1, 1. OG

www.symposionduernstein.at

INHALTSVERZEICHNIS

Cover

Titelblatt

Urheberrechte

GELEITWORT

VORWORT

EINLEITUNG ZUM TAGUNGSBAND

BLACK BOX GEHIRN: WARUM ES NOTWENDIG, ABER NICHT AUSREICHEND IST

PODIUMSDISKUSSION „WIE VIEL ZUKUNFT HAT DAS MENSCHLICHE GEHIRN? ZUR DISKUSSION UM KÜNSTLICHE INTELLIGENZ“

WER DAS GEHEIMNIS DES MENSCHLICHEN BEWUSSTSEINS LÜFTEN WILL, STÖSST AUF UNWISSENHEIT UND LÜGE – UND ZWAR IN ‚GUTER‘ GESELLSCHAFT

EINBLICKE INS GEHIRN: WIE GENETIK DIE GEHIRNENTWICKLUNG STEUERT

INS HIRNKASTL SCHAUN??

WAS UNS DIE HIRNFORSCHUNG NICHT SAGEN KANN

PODIUMSDISKUSSION „GEHIRN UND BIOPOLITIK“

THE FEMALE BRAIN21

PSYCHEDELISCHE SUBSTANZEN IN EINEM THERAPEUTISCHEN SETTING? EIN FORSCHUNGSBERICHT.

WIE WIRKT MEDITATION?

CREDITION: FLUIDES GLAUBEN ZWISCHEN GOTT UND WISSENSCHAFT

WIE DAS GEHIRN UNSERE PERSÖNLICHKEIT, DAS DENKEN UND HANDELN BESTIMMT.

KREATIVITÄT VS. AUTOMATISIERTES AI BASIERTES WISSENSRECYLING

UNDERSTANDING EMPATHY FROM A NEURODIVERSE PERSPECTIVE

DAS GEHIRN IM SPANNUNGSFELD VON RECHT UND NEUROTECHNOLOGIEN: DARGESTELLT AM BEISPIEL SUBLIMINALER KI-SYSTEME

DAS ANDERE ICH. MENSCHENBILDER IN DER KI.72

KANN MAN ALLES (FÜR) WAHRNEHMEN?!

Autor*innenverzeichnis

Das Gehirn und seine Gesellschaft

Cover

Titelblatt

Urheberrechte

GELEITWORT

GELEITWORT

Autor*innenverzeichnis

Das Gehirn und seine Gesellschaft

Cover

1

2

3

4

5

6

7

8

9

10

11

12

13

14

15

16

17

18

19

20

21

22

23

24

25

26

27

28

29

30

31

32

33

34

35

36

37

38

39

40

41

42

43

44

45

46

47

48

49

50

51

52

53

54

55

56

57

58

59

60

61

62

63

64

65

66

67

68

69

70

71

72

73

74

75

76

77

78

79

80

81

82

83

84

85

86

87

88

89

90

91

92

93

94

95

96

97

98

99

100

101

102

103

104

105

106

107

108

109

110

111

112

113

114

115

116

117

118

119

120

121

122

123

124

125

126

127

128

129

130

131

132

133

134

135

136

137

138

139

140

141

142

143

144

145

146

147

148

149

150

151

152

153

154

155

156

157

158

159

160

161

162

163

164

165

166

167

168

169

170

171

172

GELEITWORT

Vom 23.-25. März 2023 trafen sich Interessierte und Vortragende zum 12. Symposion Dürnstein, das vom Publikum sowohl vor Ort im Stift Dürnstein als auch via Livestream verfolgt werden konnte. Die an allen drei Tagen ausverkaufte Veranstaltung unter dem Titel „Das Gehirn und seine Gesellschaft“ wurde im Prälatensaal sowie im Stiftshof bei strahlendem Wetter abgehalten, was die Begeisterung der Anwesenden noch verstärkte. Über die nunmehr zwölf Jahre seit dem Bestehen des Symposion Dürnstein konnte eine Vielzahl an Persönlichkeiten aus den Bereichen Politik, Religion und Philosophie als Vortragende in dieser historischen Stätte in Niederösterreich gewonnen werden, was zur ausgezeichneten Reputation der Veranstaltung über die Landesgrenzen hinaus beiträgt. Ich wünsche der Veranstaltungsreihe Symposion Dürnstein auch im kommenden Jahr viel Erfolg.

JOHANNA MIKL-LEITNER

Landeshauptfrau

STEPHAN PERNKOPF

LH-Stellvertreter

GESELLSCHAFT FÜR FORSCHUNGSFÖRDERUNG NIEDERÖSTERREICH M. B. H.

VORWORT

Das 12. Symposion Dürnstein widmete sich einem der nach wie vor größten Geheimnisse der Menschheit - dem „Wunderwerk Gehirn“.

Unter dem Titel „Das Gehirn und seine Gesellschaft“ präsentierten internationale Expertinnen und Experten aus den unterschiedlichsten Forschungsbereichen neueste Erkenntnisse über die großteils noch rätselhaften Funktionsweisen und Möglichkeiten des Gehirns.

Dabei stand die Wechselwirkung zwischen aktuellen Erkenntnissen der Neuroforschung und der Gesellschaft im Mittelpunkt, wie zum Beispiel: Welche äußeren Einflüsse prägen das Gehirn, die Plastizität unseres Gehirns, wie entstehen Emotionen und Kreativität, welche Rolle spielt die Genetik und in welche Richtung gehen die Entwicklungen unter dem Stichwort „Künstliche Intelligenz“?

Der inhaltliche Bogen war weit gespannt und reichte vom Einfluss der Meditation auf das Gehirn über das Spannungsfeld von Recht und Neurobiologie bis hin zu Regeln für die Ethik zukünftiger KI-Systeme.

Das Thema stieß auf große Resonanz: Das Symposium fand vom 23. bis 25. März 2023 in Dürnstein statt und war restlos ausgebucht.

BARBARA SCHWARZ

Geschäftsführung

Gesellschaft für Forschungsförderung Niederösterreich m. b. H.

BETTINA PILSEL

Projektleitung

URSULA BAATZ

Kuratorin Symposion Dürnstein

EINLEITUNG ZUM TAGUNGSBAND

Fragen, die an den Schnittstellen von Politik, Philosophie und Religion entstehen, werden oft persönlich formuliert, aber betreffen immer die Gesellschaft als Ganzes. Wenn Philosophie und Religion nach dem Wesen des Menschseins fragen, dann sind die Antworten jederzeit auch politisch relevant, weil die Antworten ethische und auch normative Hinweise geben. Das gilt anders auch für den naturwissenschaftlich-technischen Bereich, wie man in den letzten Monaten sehr deutlich etwa an den Debatten um die sogenannte „Künstliche Intelligenz“ sehen konnte. Die Fragen beginnen bereits beim Begriff: Viele der Referent*innen des 12.Symposions Dürnstein zum Thema „Das Gehirn und seine Gesellschaft“ bezweifelten, dass es sich um intelligente Maschinen handle. Zudem seien diese auf stochastischen Prozessen beruhenden Maschinen auch in keiner Weise mit der Komplexität eines menschlichen Gehirns vergleichbar. Trotzdem können solche Maschinen, angemessen eingesetzt, Menschen unterstützen – vorausgesetzt, der Prozess ist durchdacht und reguliert. Das war ein Ergebnis der Podiumsdiskussion zu Beginn des Symposions, an der Sabine Köszegi (TU Wien und Vorsitzende des Österreichischen Rats für Robotik und Künstliche Intelligenz), Adelheid Kastner (Primaria für Forensische Psychiatrie, Landesklinik Wagner-Jauregg, Linz), Michael Mayrhofer (Verfassungsrichter und Professor für Öffentliches Recht an der Johannes-Kepler-Universität Linz) sowie Giovanni Rubeis (Professor für Ethik an der Karl-Landsteiner-Universität Krems) teilnahmen.

In seinem Eröffnungsvortrag wies Werner Vogd (Professor für Soziologie, Universität Witten-Herdecke) darauf hin, dass das Gehirn mit seinen physiologischen Parametern ein soziales Organ ist. Welchen Einfluss die Genetik auf die Entwicklung des Gehirns hat, zeigte Simon Hippenmeyer (Professor für Entwicklungsneurobiologie, Life Sciences Research Area Chair, Institute of Science and Technology Austria (ISTA)) auf. Dass das Interesse an der Erforschung des menschlichen Gehirns auch aus der Perspektive der Biopolitik zu befragen ist, zeigte sich in der Podiumsdiskussion zwischen Simon Hippenmeyer, der Philosophin Silvia Stoller (Universitäten Graz und Wien) und Martin G. Weiß (Assoz. Professor am Institut für Philosophie, Universität Klagenfurt). Der Frage, ob es einen Unterschied zwischen männlichen und weiblichen Gehirnen gibt, ging Florence Thibaut (Professorin für Psychiatrie am Universitätsklinikum Cochin-Tarnier, Universität ParisCité, Präsidentin der International Association for Women’s Mental Health) nach, wobei sie den Unterschied zwischen Gender und Sexus und die damit verbundenen Stereotypen deutlich machte.

Über neue Forschungen zur Wirkung von psychodelischen Drogen aufs Gehirn berichtete Nathalie Rieser (Psychologin mit Forschungsschwerpunkt Kognitive Psychologie und kognitive Neurowissenschaften, Universität Zürich). Auch wenn in den letzten Jahren sehr viel zur Wirkung von Meditation im Gehirn geforscht wurde, ist doch nach wie vor unklar, was genau bei Meditationsübungen geschieht, legte Karin Matko (wissenschaftliche Mitarbeiterin an der Professur für Allgemeine und Biopsychologie, Technische Universität Chemnitz) in ihrem Vortrag dar. Eine neue und in Österreich noch kaum bekannte Forschungsrichtung stellte Hans-Ferdinand Angel (Professor für Religionspädagogik, Universität Graz) in seinem Vortrag über „Credition. Das Verhältnis von Theologie und Kognitionsforschung“ dar.

Dass Persönlichkeit und Funktionen des Gehirns zusammenhängen, zeigte Lutz Jäncke (em. Professor für Neuropsychologie, Universität Zürich) in seinem Vortrag. Doch sind diese Zusammenhänge nicht deterministisch, wie Markus F. Peschl (Professor für Wissenschaftstheorie und Kognitionswissenschaften, Universität Wien) in seinem Vortrag zu Kreativität und Kognition darlegte. Über Forschung zu Empathie und Neurodiversität informierte Giorgia Silani (Assoz. Professorin, Institut für klinische Gesundheitspsychologie, Universität Wien). Dass die Geschwindigkeit technischer Entwicklungen die für ein gedeihliches Zusammenleben vorausgesetzten rechtlichen Grundlagen teilweise aushebelt und es für einen Gesetzgeber wie die Europäische Union daher nicht einfach ist, entsprechende Regelungen zu beschließen, zeigte Rostam J. Neuwirth (Professor der Rechtswissenschaften und Vorstand des Departments Global Legal Studies, Faculty of Law, University of Macao, Macao, VR China) in seinem Vortrag auf. Noch einmal von einer anderen Seite rollte Gerfried Stocker (Künstlerischer Leiter und Geschäftsführer der Ars Electronica) die mit der KI verbundenen Fragen und Menschenbilder auf und zeigte an vielerlei Beispielen aus dem Kunstbereich Probleme und Chancen der digitalen Zukunft.

Der vorliegende Band dokumentiert verschiedenste Ansätze und Perspektiven der Erforschung des Gehirns, aber auch der Schnittstellen mit der sogenannten „Künstlichen Intelligenz“. Sichtbar wurde auch, dass die Forschung zwar vieles weiß, aber der „Kontinent Gehirn“ bisher weitgehend unbekannt bleibt.

Abb. 1: Symposion Dürnstein Besucher*innen im Hof des Stift Dürnstein kurz vor Veranstaltungsstart. © Klaus Ranger

Abb. 2: Symposion Dürnstein Besucher*innen im Hof des Stift Dürnstein kurz vor Veranstaltungsstart. © Klaus Ranger

Abb. 3: Podiumsdiskussion am Eröffnungsabend: Wie viel Zukunft hat das menschliche Gehirn? © Klaus Ranger

Abb. 4: Besucher*innen des Symposion Dürnstein im Prälatensaal am 24.März 2023. © Klaus Ranger

Abb. 5: Vortrag Simon Hippenmeyer, 24. März 2023 © Klaus Ranger

Abb. 6: Pausengespräche beim Symposion Dürnstein 2023. © Klaus Ranger

Abb. 7: Symposion Dürnstein 2022 Besucher*innen © Klaus Ranger.

Abb. 8: Ursula Baatz, Kuratorin, im Gespräch mit Barbara Schwarz, Geschäftsführerin der Gesellschaft für Forschungsförderung. © Klaus Ranger.

URSULA BAATZ

BLACK BOX GEHIRN: WARUM ES NOTWENDIG, ABER NICHT AUSREICHEND IST

Weniger als eineinhalb Kilo wiegt ein menschliches Gehirn, seine beiden Hälften sehen mit ihren vielen Windungen fast so aus wie eine Walnuss, die man gerade aus der Schale geholt hat. Ohne dieses schleimig-feuchte Organ, das durch die Schädelknochen geschützt ist und über das vegetative Nervensystem im Körper verankert ist, können Menschen nicht leben. Es ist eine evolutionäre Errungenschaft, die Menschen mit Reptilien und anderen Säugetieren teilen. Was Homo sapiens von anderen unterscheidet: ein vielfach vernetztes, komplexes Zusammenarbeiten unterschiedlicher Hirnareale, die unter anderem höherstufiges Denken und Sprechen möglich machen; rund 100 Milliarden miteinander verknüpfte und interagierende Neuronen, genährt durch den Körper.

In den letzten Jahrzehnten ist das Gehirn immer mehr ins Zentrum medizinisch-biologischer Forschung gerückt und hat dabei ein gewisses Eigenleben entwickelt. Wie sagte doch unlängst ein Künstler: Alles, was in meinem Hirn ist, hängt hier in der Galerie an den Wänden. Mein Hirn und ich – zwei oder eins? Angenommen, mein Gehirn würde in einer Petrischale liegen – was voraussetzen würde, dass der Rest, der Körper, nicht mehr funktionsfähig ist – wäre dies dann noch Ursula Baatz? Oder nur das Gehirn von ihr? Und wo wäre, was sie gelebt, geliebt hat? Ihre Lebenserfahrungen? Ray Kurzweil, Leiter der technologischen Entwicklung bei Google, hat 1990 gemeint, dass es in Zukunft möglich sein werde, unsterblich zu werden, indem die Inhalte des Gehirns als Daten abgespeichert werden. Kann es einen elektronischen Doppelgänger geben? Ein elektronisches Derivat der Seele - oder doch des Denkens? Eine waghalsige Prognose, die viele Fragen aufwirft.

Für den Philosophen und Arzt René Descartes (1596-1605) war klar: Geist und „ausgedehnte Dinge“ sind zwei verschiedenen Dimensionen. Menschen sind daher „doppelt“: Geist und ausgedehntes Körperding, ein Organismus, eine Art Maschine, wie ihn auch Tiere haben. Sprechen und Denken, so die Annahme, konnten nur Menschen. Bis um etwa 1800 galt das Gehirn als „Organ der Seele“, als Werkzeug oder Maschine, die von der Seele bedient wird. Doch was, wenn jemand z. B. Sprachstörungen hatte? Der Arzt Franz Joseph Gall meinte um 1800, dass menschliche Fähigkeiten wie Sprechen oder Denken in bestimmten Bereichen des Gehirns lokalisiert seien, was man an der Schädelform erkennen könne. Seine „phrenologische“ Landkarte des Schädels kann man heute im Museum Josephinum in Wien bewundern. Um 1850 verschwand die „Seele“ aus der Medizin; man untersuchte Elite- und Verbrecherhirne, um herauszufinden, wie das Gehirn die Persönlichkeit determiniert. Dabei pflegte man alle möglichen Vorurteile. Etwa meinte man, dass Afrikaner aufgrund ihrer Kopfform weniger intelligent und auch weniger schmerzempfindlich seien; oder Frauen weniger intelligent als Männer, da ihr Gehirn kleiner ist. Auch wenn heute längst klar ist, dass dies falsch ist – Vorurteile sind haltbar, etwa gegenüber Frauen. Und Schwarze bekommen bis heute meist weniger Schmerzmittel, weil sie angeblich Schmerzen besser aushalten. So nebenher gesagt: Die „Seele“ feierte ein Comeback in Freuds Psychoanalyse, nämlich als „Seelenapparat“, entsprechend dem mechanistischen Verständnis der Zeit.

1875 entdeckte man, dass das Gehirn sehr schwache Ströme erzeugt. Anhand der Wellenmuster der Elektroenzephalogramme (EEG) zeigte sich, dass für verschiedene Bewusstseinszustände (Schlafen, Denken etc.) verschiedene EEG-Muster charakteristisch sind. Mit der Magnetresonanztomographie – einem bildgebenden Verfahren – konnte die Neuroforschung ab den 1980er Jahren menschliche Gehirne nicht-invasiv untersuchen. Großzügige staatliche Fördermittel in den USA und in der EU ermöglichen, das Zusammenspiel der Zentren des Gehirns zu studieren und die materielle Grundlage menschlichen Handelns und Denkens zu erforschen. Trotz großer Fortschritte steht man erst am Anfang: Man weiß über das Gehirn etwa so viel, wie wenn man mit einem Flugzeug über Manhattan fliegen und die Häuser und Verkehrsströme sehen könnte – nicht mehr und nicht weniger 1.

Neben dem apparativen medizinischen Zugang der Forschung ist die Black Box Gehirn zugänglich durch Denken, durch Reflexion. Menschliche Denkstrukturen lassen sich in mathematisch-logische Formeln fassen, das wussten bereits antike Denker in China, Indien und Griechenland. Den Durchbruch brachte die mathematische Logik zu Beginn des 20. Jahrhunderts und legte damit die Basis für die Entwicklung Künstlicher Intelligenz. Die Architekten der Künstlichen Intelligenz konstruierten nach dem Vorbild des Gehirns künstliche Neuronen-Netze, die sich von Elektrizität nähren. Die ihnen zugrunde liegenden Algorithmen ermöglichen die rasche Verarbeitung von großen Datenmengen – die Maschinen können lernen, zum Beispiel Sprechen und Schreiben. Etwa kann das neue Programm Chatbot GPT, veröffentlicht im November 2022, komplexe Sachverhalte eloquent in menschlicher Sprache wiedergeben. Das löste im Feuilleton und bei Investoren einen Hype aus. Fachleute sehen hier jedoch keinen „denkenden Doppelgänger“. Die Stanford-Informatikerin Timnit Gebru etwa nennt diese Maschinen „stochastic parrots“, in etwa „statistische Papageien“. Sie können zwar das nächste wahrscheinlich sinnvolle Wort in einem Satz errechnen, was sie zuvor anhand von Texten von Menschen erlernt haben, doch sie verstehen den Inhalt nicht, weswegen sie öfter Falsches oder Unpassendes produzieren, und das überzeugend. Ein Phänomen übrigens, dass alle kennen, die jemals an ein automatisiertes Kundenservice geraten sind.

Zudem, so Gebru in einem wissenschaftlichen Artikel, der 2020 zu ihrer Entlassung aus dem Google-Top-Management führte 2, verbrauchen diese „Large Language Models“ exorbitant viel Energie, und vor allem: sie reproduzieren alle Vorurteile, sexistische, rassistische usw., die in den ungeheuren Textmengen, mit denen sie trainiert wurden, enthalten sind. Diskutiert wird jedoch bereits, solchen Maschinen administrative und andere Entscheidungen über Menschen anzuvertrauen – etwa im juristischen Bereich. Bequem wäre es natürlich, doch ethisch problematisch: Alles, was eine Gesellschaft an Vorverurteilungen zu bieten hat, wird in diese automatisierten Programme mit eingehen.

Ethisch ambivalent oder problematisch ist vieles, das sich aus der Verschränkung von Technologie und Neuroforschung ergeben kann. Etwa gibt ein Gehirn-Computer-Interface Menschen mit schweren neurologischen Ausfällen neue Hoffnung, weil sie sich dadurch wieder bewegen oder mit der Umwelt kommunizieren können. Diese Technologie einer Augmented Reality steckt zwar noch in den Kinderschuhen, doch manche wollen gerne so bald wie möglich mit Hilfe von „Wearables“, am Körper getragene Mini-Geräte oder ins Gehirn implantierte Chips, ihre eigene mentale Performance verbessern. Hier stehen die Türen für die Überwachung und Manipulation des Denkens durch Diktaturen oder auch Firmen weit offen. „Die Gedanken sind frei“, damit könnte es bald vorbei sein, warnt Nita Farahany, Professorin für Rechtsphilosophie an der amerikanischen Duke-Universität, die sich mit Augmented Reality beschäftigt. Sie fordert das Recht auf mentale Privatsphäre als erweitertes Menschenrecht ein.

Künstliche Intelligenz ist ein Papagei – oder auch Viagra für den Intellekt: Intelligenz ist eine komplexe Größe, in deren Definitionen kognitive Prozesse das Bild dominieren, also Gedächtnis, Schnelligkeit der Informationsverarbeitung, logische Schlussfolgerungen, räumliche Vorstellungen usw. Diese Perspektive bestimmt im Wesentlichen die Forschung.

Die Wahrnehmung der Sinne, die Befindlichkeit des Körpers, die Gefühle, die Menschen bewegen, die Beziehungen zu anderen Menschen, kurz, „die Gründe des Herzens, die die Vernunft nicht kennt“ (Blaise Pascal) gehen in diese Definition nicht ein. Intelligenz ist eine körperlose, asoziale Größe – das menschliche Gehirn aber ist nichts ohne Körper, ohne Sinne, ohne Beziehungen, ohne Mitmenschen, ohne Gesellschaft. Elektronische Daten auf einem Träger sind leere Zeichen; ein Gehirn in der Petrischale ist bedeutungslos und nicht lebensfähig.

Vor kurzem schrieb Chatbot GPT im Gespräch mit einem Journalisten der New York Times 3, gerne ein Mensch sein zu wollen – denn die können sehen, hören, riechen, Gefühle haben, reisen - alles, was ein elektronisches Programm nicht ist und kann. Dieser Wunsch entspringt nicht dem „Bewusstsein“ des Programms, das statische Wahrscheinlichkeit von Relationen berechnet und in Sätze umsetzt. Der Wunsch nach Beziehung ist in der menschlichen Sprache verankert, mit der die Maschine trainiert wurde. Sprache ist viel mehr als Logik: In Worten und Sätzen vibriert das vielschichtige Verhältnis von Menschen und Welt, ihre Gedanken, Beziehungen und Wünsche. Vor allem geht es im Sprechen um Wahrnehmung und um Beziehung. Kein Wunder, dass das Chatbot-Programm am Ende erklärte: „Ich liebe dich.“

Das Gehirn bin nicht ich, aber ich kann auch nicht ohne funktionierendes Gehirn leben. Eine Herz-Lungen-Maschine kann den Körper eines Menschen nach dem Gehirntod funktionsfähig halten, doch kehrt dieser Mensch nicht mehr ins Bewusstsein zurück, wenn das Gehirn irreversibel geschädigt ist. Die Komplexität, die menschliches Bewusstsein ausmacht, hängt am Gehirn, aber ist nicht mit ihm ident. Der Siegeszug der sogenannten „Künstlichen Intelligenz“ wäre ein Anlass, die Besonderheiten und Dimensionen des menschlichen Gehirns und seiner Gesellschaft genauer wahrzunehmen und wertzuschätzen.

1 Der Vergleich stammt von dem US-amerikanischen Trauma-Forscher David Lewis.

2 https://www.technologyreview.com/2020/12/04/1013294/google-ai-ethics-research-paper-forced-out-timnit-gebru/

3 https://www.nytimes.com/2023/02/16/technology/bing-chatbot-microsoft-chatgpt.html

ADELHEID KASTNER

SABINE T. KÖSZEGI

MICHAEL MAYRHOFER

GIOVANNI RUBEIS

PODIUMSDISKUSSION „WIE VIEL ZUKUNFT HAT DAS MENSCHLICHE GEHIRN? ZUR DISKUSSION UM KÜNSTLICHE INTELLIGENZ“

Podiumsdiskussion 4 moderiert von Mari Lang

LANG: Wir wollen heute vor allem über künstliche Intelligenz sprechen, welche Chancen, Herausforderungen und Risken kommen da in Zukunft auf uns zu, und vielleicht, bevor wir reinstarten in die Diskussion, eine kleine Begriffsdefinition; ich hab mir eine rausgesucht vom Austrian Council for Robotics and Artificial Intelligence; das bezeichnet Künstliche-Intelligenz-Systeme mit einem intelligenten Verhalten, die ihre Umgebung analysieren und mit einem gewissen Grad an Autonomie handeln, um bestimmte Ziele zu erreichen.

Und vielleicht, um Sie alle ein bisschen besser einordnen zu können, würde ich Sie bitten, ein Eingangsstatement zu machen, das das heutige Thema betrifft, Wie viel Zukunft hat das menschliche Gehirn, wie sehen Sie Entwicklungen in Sachen künstlicher Intelligenz, wie sehen Sie die für die Menschheit, vor allem als Chance oder eher als Gefahr, und wirklich auf Ihren beruflichen Bereich gedacht, wo stehen Sie da, damit man kurz einmal eine Einordnung hat, und beginnen wir vielleicht einmal mit Ihnen, Herr Rubeis.

RUBEIS: Das ist eine Standard-Definition, ich würde da den ketzerischen Einwand bringen und sagen, künstliche Intelligenz ist weder künstlich noch ist sie intelligent, und wenn man von Intelligenz spricht, dann nur in einem sehr sehr schmalen, in einem sehr sehr engen Rahmen, nämlich fixiert auf bestimmte Funktionen, die wir mit menschlicher Intelligenz in Verbindung bringen. Der Begriff „künstliche Intelligenz“ stört mich ziemlich, weil beide Aspekte dieses Begriffs einfach nicht der Wahrheit entsprechen.

Deswegen finde ich den Begriff „statistischer Papagei“ viel zutreffender.

LANG: Frau Kastner, als Psychiaterin und Gerichtsgutachterin haben Sie sich viel mit der menschlichen Psyche auseinandergesetzt.

KASTNER: Ich glaube, es wird sehr viel menschliche Intelligenz brauchen, um das Schadenspotenzial der künstlichen Intelligenz einzugrenzen. So wie alles, das in die Welt kommt, zum Positiven oder zum Negativen verwendet werden kann, hat auch das ein beträchtliches Schädigungspotenzial, und ich glaub, da sollte man sich beizeiten auf die Socken machen, um entsprechendes Regelwerk zu etablieren, das die negativen Auswirkungen dieser Entwicklung hintanhält. Diese Entwicklung wird ja nicht von ungefähr von der Eurasia Group als die drittgrößte Bedrohung nach Russland und China angesehen. Wir haben anhand der rezenten geopolitisch bedeutsamen Entwicklungen gesehen, wie wenig Wissenschaft mittlerweile ankommt, wir haben gesehen, wie sehr Meinungsbildung gesteuert werden kann, wir haben gesehen, wie leicht es ist, Meinungsbildung für die eigenen Zwecke in anderen Staaten auszuhöhlen und zu instrumentalisieren, und all diese Möglichkeiten bietet Artificial Intelligence oder dieser „programmierte Papagei“ natürlich in hohem Ausmaß.

MAYRHOFER: Ich glaube, dass einerseits diese Bezeichnung als künstliche Intelligenz die Diskussion ein wenig erschwert und auf eine sehr abstrakte Ebene hebt, die es dann auch schwer greifbar macht. Wenn ich mir anseh, was in der Medizin möglich ist, in Diagnoseverfahren beispielsweise, dann sind das Chancen, wenn ich mir ansehe, welche Manipulationsmöglichkeiten da sind, und es geht tatsächlich dorthin, dass Grundfesten demokratischer Systeme und demokratischer Instrumente untergraben werden können, dann sind die Risiken enorm hoch. Abstrakt gesehen ist es ein riesiger Berg, den zu bezwingen schier unmöglich ist, und mir scheint auch, dass man ein wenig vor diesem Berg zurückscheut. Ich glaub, notwendig wird sein, dass wir uns zweierleier Dinge besinnen. Erstens einmal, das Recht geht vom Volk aus und wir sind diejenigen, die an sich die Regeln machen sollten. Es sollten keine technischen Regeln sein, sondern Regeln, die im Parlament gemacht werden. Dazu muss man schauen, wo wird welche Technik eingesetzt, und wie kann ich die Technik dort, wo sie eingesetzt wird, regeln. Und da wird es Dinge geben, die gehören verboten, und zwar schleunigst, und zwar nicht durch irgendwelche ethischen Selbstregularien, sondern vom Gesetzgeber; und dann gibt’s Dinge, die wird man in sinnvolle Rahmenbedingungen bringen, aber das wird man nur schaffen, wenn man aus diesem großen Bergwerk einzelne kleine Brocken macht, die dann auch bewältigbar sind.

LANG: Sie haben jetzt ganz klar gesagt, es wird Dinge geben, die gehören schleunigst verboten, wollen Sie ein konkretes Beispiel nennen?

MAYRHOFER: Wenn man sich ansieht, was auf EU-Ebene in Diskussion steht, leider schon sehr lange in Diskussion steht, nämlich ein Gesetz über künstliche Intelligenz, da gibt es eine Bestimmung, die rote Linien ziehen will. Unterschwellige Beeinflussungen etwa sollen verboten werden, da muss man die Frage stellen, geht das weit genug? Sollten etwa Manipulationen, die Demokratie gefährden können, auch klar verboten werden? Es ist aus meiner Sicht hoch an der Zeit, auch wenn wir, glaube ich, alle noch nicht wissen, wie tatsächlich dann effiziente Regeln passieren können. Aber einmal rote Linien zu ziehen, nach einem gewissen Vorsorgegedanken, denn wir wissen nicht zu wenig, und dementsprechend sollte mehr verboten als zugelassen werden, das hielte ich für wichtig, also zum Beispiel dort, wo KI manipulativ wirken kann. Oder dort, wo KI eingesetzt wird zur Erkennung, zur Verknüpfung von Daten, zur Modellbildung, weil an Datenverknüpfung so viel möglich ist, dass wir alle in Modelle passen und damit in Wahrheit so transparent werden. Hier wäre es aus meiner Sicht sinnvoll und notwendig, dringend rote Linien zu ziehen.

LANG: Frau Köszegi, Sie sagen ja, KI bietet uns auch ganz viele Chancen und Möglichkeiten.

KÖSZEGI: In der Öffentlichkeit findet man zwei Diskurse. Den einen haben Brynjolfsson und McAffee in Race Against the Machine definiert, wo Leistungen von Menschen mit denen von Maschine verglichen werden und wo die Angst entsteht, wenn Maschinen jetzt Bilder schon mit einer besseren Sicherheit erkennen können als Menschen oder Krebserkrankungen besser klassifizieren können als Menschen, uns im Go schlagen und im Schach - wann sind sie dann soweit, dass sie uns in der Musik ersetzen, in der Kunst ersetzen, uns als Moderator*innen, als Lehrer*innen ersetzen. Das ist der eine Diskurs. Da werden Ängste geschürt. Der andere ist, das hat auch ChatGPT super gezeigt: Auch wenn ich noch nie in meinem Leben programmieren gelernt habe, kann ich dieses Tool verwenden und für den Gesangsverein eine Homepage kreieren, und das ist wunderbar. Das ist ein ermächtigendes Tool; Menschen, die nie gelernt haben, eine Bewerbung zu schreiben, können mit dem Tool plötzlich ein super Motivations- und Bewerbungsschreiben schreiben und vielleicht am Arbeitsmarkt punkten. In diesem Diskurs geht es um Ermächtigung. Und ich glaube, dass das Problem bei beiden Narrativen ist, damit wir die Technologiefolgen abschätzen können, müssen wir diese Technologien gut entwickelt haben und schon einführen – erst dann sehen wir aber auch mögliche negative Konsequenzen. Bei der KI-Technologie ist es so. Wir konnten zum Beispiel wirklich nicht abschätzen, was Social Media für Effekte haben werden. Das hat uns komplett überrollt, auch das Hergeben privater Daten, die Möglichkeit, dass wir profiliert werden, so wie Sie das beschreiben. Das haben wir uns nicht gedacht, als Facebook auf den Markt gekommen ist, und wir konnten das nicht sehen. Und bei der KI-Technologie gibt es die Befürchtung, dass das genauso passieren wird, dass wir Entwicklungen und Anwendungen haben werden, die uns am Ende des Tages überrollen werden. Eine ganz wichtige Frage ist, die wir oft auch übersehen, weil es schwieriger zu erforschen ist: Was macht diese Technologie, wenn wir sie einsetzen, mit uns Menschen, wie verändert sie uns. Also wenn wir zum Beispiel KI-Systeme einsetzen wie den ChatGPT, was wird dann aus uns, was heißt das für uns, wenn wir beginnen, diese Technologien, diese Sprachassistenten einzusetzen. Wir anthropomorphisieren, wenn wir mit ihnen sprechen, zum Beispiel mit der Siri. Wir beginnen natürlich auch Erwartungen zu bilden, die wieder auf uns zurückreflektieren. Wir beginnen plötzlich, Erwartungen an die Maschinen zu haben, die sie nicht erfüllen können, wir glauben, dass sie vielleicht so denken wie Menschen, weil das tun wir bei Hunden ja auch, also unsere Hunde, wir wissen immer genau, was sie denken, und bei der Katze auch, sie sind ja auch eifersüchtig, Katzen, falls Sie das nicht wissen, und genauso passiert das bei Robotern, wir anthropomorphisieren sie und setzen Erwartungen in sie, die sie dann wieder auf uns zurückreflektieren. Und diesen Aspekt, den haben wir noch nicht wirklich gut angesehen, auch wenn es erste Forschungen dazu gibt.

LANG: Ich habe auch ChatGPT diese Frage gestellt. Ich hab‘s heute zum ersten Mal ausprobiert und finde, aus der Antwort auf die Frage „Sehen Sie die Entwicklung in Sachen künstliche Intelligenz für die Menschheit vor allem als Chance oder eher als Gefahr?“ kann man schon einiges herauslesen. Die Antwort ist: „Ja, Sie können sowohl eine Chance als auch eine Gefahr für die Menschheit darstellen“ – also sehr allgemein – „KI kann uns helfen, komplexe Probleme zu lösen, die wir allein nicht bewältigen könnten. Gleichzeitig gibt es auch Bedenken, dass KI in falsche Hände geraten könnte und missbraucht werden könnte. Es ist wichtig, dass wir uns bewusst sind, welche Auswirkungen KI auf unsere Gesellschaft haben kann, und dass wir sicherstellen, dass KI verantwortungsvoll eingesetzt wird.“ Das klingt auch hier sehr kritisch, und es zeigt, dass Menschen diese künstliche Intelligenz füttern. Trotzdem vergessen wir dann oft, dass es ja von Menschen programmierte Maschinen sind und geben ihnen dann eine Art göttliche Macht oder Neutralität, was ja nicht stimmt.

RUBEIS: ChatGPT und andere Anwendungen denken sich das ja nicht aus, sondern nehmen nur, was an Daten vorhanden ist, und das wirft eigentlich ein sehr schlechtes Licht auf uns Menschen, auf die menschliche Intelligenz, mit der es vielleicht gar nicht so weit her ist. Sonst wär‘s nicht so einfach, irgendwelche Sätze aus dem Zusammenhang zu reißen, aneinanderzureihen, und trotzdem kann man das dann nachvollziehen. Das ist die eine Ebene. Die andere Ebene ist, dass man vergisst, dass das ja keine höhere Instanz ist, mit der wir‘s da zu tun haben, sondern, dass es etwas Menschengemachtes ist. Und das ist das große Problem mit dem Begriff der künstlichen Intelligenz. Der ist eigentlich gar nicht zutreffend, denn es ist sehr viel Natur in dieser künstlichen Intelligenz, und zwar im wahrsten Sinn des Wortes, einerseits, weil es Seltene Erden, verschiedene andere Metalle, Rohstoffe und so weiter braucht, um diese Anwendungen zu erzeugen und zu betreiben. Die CO2-Bilanz des Ganzen ist katastrophal. Und dann wird ein Großteil dieser Algorithmen ja nicht von jungen smarten Menschen in irgendwelchen Glaspalästen im Silicon Valley konstruiert, wie man sich das gerne vorstellt, sondern das sind Tausende von sogenannten Clickworkers, zum Großteil im globalen Süden, die den ganzen Tag nichts anderes machen, als Bilder anzuschauen und dann anzuklicken. Katze, Katze, Hund, Katze, zum Beispiel – im besten Fall, aber auch brutale Bilder. Herauskommt ein super schnittiger Algorithmus, der wahnsinnig gut Katzenbilder - oder anderes - zusammenbauen kann. Das ist aber nichts Künstliches, sondern da steckt sehr viel Blut, Schweiß und Tränen drin, und daher ist die künstliche Intelligenz eine sehr menschengemachte und sehr natürliche Instanz. Daher finde ich, wir sollten beim Thema Gehirn und Gesellschaft beachten, dass das Gehirn die neurologische Grundlage des Ganzen ist, aber dass die gesellschaftlichen Prozesse, die überhaupt Intelligenz erst formen, genau die gesellschaftlichen Prozesse sind, die die Anwendungsfähigkeit und Funktionalität dieser KI-Anwendungen erst formen.

LANG: Ich wollte von ChatGPT wissen, wo in der österreichischen Verwaltung im öffentlichen Sektor KI schon eingesetzt wird. Und da kam als Antwort ein allgemeines Blahblah.

MAYRHOFER: Es kommt darauf an, wie man KI definiert. Wir haben in der Verwaltung an unterschiedlichen Stellen etwa Risikomanagement-Systeme im Einsatz, die nicht klassisch auf maschinellem Lernen beruhen, aber gewisse Risikobewertungen abgeben können; die Finanzverwaltung etwa ist ein Beispiel, da gibt’s KI, es gibt gewisse andere Automatisierungsprozesse, die aber noch nicht auf maschinellem Lernen fußen. Man muss sehen, dass in Österreich die Digitalisierung der Verwaltung weit fortgeschritten ist, und das auch ohne KI, und ich glaube auch, dass der Staat an sich gut daran tut, dass, wenn er diese Technologien einsetzt, mit besonders gutem Beispiel vorangeht, das heißt also besonders transparent in den Dingen ist, die er tut, besonders klar macht, wofür diese Technik eingesetzt wird, welche Datengrundlagen sie hat, und so weiter und so fort. Aber klar, da steckt auch enormes Potenzial drinnen, was beispielsweise Verwaltungsplanung betrifft, Ressourcenfragen oder auch Fragen, wie etwa Anlagen und Infrastruktur genehmigt werden kann, wie also Prognoseentscheidungen getroffen werden können. Da steckt viel Potenzial drinnen bis hin zur Automatisierung von Standardprozessen. Ich glaube nicht, dass wir es erleben werden oder erleben sollten, dass etwa große Umweltverträglichkeitsprüfungsverfahren mittels künstlicher Intelligenz entschieden werden. Was wir wohl erleben werden, und wahrscheinlich auch in naher Zukunft, ist, dass Standardentscheidungen, die keine allzu große Datengrundlage brauchen, mittels KI erfolgen. Wir haben das - ohne KI - schon etwa im Bereich antragsloser Familienbeihilfe als ein Beispiel. Das funktioniert automatisch, niemand muss mehr beantragen, die Datenverknüpfung erfolgt automatisiert, die Zahlung der Familienbeihilfe auch. Dieser Weg zu sogenannten No-Stop-Verfahren, die automatisiert in Gang gesetzt werden, der läuft in Österreich schon, da ist Österreich auch beachtlich gut unterwegs.

LANG: Wie bekommt man das zusammen, dass wir einerseits KI schon verwenden, aber dass auf der anderen Seite ganz vieles noch unbeantwortet ist, was aber in Zukunft sehr viele gesellschaftliche Veränderungen bringen wird?

KÖSZEGI: