44,99 €
"KI in der Unternehmenspraxis" ist ein umfassendes Buch, das nicht nur die technischen Aspekte von künstlicher Intelligenz beleuchtet, sondern auch die rechtlichen und ethischen Dimensionen berücksichtigt. Das Buch schafft zunächst ein grundlegendes Verständnis für die Funktionsweise: Leser:innen erhalten einen Einblick in die Welt der KI und erfahren, wie sie funktioniert und welche Technologien dahinterstecken. Ein weiteres Thema sind die rechtlichen Aspekte. Die Autor:innen sensibilisieren für die juristischen Rahmenbedingungen und stellen den aktuellen Stand der Gesetzgebung dar. Ein weiterer wichtiger Aspekt ist die ethisch-normative Diskussion rund um den Einsatz von künstlicher Intelligenz. Das Buch bietet Raum für eine reflektierte Auseinandersetzung mit den ethischen Fragen, die sich aus der Verwendung von KI ergeben. Den Schwerpunkt bilden konkrete Anwendungsfälle aus Unternehmen. Praxisbeispiele aus dem Mittelstand zeigen, wie künstliche Intelligenz bereits heute erfolgreich eingesetzt wird und welchen Nutzen sie bringt. Das Buch richtet sich an Unternehmerinnen und Unternehmer, Führungskräfte, Studierende sowie an alle, die einen fundierten Einblick in die Welt der künstlichen Intelligenz im unternehmerischen Kontext suchen. Mit Beiträgen von Prof. Dr. Christian Becker-Asano, Prof. Dr. Michael Burmester, Anna Lena Fehlhaber, Janina Gabrian, Prof. Dr. Petra Grimm, Prof. Dr. Nils Heide, Prof. Dr. Stefan Hencke, Prof. Dr. Oliver Kretzschmar, Susanne Kuhnert, Manuel Kulzer, Prof. Dr. Johannes Maucher, Katja Mehler, Anika Piccolo, Prof. Dr. Okke Schlüter, Prof. Christof Seeger, Prof. Dr. Jürgen Seitz, Prof. Dr. Peter Thies, Franziska Träuble und Simon Tschürtz.
Das E-Book können Sie in Legimi-Apps oder einer beliebigen App lesen, die das folgende Format unterstützen:
Seitenzahl: 348
Veröffentlichungsjahr: 2024
Alle Inhalte dieses eBooks sind urheberrechtlich geschützt.
Bitte respektieren Sie die Rechte der Autorinnen und Autoren, indem sie keine ungenehmigten Kopien in Umlauf bringen.
Dafür vielen Dank!
Lesen Sie Ihr Buch online im Browser – geräteunabhängig und ohne Download!
Gehen Sie auf https://mybookplus.de, registrieren Sie sich und geben Sie Ihren Buchcode ein, um auf die Online-Version Ihres Buches zugreifen zu können
Ihren individuellen Buchcode finden Sie am Buchende
Die Deutsche Nationalbibliothek verzeichnet diese Publikation in der Deutschen Nationalbibliografie; detaillierte bibliografische Daten sind im Internet über http://dnb.dnb.de abrufbar.
Print:
ISBN 978-3-7910-6228-0
Bestell-Nr. 13132-0001
ePub:
ISBN 978-3-7910-6227-3
Bestell-Nr. 13132-0100
ePDF:
ISBN 978-3-7910-6226-6
Bestell-Nr. 13132-0150
Christof Seeger
KI in der Unternehmenspraxis
1. Auflage, Juli 2024
© 2024 Schäffer-Poeschel Verlag für Wirtschaft · Steuern · Recht GmbH
www.schaeffer-poeschel.de
Bildnachweis (Cover): © KI-generiert mit Midjourney und Adobe Firefly
Produktmanagement: Dr. Frank Baumgärtner
Lektorat: Jana Fritz – TEXTECHT, Stuttgart
Dieses Werk einschließlich aller seiner Teile ist urheberrechtlich geschützt. Alle Rechte, insbesondere die der Vervielfältigung, des auszugsweisen Nachdrucks, der Übersetzung und der Einspeicherung und Verarbeitung in elektronischen Systemen, vorbehalten. Alle Angaben/Daten nach bestem Wissen, jedoch ohne Gewähr für Vollständigkeit und Richtigkeit.
Schäffer-Poeschel Verlag Stuttgart Ein Unternehmen der Haufe Group SE
Sofern diese Publikation ein ergänzendes Online-Angebot beinhaltet, stehen die Inhalte für 12 Monate nach Einstellen bzw. Abverkauf des Buches, mindestens aber für zwei Jahre nach Erscheinen des Buches, online zur Verfügung. Ein Anspruch auf Nutzung darüber hinaus besteht nicht.
Sollte dieses Buch bzw. das Online-Angebot Links auf Webseiten Dritter enthalten, so übernehmen wir für deren Inhalte und die Verfügbarkeit keine Haftung. Wir machen uns diese Inhalte nicht zu eigen und verweisen lediglich auf deren Stand zum Zeitpunkt der Erstveröffentlichung.
In einer Welt, die sich unaufhörlich weiterentwickelt, in der technologische Grenzen fortwährend verschoben werden und sich grundlegende Fragen der Zusammenarbeit sowie des Lernens stellen, nimmt die künstliche Intelligenz (KI) eine zentrale Rolle ein. Mit dem vorliegenden Buch möchten wir einen umfassenden Überblick über die vielfältigen Aspekte der KI bieten. Ziel ist es, interessierten Leserinnen und Lesern sowohl theoretische Grundlagen als auch anwendungsorientierte Forschungsperspektiven zu vermitteln. Darüber hinaus wollen wir praktische Anwendungen in der Geschäftswelt beleuchten und übergeordnete Themen wie aktuelle Rechtsprechungen oder ethische Auseinandersetzungen ansprechen.
Das Autorenteam dieses Buches besteht größtenteils aus Mitgliedern des Institute of Applied Artificial Intelligence (IAAI), die sich seit 2019 als interdisziplinäre Arbeits- und Forschungsgruppe an der Hochschule der Medien (HdM) zusammengeschlossen haben. Seitdem haben sie zahlreiche Forschungsprojekte, Veranstaltungen und Publikationen realisiert. Ergänzt wird unser Kreis durch zwei Praxisvertreter, die ihre Erfahrungen in Form von Buchkapiteln einbringen. Alle Beteiligten haben sich dem Ziel verschrieben, die oftmals als komplex und unzugänglich wahrgenommene Welt der KI in einer klaren und verständlichen Weise zu erläutern. Durch die praxisorientierte Herangehensweise möchten wir nicht nur informieren, sondern auch inspirieren. Das Buch soll Führungskräfte, Entscheidungsträger und Technologiebegeisterte dazu anregen, die Potenziale der künstlichen Intelligenz zu erkennen und deren Anwendbarkeit im eigenen Umfeld zu reflektieren. Dieses Werk ist das Ergebnis der gemeinschaftlichen Anstrengung zahlreicher Autorinnen und Autoren. Wir beanspruchen nicht, in diesem Buch eine abschließende Vollständigkeit zu erreichen, und sind uns bewusst, dass sich der von uns beschriebene Status quo aufgrund der schnellen Innovationszyklen in der KI-Entwicklung rasch weiterentwickeln wird. Dennoch sind wir überzeugt, dass die Leserinnen und Leser nach der Lektüre dieses Buches oder einzelner Kapitel einen vertieften Einblick in das Thema gewonnen haben werden.
Mein Dank gilt allen Autorinnen und Autoren, die an der Erstellung dieses Werkes mitgewirkt haben, sowie dem Verlag für die professionelle Betreuung.
Prof. Christof Seeger, Herausgeber
Stuttgart, April 2024
Christof Seeger
Schon der Begriff »künstliche Intelligenz« (KI) ist Faszinosum und Irreführung zugleich. Für viele Menschen bedeutet KI eine bedrohliche Zukunft, andere sehen darin das Potenzial zur Lösung der großen Herausforderungen der Zeitgeschichte. Pragmatiker verstehen darunter vielleicht »nur« eine Form einer mathematischen Wahrscheinlichkeitsrechnung, während wiederum andere sich die Erde in der Zukunft voller humanoider Roboter1 vorstellen. Schon an dieser Stelle wird deutlich, wie vielseitig und multidimensional die Thematik ist, und dabei ist alles gar nicht so neu, wie uns die öffentliche Debatte seit ein paar Jahren und vor allem seit 2022 mit der Veröffentlichung von ChatGPTChatGPT glauben macht.
Bereits in den 1950er Jahren haben sich Wissenschaftlerinnen und Wissenschaftler mit dem Konzept des maschinellen Lernens beschäftigt. Es gibt sogar eine Art offizielle Geburtsstunde der künstlichen Intelligenz als Forschungsdisziplin: »The Dartmouth summer research project on artificial intelligence« 1956 (vgl. Collins et al. 2021, S. 2). Hier haben sich Wissenschaftler aus verschiedenen Disziplinen erstmals getroffen, um darüber zu diskutieren, wie man Maschinen mit einem intelligenten Verhalten entwickeln könnte (vgl. McCorduck 2006, S. 111). Joseph Weizenbaum, ein Pionier der künstlichen Intelligenz, veröffentliche 1966 in der Fachzeitschrift Communication of the ACM einen Artikel über »ELIZAELIZA«. Bei diesem Computerprogramm wird ein Dialog – heute würden wir ChatbotChatbot sagen – zwischen einem Menschen und einem Computer simuliert (vgl. Weizenbaum 1966). Auch wenn die Ergebnisse des Algorithmus aus damaliger Sicht ziemlich verblüffend gewesen sein mussten, zeigt sich bei genauerem Hinsehen, dass es sich im Grunde um regelbasierte Ergebnisse handelt, die zwar in der menschlichen Wahrnehmung zunächst intelligent erscheinen mögen, im Grunde aber bedeutungsleer sind. Weshalb Weizenbaum selbst auch immer erklärte, dass die menschlich-ethische Dimension von großer Bedeutung ist – und dies gilt auch heute noch. Die in dieser Zeit entwickelten mathematischen Modelle hatten fast alle dieselben limitierenden Faktoren: Rechenleistung und Größe der Trainingskorpora bzw. zu wenige vorhandene Daten. Dieser Umstand führte in den ersten sogenannten KI-Winter, der erst in den 1980er Jahren endete, indem wieder mehr Geld in die KI-Forschung investiert wurde (vgl. Bünte 2018, S. 1). Der Fokus lag seinerzeit in der Programmierung von ExpertensystemenExpertensysteme, die vor allem den Unternehmen durch schnellere und sicherere Arbeitsprozesse Kosteneinsparungen versprachen. Die Problematik zeichnete sich allerdings dahingehend ab, dass diese mächtigen ExpertensystemeExpertensysteme sehr schwerfällig in der Adaption an neue Gegebenheiten waren, sodass wiederum die finanziellen Förderungen und die Investitionen in die KI-Entwicklung zurückgingen – der zweite KI-Winter war angebrochen. Weltweit große Aufmerksamkeit wurde 1997 dem Schachcomputer Deep BlueDeep Blue II zuteil, als der den damaligen Weltmeister Garry Kasparow besiegte. Mit 200 Millionen Zügen pro Sekunde ermittelte der IBM-Computer die optimale Reaktion (vgl. Bellinghausen 2022).
Seit Beginn des 21. Jahrhunderts liegt der Fokus auf dem Prinzip des »Deep LearningDeep Learning«, einem Teilbereich des maschinellen Lernens durch neuronale Netze. Die vorhandenen Rechenleistungen und Daten stellen immer weniger einen limitierenden Faktor dar und so können viele der bisher theoretischen Modelle tatsächlich in der Praxis Anwendung finden und dadurch die Prozesse in der Wirtschaft nachhaltig und disruptiv beeinflussen. Aber auch im sozialen Zusammenleben wird die KI in viele Bereich Einzug halten. Es ist wahrscheinlich nicht untertrieben, wenn man von der Schlüsseltechnologie unseres Jahrhunderts spricht.
1 Humanoide Roboter sind in ihrer äußeren Gestalt dem menschlichen Körperbau nachempfunden und haben beispielsweise Beine und Arme sowie einen Kopf und ein Gesicht (vgl. Bölker 2010, S. 45).
Als industrielle Revolution wird grundsätzlich ein dauerhafter und tiefgreifender Wandel der wirtschaftlichen und sozialen Verhältnisse verstanden. Es ändern sich Arbeitsbedingungen und Lebensumstände für die Menschen – und für Unternehmen bedeutet eine industrielle Revolution nicht selten, dass bisherige Geschäftsmodelle und Expertisen an Bedeutung verlieren. Auslöser der ersten industriellen Revolution war die Erfindung von mechanischen Produktionsanlagen, die mithilfe von Wasser- oder Dampfkraft angetrieben wurden. Vor allem der mechanische Webstuhl ist ein Sinnbild für den Eintritt in das Industriezeitalter und die daraus entstandenen sozialen Probleme von Massenarbeitslosigkeit und Verelendung.
Die sozialen Verwerfungen durch die Industrialisierung waren gleichzeitig auch die Geburtsstunde von Gewerkschaften, Genossenschaften und Arbeiterbewegungen, die bis heute die Grundlagen einer Sozialpolitik darstellen. Denn für eine Gesellschaft ist es von zentraler Bedeutung, wie man zu der Frage steht, was mit Menschen passiert, deren Arbeitskraft beispielsweise durch Maschinen ersetzt wird. Diese Frage ist im Zuge des vermehrten Einsatzes von KI in Unternehmen genauso aktuell wie bei der Einführung der mechanischen Webstuhls, in deren Folge viele Handweber ihre Arbeit verloren haben.
Zu Beginn des 20. Jahrhunderts wurde die Fließbandarbeit perfektioniert, das heißt, arbeitsteilige Prozesse führten zur Massenproduktion von bestimmten Waren. Dies war die Phase des Taylorismus. Zusätzlich konnten viele Produktionsanlagen mit elektrischem Strom betrieben werden, was vor allem in der chemischen Industrie und in der Elektrotechnik Massenproduktion ermöglichte (vgl. Pinnow/Schäfer 2015).
Mit der Implementierung von Computern und IT in die Produktionsabläufe ab den 1970er Jahren durch die Verfügbarkeit von elektronischen Komponenten konnten viele Prozesse automatisiert und effizienter gesteuert werden. Der Mensch übernimmt zunehmend kontrollierende und überwachende Funktionen im Produktionsablauf und der menschliche Eingriff wird auf ein Minimum reduziert.
Die DigitalisierungDigitalisierung, das Internet und die weltweite Vernetzung markieren den wohl bislang letzten Schritt hin zur Industrie 4.0. Über Ländergrenzen hinweg kommunizieren Maschinen miteinander, das Internet der Dinge wird zunehmend Realität. Die Digitalisierung wird vor allem mit Begriffen wie »Big Data«, »Cloud-Computing« sowie horizontaler und vertikaler Integration in Verbindung gebracht. Auch ein weiteres Feld gewinnt zunehmend an Bedeutung: die CybersicherheitCybersicherheit.
Abbildung 1-1:
Phasen der industriellen Revolution (Quelle: DFKI 2011)
Ob die KI nun die Phase der Industrie 5.0 einläutet oder nur eine logische Entwicklung der Industrie 4.0 ist, wird – zumindest auf wissenschaftlicher Seite – derzeit kontrovers diskutiert und kann vielleicht auch erst in ein paar Jahren beantwortet werden.
Aktuell stehen viele Unternehmen eher vor einigen konkreten Herausforderungen wie:
Investitionskosten:
Die Implementierung von KI-Technologien und die digitale Transformationdigitale Transformation stellen gerade für KMUKMU eine erhebliche finanzielle Herausforderung dar – nicht zuletzt aufgrund der Tatsache, dass die Entwicklungen derzeit sehr dynamisch sind und sich noch keine wirklichen Standards herausgebildet haben.
Komplexität:
Die Vernetzung und Interdependenzen von Prozessen haben einen sehr hohen Grad der Komplexität angenommen und können meist auch nicht mehr von einzelnen Personen überblickt werden. Interdisziplinäre Teams und damit auch eine offene Kommunikationskultur innerhalb des Unternehmens sind notwendig, um die notwendigen Schnittstellen zu identifizieren.
Qualifikation:
Die anstehenden Aufgaben erfordern einen hohen Grad an qualifizierten Mitarbeiterinnen und Mitarbeitern. Viele KMU beklagen aber auch einen generellen Mangel an geeigneten Arbeitskräften. Die Herausforderung besteht darin, überhaupt geeignete Arbeitskräfte zu finden und diese dann eventuell auch betriebsintern weiterzubilden.
Krisenmanagement:
Durch den vermehrten Einsatz von KI wird es Bereiche geben, in denen wahrscheinlich Maschinen die menschliche Arbeitskraft ersetzen und manche Berufsbilder sich verändern werden (ähnlich wie bei den Handwebern). Das führt unweigerlich zu Arbeitsplatzverlusten in manchen Bereichen. Dies ist ein sehr sensibles Thema, gerade für das Management von KMU, da die regionale Verwurzelung groß ist und eine starke Verbundenheit zu den Mitarbeiterinnen und Mitarbeitern besteht. Solche disruptiven Prozesse können zu einem Imageverlust des Unternehmens führen und müssen deshalb gut begleitet werden.
Abhängigkeit von Technologien und Konzernen:
Der Aufbau einer digitalen Infrastruktur wird in der Regel immer mit Partnern durchgeführt. Dies bedeutet allerdings auch eine Abhängigkeit und eine Teilaufgabe der unternehmerischen Autonomie. Änderungen der Geschäftspolitik von Tech-Konzernen aus dem Silicon Valley werden auch zukünftig nicht unbedingt mit dem deutschen Mittelstand abgestimmt werden.
CybersicherheitCybersicherheit und Vulnerabilität:
Die Verwundbarkeit der Unternehmen nimmt zu. Es vergeht kaum eine Woche, in der nicht von einem Hacker-Angriff auf IT-Infrastrukturen von Unternehmen, Behörden oder Universitäten berichtet wird – teilweise mit verheerenden Auswirkungen auf die laufende Produktion, aber auch den Datenbestand, der teilweise durch Verschlüsselungs-Trojaner unbrauchbar gemacht wird. In anderen Fällen werden Lösegeldzahlungen zur Entschlüsselung verlangt. Das heißt, die Absicherung der kritischen IT-Infrastruktur wird zunehmend eine Kernaufgabe von Unternehmen sein.
Datenqualität:
Bei allen Vorteilen, die gerade auch die KI bietet, ist zu bedenken, dass es im Grunde immer auf die Qualität der Trainingsdaten ankommt. Eine unzureichende Datenqualität kann dazu führen, dass ein AlgorithmusAlgorithmus am Ende die falschen Schlüsse zieht und beispielsweise falsche Produktempfehlungen im Upselling-Prozess im Marketing vorschlägt. Leider ist die Qualität der vorhandenen Daten in einem Unternehmen häufig sehr unterschiedlich, da diese vielleicht auch schon in der Vergangenheit nicht sorgfältig genug gepflegt wurden.
Die Vorstellung davon, wo KI überall eingesetzt werden kann, scheint grenzenlos. Ein breites Anwendungsfeld ist es, Algorithmen Entscheidungen zu übertragen – beispielsweise in der Auswahl zur Einladung von Vorstellungsgesprächen oder zur Einschätzung der Kreditwürdigkeit. Allerdings sind auch solche Entscheidungen nie ganz vorurteilsfrei, da die Maschinen derzeit noch immer mit Trainingsdaten gefüttert werden, die von Menschen kuratiert wurden und dadurch diskriminierende Element beinhalten können.
Der Einsatz der künstlichen Intelligenz erstreckt sich über diverse Bereiche, von der Musikkomposition bis zur Automatisierung juristischer Prozesse. Die Fähigkeiten, menschliche Aufgaben zu adaptieren und zu optimieren, revolutionieren nicht nur die Wirtschaft, sondern prägen auch die Art und Weise, wie wir kommunizieren, Informationen erhalten und komplexe Aufgaben angehen. Der Einfluss von KI auf die Menschheit wird in einigen wissenschaftlichen Kreisen sogar als bedeutender erachtet als historische Entdeckungen wie die des Feuers oder der Schrift (vgl. Kitzmann 2022, S. 51).
Durch die Popularität generativer KI gibt es sogar noch eine weitere zu berücksichtigende Ebene: Fake NewsFake News. Bewusste und manipulative Falschnachrichten existieren schon seit jeher und man versteht darunter in erster Linie die Verbreitung von falschen bzw. unwahren Informationen, die besonders durch neue digitale Kommunikationsformen wie die sozialen Netzwerke sehr einfach in Umlauf gebracht werden können. Zu der Tatsache, dass es sich dabei um inhaltlich falsche Nachrichten handelt, kommt hinzu, dass sie oftmals den Anschein eines journalistischen Beitrags aufweisen (vgl. Zimmermann/Kohring 2018, S. 528).
Journalistische Beiträge werden von Rezipienten in der Regel als sehr glaubwürdig und vertrauenswürdig eingestuft, da sie unter Berücksichtigung verschiedener Qualitätskriterien erstellt werden. Aber auch in diesem Feld werden künstliche Intelligenz und der Einsatz von Algorithmen immer präsenter, indem bestimmte Aufgaben bei der Nachrichtenproduktion unterstützt werden. Praktische Anwendungsmöglichkeiten sind beispielsweise Wetterberichte, Sportergebnisse oder Aktienkursbeschreibungen (vgl. Dörr 2023, S. 210). KI-Anwendungen werden auch eingesetzt, um Trendthemen zu identifizieren oder um eine zielgruppengerechte Ansprache zu ermöglichen. Noch sind die eingesetzten Algorithmen AssistenzsystemeAssistenzsysteme, die Journalistinnen und Journalisten zuarbeiten und sie von bestimmten Routineaufgaben entlasten. Was aber, wenn generative KIgenerative KI unbeaufsichtigt Nachrichten und Informationen produzieren und diese auf ein millionenfaches Publikum treffen würden? Eine manipulierbare und desinformierte Gesellschaft wäre die Folge, die zudem der medialen Berichterstattung immer weniger Glauben schenken würde. Ein Vertrauensverlust mit weitreichenden Konsequenzen wäre die Folge. Vor allem in einer Welt, in der wir unsere Informationen zu über 90 Prozent aus medialen Quellen beziehen.
An diesem Beispiel sollte exemplarisch verdeutlicht werden, wie die Folgen eines unkontrollierten KI-Einsatzes aussehen könnten. Es steht sicherlich nicht zur Frage, ob sich Arbeitsprozesse, Organisationen und Geschäftsmodelle verändern – dies wird in jedem Falle so sein. Die Frage lautet vielmehr, wie diese Prozesse in den verschiedenen Entscheidungsebenen begleitet und moderiert werden.
Die Integration von künstlicher Intelligenz wirft deshalb verschiedene Fragen auf: Müssen wir befürchten, dass eines Tages die Autonomie des Menschen durch KI bedroht wird? Inwieweit wird es eine Art der Verschmelzung von Mensch und Maschine geben, indem beispielsweise Menschen Implantate eingesetzt werden, um ihre Leistungsfähigkeit zu steigern oder ihnen ganz andere Fähigkeiten zu verleihen (vgl. Meckel 2018)? Wer beherrscht am Ende wen – der Mensch die Maschine oder die Maschine den Menschen?
Trotz der beeindruckenden Fortschritte birgt die Entwicklung von künstlicher Intelligenz Unsicherheiten und Herausforderungen. Die Grenzen zwischen Kontrollverlust und den enormen Erleichterungen, die sie bietet, sind nicht immer klar ersichtlich. Die Sorge um die Privatsphäre der Menschen wächst, während ihre Daten für wirtschaftliche Interessen genutzt werden. Die Notwendigkeit einer transparenten Bewertung der Vor- und Nachteile von künstlicher Intelligenz wird immer dringlicher, um die Auswirkungen dieser Technologie angemessen einschätzen zu können.
Eine Balance zwischen den Möglichkeiten der Algorithmen und der Gewährleistung ethischer Grundsätze wird entscheidend sein. Die Gefahr durch manipulative Nutzung erfordert geradezu internationale rechtliche Rahmenbedingungen, wie sie beispielsweise im AI Act der EU diskutiert werden.
AutomatisierungAutomatisierung und DigitalisierungDigitalisierung führen zu einem tiefgreifenden Wandel in der Arbeits- und Berufswelt. Es ist zu erwarten, dass viele traditionelle Berufe verschwinden werden. Gleichzeitig entstehen neue Kompetenzprofile, die in den Unternehmen benötigt werden. Künstliche Intelligenz übernimmt zunehmend Routinetätigkeiten, was eine Verschiebung von der Spezialisierung hin zu einem breiteren Kompetenzspektrum zur Folge haben könnte.
Die Zukunft der Ausbildung wird neben fachlichem Wissen und einer digitalen Kompetenz auch soziale und emotionale Aspekte zu berücksichtigen haben. Eine mobilere, agilere und virtuellere Arbeitswelt ist zu erwarten. Eine Folge daraus kann teilweise schon jetzt in der post-pandemischen »New Work«-Phase dahingehend beobachtet werden, dass durch virtuelle Arbeitsmöglichkeiten die direkte menschliche Interaktion nachlässt. Dies geht nicht nur zulasten der Qualität in der Kommunikation, sondern wirkt sich auch negativ auf die Beziehungen zwischen Menschen aus.
In der logischen Konsequenz müssen auch Führungskräfte und das Management Führungsstile und Managementtechniken in teilvirtualisierten Organisationen entwickeln, um diesen Herausforderungen zu begegnen.
Die Ergebnisse einer Studie des Digitalverbandes Bitkom vom September 2023 zeigt, dass die deutsche Wirtschaft eine deutliche Entwicklung hin zum Einsatz von künstlicher Intelligenz macht (vgl. Bitkom 2023). Im Vergleich zum Vorjahr nutzen nun 15 Prozent der Unternehmen KI, im Vorjahr waren es nur 9 Prozent. Gleichzeitig ist der Anteil derer, die künstliche Intelligenz als nicht relevant betrachten, von 64 auf 52 Prozent gesunken. Mittlerweile schätzen 68 Prozent KI als wichtiges Zukunftsthema ein.
In Bezug auf den Einsatz von KI bei Text und Sprache haben Unternehmen im Vergleich zum Vorjahr mehr Vertrauen entwickelt. 84 Prozent erkennen großes Potenzial für Textanalyse und Textverständnis (im Vorjahr 74 Prozent), während 74 Prozent großes Potenzial bei der Spracherkennung sehen (im Vorjahr 66 Prozent). Auch für generative KI zur Erstellung von Texten, Bildern oder Musik sehen 70 Prozent großes Potenzial. Allerdings spiegelt sich diese positive Einstellung noch nicht vollständig in der Nutzung generativer KI wider, da nur 2 Prozent der Unternehmen diese derzeit zentral einsetzen; weitere 13 Prozent planen dies.
Die Studie hebt hervor, dass generativer KI besonders im Bereich der Unterstützung bei Berichten, Übersetzungen oder anderen Texten großes Potenzial eingeräumt wird (82 Prozent). Weitere Einsatzbereiche sind Marketing und Kommunikation, IT, Forschung und Entwicklung sowie Produktion. Obwohl generative KI als vielversprechend angesehen wird, haben viele Unternehmen noch keine klare Strategie dafür. Nur 1 Prozent der Unternehmen hat Regeln für den Einsatz von generativer KI durch Mitarbeiter festgelegt, 16 Prozent planen dies für die Zukunft und 28 Prozent wollen darauf verzichten.
Die Ergebnisse zeigen auch, dass die deutsche Wirtschaft beim Thema generative KIgenerative KI gespalten ist: Während 42 Prozent glauben, dass Unternehmen, die generative KI einsetzen, einen Wettbewerbsvorteil haben, meinen 51 Prozent, dass generative KI zwar spektakulär aussehe, in den Unternehmen aber nur wenig Nutzen bringe. In Bezug auf die Beschäftigung gibt es unterschiedliche Annahmen, wobei 30 Prozent damit rechnen, dass durch den Einsatz von generativer KIgenerative KI Personal entlassen wird, während 29 Prozent glauben, dass sie hilft, den Fachkräftemangel zu bewältigen, und weitere 29 Prozent erwarten, dass generative KI die eigenen Mitarbeiter produktiver macht.
Unternehmen, die sich aktiv mit dem Einsatz von generativer KI befassen, sehen Regulierung als eines der Hauptprobleme. Die größten Hemmnisse sind Anforderungen an den Datenschutz (85 Prozent), Sorge vor künftigen rechtlichen Einschränkungen (81 Prozent), Verunsicherung durch rechtliche Unklarheiten (76 Prozent), fehlendes technisches Know-how (84 Prozent) und fehlende personelle Ressourcen (78 Prozent).
Ein Drittel der Unternehmen glaubt, bei KI den Anschluss verpasst zu haben, und nur 2 Prozent sehen sich als Spitzenreiter. In Bezug auf KI-Investitionen planen 25 Prozent der Unternehmen im laufenden Jahr zu investieren, während 74 Prozent in den kommenden Jahren Investitionen in künstliche Intelligenz planen.
Unternehmen, die KI bereits nutzen, sehen die größten Vorteile darin, dass KI die Wettbewerbsfähigkeit stärkt (71 Prozent), menschliche Fehler vermeidet (52 Prozent) und Prozesse beschleunigt (51 Prozent). Auch die Verbesserung von Produkten und Dienstleistungen sowie die Entstehung völlig neuer Produkte und Dienstleistungen werden von den KI-Nutzern positiver bewertet als von Unternehmen insgesamt. Bei den Risiken sehen sowohl KI-Nutzer als auch die Gesamtwirtschaft Verstöße gegen Datenschutzvorgaben als größtes Risiko (80 Prozent bzw. 70 Prozent). KI-Nutzer haben jedoch mehr Bedenken hinsichtlich möglicher Fehler bei der Programmierung (70 Prozent), Haftungsverpflichtungen bei Schäden (69 Prozent) und neuen IT-SicherheitsrisikenIT-Sicherheit (58 Prozent) im Vergleich zur Gesamtwirtschaft.
Die befragten Unternehmen wünschen sich von der Politik eine praxistaugliche Regulierung. 73 Prozent sind der Meinung, dass klare KI-Regeln europäischen Unternehmen einen Wettbewerbsvorteil verschaffen können. Dennoch zeigen sich 68 Prozent der Unternehmen zurückhaltend beim KI-Einsatz, weil sie Sorge haben, gegen Vorschriften zu verstoßen, und 48 Prozent beklagen, eine übertriebene Regulierung führe dazu, dass Produkte wie ChatGPT nicht in der EU entwickelt werden.
Die rasante Entwicklung der KI wirft eine Vielzahl von Fragen auf, insbesondere in Bezug auf die Rolle von Politik und Gesellschaft in diesem digitalen Wandel. Viele Ängste und Unsicherheiten sind mit dem möglichen Kontrollverlust verbunden, wenn es darum geht, die Funktionsweise von KI-Systemen zu verstehen (vgl. Kreutzer 2023, S. 394).
Fakt ist, dass die künstliche Intelligenz nicht wieder verschwinden wird, genauso wenig wie die Elektrizität oder das Internet. Vor allem die Politik muss die vorhandenen Gestaltungspielräume nutzen, um optimale Rahmenbedingungen zur Implementierung von KI in den Unternehmen zu ermöglichen, aber auch klare Orientierungen im Bereich des Datenschutzes, der rechtlichen Vorgaben, der Urheberrechte usw. anbieten. Vor allem dürfen weder Unternehmen noch Mitarbeitende bei den bevorstehenden Veränderungsprozessen allein gelassen werden.
Der Bildung und der sozialen Debatte wird eine besondere Schlüsselrolle zufallen, wenn von einem gesellschaftlichen Change-Prozess auszugehen ist. Wissen über KI und Qualifikationen in Anwendungsbereichen der KI müssen in Bildungs- und Ausbildungskonzepte integriert werden, um Ängste und Befürchtungen abzumildern. Die digitale Arbeitswelt wird in vielen Bereichen veränderte Kernkompetenzen von Arbeitnehmerinnen und Arbeitnehmern erfordern, benötigt aber auch eine leistungsfähige Infrastruktur, zum Beispiel ein flächendeckendes Breitband-Internet.
In Anbetracht dieser Gedanken sollten alle Beteiligten, seien es Politiker, Unternehmer oder Bürger, sich der Verantwortung bewusst sein, die mit der Einführung und Integration von künstlicher Intelligenz in unsere Gesellschaft einhergeht. Nur durch eine informierte, transparente und verantwortungsbewusste Herangehensweise können die Chancen der KI genutzt und potenzielle Risiken minimiert werden. Es liegt an uns allen, diese Reise in die Welt der künstlichen Intelligenz mit Bedacht und Weitsicht zu gestalten.
Referenzen
Becker, M./Daube, C. H./Reinking, E. (2023): Industrie 5.0. ZBW – Leibniz Information Centre for Economics. https://EconPapers.repec.org/RePEc:zbw:esprep:270296. Abrufdatum: 06.01.2024.
Bellinghausen, Y. (2022): Schachcomputer »Deep Blue«: Der Tag, an dem die Maschine gewann. In: Die Zeit. https://www.zeit.de/digital/2022-05/deep-blue-ibm-schachcomputer-garri-kasparov-kuenstliche-intelligenz. Abrufdatum: 06.01.2024.
Bendig, D./Lau, K./Schulte, J./Endriß, S. (2021): Industrie 5.0—Die Europäische Kommission auf den Spuren der nächsten industriellen Revolution? In: Industrie 4.0 Management, 2021(6), 20–22. https://doi.org/10.30844/I40 M_21-6_S20-22.
Bitkom (o.J.): Künstliche Intelligenz – Wo steht die deutsche Wirtschaft? | Bitkom Research. https://www.bitkom-research.de/ki-in-der-deutschen-wirtschaft-2023. Abrufdatum: 06.01.2024.
Bölker, M. (Hrsg.) (2010): Information und Menschenbild. Berlin/Heidelberg.
Bünte, C. (2018): Einleitung: Bedeutung von Künstlicher Intelligenz in der Wirtschaft. In: Bünte, C.: Künstliche Intelligenz – die Zukunft des Marketing, S. 1–3. Wiesbaden. https://doi.org/10.1007/978-3-658-23319-8_1.
Collins, C./Dennehy, D./Conboy, K./Mikalef, P. (2021): Artificial intelligence in information systems research: A systematic literature review and research agenda. In: International Journal of Information Management, 60, 102383. https://doi.org/10.1016/j.ijinfomgt.2021.102383.
Dörr, K. (2023): Algorithmische Werkzeuge – Chancen und Herausforderungen für den Journalismus. In: Meier, K./Neuberger, C. (Hrsg.): Journalismusforschung, S. 203–222. Baden-Baden. https://doi.org/10.5771/9783748928522-203.
Hasenbein, M. (2023): Definition und Entwicklung von Künstlicher Intelligenz. In: Hasenbein, M.: Mensch und KI in Organisationen, S. 21–33. Berlin/Heidelberg. https://doi.org/10.1007/978-3-662-66375-2_3.
Kitzmann, A. (2022): Künstliche Intelligenz: Wie verändert sich unsere Zukunft? Berlin/Heidelberg.
Kreutzer, R. T. (2023): Künstliche Intelligenz verstehen: Grundlagen – Use Cases – unternehmenseigene KI-Journey. 2., vollständig überarbeitete und erweiterte Auflage, Wiesbaden.
McCorduck, P. (2004): Machines who think: A personal inquiry into the history and prospects of artificial intelligence. 25th anniversary update, Wellesley, Massachusetts.
Meckel, M. (2018): Brainhacking: Der Spion in meinem Kopf. In: Die Zeit. https://www.zeit.de/2018/16/brainhacking-gehirn-kopf-konzerne-miriam-meckel. Abrufdatum: 06.01.2024.
Pinnow, C./Schäfer, S. (2015): Industrie 4.0: (R)Evolution für Wirtschaft, Politik und Gesellschaft. 1. Auflage, Berlin.
Weizenbaum, J. (1966): ELIZA—a computer program for the study of natural language communication between man and machine. In: Communications of the ACM, 9(1), S. 36–45. https://doi.org/10.1145/365153.365168.
Zimmermann, F./Kohring, M. (2018): »Fake News« als aktuelle Desinformation. Systematische Bestimmung eines heterogenen Begriffs. In: Medien & Kommunikationswissenschaft, 66(4), S. 526–541. https://doi.org/10.5771/1615-634X-2018-4-526.
Peter Thies
Im Zusammenhang mit dem Begriff der künstlichen Intelligenz (KI) tritt auch häufig der Begriff des AlgorithmusAlgorithmus zutage. Zuweilen trifft man auch auf die Bezeichnung »KI-AlgorithmusKI-Algorithmus«. Die Begriffe »künstlichen Intelligenz«, »maschinelles Lernen« sowie »Algorithmus« werden gelegentlich nicht adäquat verwendet. Dieses Kapitel versucht, einige Zusammenhänge dieser diversifizierten Technologie deutlich zu machen.
Die Hintergründe des Denkens und des Handelns haben die Menschheit seit Beginn ihrer Existenz beschäftigt. Die Frage danach, was uns bewegt, hat zu zahlreichen Disziplinen der Wissenschaft geführt. Hier lassen sich im individuellen Maßstab etwa die Medizin, dort insbesondere die Neurologie, sowie die Psychologie zählen. Auch im größeren Kontext hat sich die Menschheit mit ihrer Religion und sozialwissenschaftlichen Fragen befasst, um sich mit den Grenzen individueller Willensbildung auseinanderzusetzen. Wir treffen hier also auf ein vielschichtiges Gebiet, das einer Eingrenzung bedarf.
Es existieren zahlreiche Definitionen des Intelligenzbegriffs. Je nach Perspektive haben diese jeweils ihre Berechtigung. Wir lehnen uns im Folgenden an die in Winston (1989) formulierte Auffassung an, dass Intelligenz als das Vermögen wahrzunehmen, zu schlussfolgern und zu handeln angesehen werden kann.
Was ist dann künstliche Intelligenz? KI kann nach Nilsson (1998) aufgefasst werden als intelligentes Verhalten in ArtefaktenArtefakte. Wobei intelligentes Verhalten hier als Wahrnehmung (engl.: Perception), Schlussfolgern (engl.: Reasoning), Lernen, Kommunikation sowie Handeln in komplexen Umgebungen verstanden werden kann (a. a. O.).
Mit künstlicher Intelligenz werden im Allgemeinen zwei Ziele verfolgt:
Man will die natürliche Intelligenz, wie sie in Lebewesen vorkommt, besser verstehen und somit erklärbar machen.
Man möchte Intelligenz synthetisch herstellen können und (unter)sucht Verfahren dazu.
C. Seeger hat in seinem Einführungskapitel bereits einzelne Meilensteine der Genese der künstlichen Intelligenz als eigenständige Wissenschaft angedeutet. Wir wollen an dieser Stelle noch ein wenig genauer hinschauen.
Die Bezeichnung »künstliche Intelligenz« bzw. englisch »Artificial Intelligence« (AI) wurde erstmals im Jahr 1956 durch John McCarthy et al. als Thema einer Konferenz am Dartmouth College in New Hampshire, USA, verwendet. McCarthy war unter anderem der Schöpfer von LISPLISP, der ersten funktionalen Programmiersprache, die bis in die 1990er Jahre eine große Bedeutung in der KI hatte. Inwiefern die namhaften Teilnehmerinnen und Teilnehmer den selbst formulierten Anspruch jener Konferenz, jeden Aspekt des Lernens und der Intelligenz derart genau beschreiben zu können, dass dies mit einem Computer simuliert werden kann, zu naiv eingeschätzt haben, mögen die Leserinnen und Leser selbst beurteilen.
In den folgenden Jahren haben zahlreiche Wissenschaftler sich sowohl an symbolverarbeitenden Systemen (vgl. symbolische KI) als auch an konnektionistischen Ansätzenkonnektionistische Ansätzen (vgl. subsymbolische KI) versucht.
Die symbolische KI wurde geleitet von der Physical Symbol Systems Hyptothesis (PSSH):
A physical symbol system has the necessary and sufficient means for general intelligent action.
Newell und Simon (1976, S. 116)
Diese Hypothese wurde im Laufe der Jahre kontrovers diskutiert, konnte sich aber bis heute mehr oder weniger behaupten (Nilsson 2007).
Im Bereich der symbolischen KI finden Ansätze wie regelbasierte Systeme, semantische Netze, logische Systeme (zum Beispiel für Prädikatenlogik, Modal- oder Temporallogik), EntscheidungsbäumeEntscheidungsbäume sowie Suchverfahren besondere Beachtung.
Die subsymbolische KI wurde sehr stark von zwei Ansätzen geprägt, nämlich von künstlichen neuronalen Netzen sowie der Support Vector Machine (SVM). Künstliche neuronale Netze basieren in der Regel auf einem mathematischen Modell nach McCulloch und Pitts (1943). Die sogenannte McCulloch-Pitts-Zelle ist eine sehr starke Vereinfachung eines einzelnen natürlichen Neurons. Einer der ersten, die mit künstlichen neuronalen Netzen effektiv gearbeitet haben, war Rosenblatt (1958).
Der heute für das Training von neuronalen Netzen weit verbreitete Backpropagation-Algorithmus geht auf Rumelhart, Hinton und Williams (1986) zurück. Weitere Meilensteine waren die Entdeckung von Convolutional Neural Networks (CNN) durch Lecun, Bottou, Bengio und Haffner (1998) sowie die Entwicklung des Long Short-Term Memory (LSTM) durch Hochreiter und Schmidhuber (1997). CNNs sind für die Erkennung von lokalen Mustern in Datensätzen wie etwa Gegenständen in Bildern von großer Bedeutung. LSTM-Netzwerke haben insbesondere im Kontext der Verarbeitung von Sequenzen, wie sie etwa beim Sprachverstehen von Bedeutung sind, große Fortschritte erbracht. Hinton (2022) hat mit dem Forward-Forward-Algorithmus eine Alternative zum Backpropagation-Algorithmus vorgestellt. J. Maucher geht im folgenden Kapitel genauer auf neuronale Netze und deren Verwendung für Large Language Models ein.
Die Support Vector Machine geht zurück auf zahlreiche und über mehrere Jahrzehnte verteilte Arbeiten der russischen Wissenschaftler Vladimir Vapnik und Alexey Chervonenkis (vgl. etwa Cortes/Vapnik 1995).
Über die eher von der Frage nach einem adäquaten Repräsentationsformalismus getriebenen Ansätze hinausgehend hat man sich ausgiebig mit Themen des Bildverstehens, der kognitiven Robotik, der verteilten KI auf Basis von Agenten sowie dem maschinellen Lernen im Allgemeinen befasst.
Die Beschäftigung mit Multiagentensystemen (MAS) führte zu der Entwicklung des Gebiets der verteilten KI (VKI) (engl.: Distributed Artificial IntelligenceDistributed Artificial Intelligence, DAI). Frühe Arbeiten hierzu waren zum Beispiel Lesser/Corkill (1981), Minsky (1986), Georgeff/Lansky (1987) und Shoham/Tennenholz (1992). Bei MAS standen Gesellschaften von beispielsweise Ameisen, Bienen und Fischen Pate. Die Faszination geht hier davon aus, dass große Gesellschaften von recht einfachen Individuen, den sogenannten Agenten, aufgrund einfacher Kommunikationsmuster etwa auf Basis von Bewegungen oder Duftstoffen zu beeindruckenden Leistungen imstande sind. Bekannte Lehrbücher im MAS-Kontext sind Shoham/Leyton-Brown (2009) sowie Wooldridge (2009).
Abbildung 2-1:
Phasen der KI-Genese in Anlehnung an Russell/Norvig (2012, S. 39 ff.)
Wie in anderen Wissenschaften auch erfolgte die Genese der künstlichen Intelligenz bislang in Wellen bzw. Phasen (siehe Abbildung 2-1). Die seit ca. 2012 andauernde Welle geht mit einer sehr deutlichen Betonung des maschinellen Lernens in Verbindung mit konnektionistischen Ansätzenkonnektionistische Ansätzen (vorrangig neuronale Netze) einher. Ihr Momentum bezieht jene Welle aus der mittlerweile in der Breite verfügbaren beeindruckenden Rechenleistung in Verbindung mit den im Internet-Maßstab bereitstehenden Daten.
Klar ist heute, dass nicht alle Aspekte der Intelligenz durch einen Computer simuliert werden können. So besteht mittlerweile ein Konsens darüber, dass das Bewusstsein, das uns Menschen gegeben ist (engl.: Consciousness), kein Ergebnis einer Berechnung sein kann. Wenn aber unsere Computer in dem gefangen sind, was man in der Mathematik als Berechenbarkeit bezeichnet, so ist klar, dass ein Rechner kein Bewusstsein entwickeln wird.
Für eine tiefergehende, detaillierte Betrachtung der Geschichte der KI sei auf Nilsson (2009) verwiesen.
In der in diesem Abschnitt kurz abgerissenen Geschichte der KI wurden zahlreiche Grundlagen genannt. Auf alle diese Begriffe kann in einem einzelnen Kapitel, das sich dem Überblick über eine lebhafte Wissenschaft widmet, nicht eingegangen werden. Stattdessen sollen im Weiteren zwei Alternativen herausgegriffen werden, an deren Beispiel die Vielseitigkeit der in der KI verfügbaren Ansätze geschildert werden kann.
Verglichen mit der Entstehung der künstlichen Intelligenz beginnt die Geschichte der Algorithmen wesentlich früher. Der Begriff des AlgorithmusAlgorithmus (engl.: Algorithm) geht zurück auf den arabischen Schriftsteller Abu Dshafar Muhammed Ibn Musa al-Khwarizmi (vgl. Zemanek 1981). Er lebte um 825 n. Chr. im damaligen Khwarizm (heute: Khiva in Usbeskistan) am Rand des Aralsees, was als Teil des Namens verwendet wurde. Er beschrieb Erbschaftsverhältnisse, die sich ergaben, wenn ein wohlhabender Araber starb und bis zu vier Frauen und mehrere Kinder hinterließ. Dazu verfasste er ein Lehrbuch mit dem Titel Kitab al jabr w’almugabalah (Regeln zur Wiederherstellung und des Ausgleichs). Dies bedeutete die Übertragung von Teilen einer Gleichung von einer Seite des Gleichheitszeichens auf die andere. Aus »… al jabr …« leitet sich der heutige Begriff der Algebra ab. Aus dem Namen des Schriftstellers wurde »Algorism« und daraus später »Algorithmus«.
Bis in die 1950er Jahre war der Algorithmus-Begriff eng verbunden mit dem sogenannten Euklidischen2 Algorithmus. Jener Algorithmus dient der Bestimmung des größten gemeinsamen Teilers (kurz: ggT) von zwei positiven ganzen Zahlen. Dies kann wie folgt geschehen (Knuth 1997, S. 2 f.):
Schritt 1 (Rest berechnen):
Teile m durch n. Der Divisionsrest sei mit r bezeichnet. Offenkundig ist 0 ≤ r < n.
Schritt 2 (Rest = 0 ?):
Wenn r = 0, dann terminiert3 der Algorithmus und n ist das Ergebnis.
Schritt 3 (Reduktion):
Setze m := n, n := r und gehe zu Schritt 1.
Alternativ könnte man diesen AlgorithmusEuklidischer Algorithmus grafisch darstellen (vgl. Abbildung 2-2).
Abbildung 2-2:
Euklidischer Algorithmus, dargestellt mittels Flussdiagramm
Unter diesem Eindruck stellt sich nahezu automatisch die Frage, was denn nun ein Algorithmus ist und in welchem Zusammenhang er mit der KI steht?
Ein AlgorithmusAlgorithmus kann verglichen werden mit einem Geschäftsprozess, einem Kochrezept oder einer strukturierten, schriftlichen Arbeitsanweisung. Während ein Geschäftsprozess ein soziotechnisches System koordiniert, bezieht sich ein Algorithmus auf die Möglichkeiten der Berechenbarkeit (vgl. Church 1932; Turing 1937; Felscher 1993 für einen umfassenden Überblick) und deren Umsetzung mittels Digitalrechnern.
Wesentlich ist, dass ein Algorithmus durch einen explizit formulierten Kontrollfluss gekennzeichnet ist. Dieser Kontrollfluss drückt sich in Befehlssequenzen, Fallunterscheidungen, Wiederholungen und Rekursion4 aus. Zudem ist ein Algorithmus stets neutral bezüglich einer sprachlichen Umsetzung. Das bedeutet, dass ein Algorithmus prinzipiell mit beliebigen Programmiersprachen implementiert werden kann5.
Der Algorithmus-Begriff kann aus unterschiedlichen Perspektiven betrachtet werden. So kann man etwa die Frage stellen, ob ein Algorithmus deterministisch oder nichtdeterministisch ist. Ein deterministischer Ansatz bietet bei wiederholter Anwendung bei gleichen Inputs stets die gleichen Ergebnisse bzw. Outputs. Nichtdeterminismus ist in gewisser Weise immer mit Raten verbunden. Wenn zum Beispiel Elemente einer Datenstruktur zufällig ausgewählt werden, kommt es bei wiederholter Verwendung im Allgemeinen zu anderen Ergebnissen als zuvor.
Darüber hinaus muss ein AlgorithmusAlgorithmus nicht immer imperativ (zum Beispiel in der Form Schritt 1, Schritt 2, Schritt 3) geartet sein. Unter anderem kann man auch deduktive Algorithmen auf Basis von Fakten und Regeln aufbauen und diese miteinander inferieren6. Wenn etwa die Regel »Alle Menschen sind sterblich« und das Faktum »Thomas ist ein Mensch« gelten, dann können wir unter Anwendung der setzenden Schlussfigur (lat.: modus ponens) inferieren, dass Thomas sterblich ist.
Wir werden später nochmals zu der Frage zurückkehren, in welchem Zusammenhang künstliche Intelligenz und Algorithmen stehen.
2 Euklid (von Alexandria): 325–265 v. Chr., bekanntester Mathematiker der Antike. Wichtige Publikation, die bis ins ausklingende Mittelalter große Bedeutung behielt: Die Elemente (Geometrie).
3 Wenn ein Algorithmus »terminiert«, so beendet er seine Tätigkeit.
4 Als »Rekursion« bezeichnet man die Beschreibung einer mathematischen Funktion unter Verwendung des Selbstaufrufs unter Zuhilfenahme von angepassten Argumenten.
5 Sofern diese als Turing-vollständig bezeichnet werden können.
6 Inferenz bezeichnet das (logische) Schlussfolgern.
Es sei unser Ziel, eine Software zu entwickeln, die ohne unser Dazutun ein Achter-Puzzle beliebigen Zustands lösen kann. Ein Achter-Puzzle ist ein Spiel, auf dessen Spielbrett sich 8 verschiebliche Spielsteine sowie eine Lücke befinden. Der jeweilige Spielzustand kann durch Verschieben eines Spielsteins, der sich in direkter Nachbarschaft zur Lücke befindet, verändert werden. Durch das Schieben eines Nachbarsteins in die bisherige Lücke wandert jene Lücke weiter.
Abbildung 2-3 zeigt 13 exemplarische Zustände eines Achter-Puzzles als Piktogramme. Der angenommene Ausgangszustand befindet sich in der Abbildung oben. Die Zustandsübergänge werden durch gerichtete Kanten (Pfeile) mit der jeweils verändernden Operation als Beschriftung dargestellt. Dabei sind Veränderungen als Bewegung der Lücke codiert. Das Verschieben der »4« in die Lücke im Ausgangszustand kann auch als heraufbewegen (»up«) der Lücke angesehen werden. Durch diese Codierung beschränken sich die Handlungsmöglichkeiten unseres Zielsystems auf 4 Operationen (»up«, »down«, »left«, »right«).
Abbildung 2-3:
Achter-Puzzle, exemplarische Zustände mit Zustandsübergängen
Die in Abbildung 2-3 dargestellte Datenstruktur besteht somit aus der Repräsentation des jeweiligen Zustands sowie aus vier möglichen Operationen, die zu Zustandsübergängen führen. Diese Datenstruktur kann als Baum bezeichnet werden, dessen Wurzel oben angeordnet ist und den Anfangszustand darstellt. Wandert man entlang der Kanten, so lässt sich ein Verhalten des Systems ableiten, das sich in der Manipulation des Spiels ausdrückt.
Die Datenstruktur an sich spannt einen abstrakten Zustandsraum auf, beginnend vom Wurzelknoten als Anfangszustand zu einem Knoten, der den Zielzustand darstellt. Der Weg vom Wurzelknoten zu jenem Zielknoten würde dann das Systemverhalten abbilden.
Zwingende Voraussetzung für den Einsatz eines solchen Verfahrens ist, dass die Menge der möglichen Zustände eines Kontexts bekannt ist und dass diese Zustände auch als Datenstruktur repräsentierbar sind. Dies ist für überschaubare Kontexte wie etwa Spiele (Dame, Schach, u. v. a. m.) einfach möglich. Für eher unstrukturierte Kontexte wie etwa Bilder ist dieses Verfahren wenig hilfreich.
Eine weitere Frage bezüglich der Einsetzbarkeit dieses Ansatzes ist die seiner Raumkomplexität (engl.: Space Complexity). Wenn wir uns das zuvor skizzierte Achter-Puzzle nochmals vor Augen führen, dann liegen uns 9 Elemente vor (8 Spielsteine + 1 Lücke), die auf dem Spielfeld positionierbar sind. Jeder dieser Spielzustände kann als eine Permutation jener 9 Elemente angesehen werden. Die Anzahl aller Permutationen einer 9-elementigen Menge kann mit der Fakultätsfunktion berechnet werden durch 9! = 362.880.
Bei diesem kleinen Problem erhalten wir also bereits einen Baum mit 362.880 Knoten. Würden wir das Spiel nur um eine Zeile und eine Spalte erweitern und so zu einem 15er-Puzzle gelangen, hätte unser Baum bereits 16! = 20,923 Milliarden Knoten.
Die Raumkomplexität dieses Verfahrens ist also beachtlich und verlangt nach Heuristiken, um den zu durchsuchenden Baum zu beschneiden (engl.: Pruning). Hierzu existieren zahlreiche Algorithmen wie etwa Bergsteigen, Verzweigen und Begrenzen sowie die A*-Suche. Ein im Rahmen dieser Algorithmen anwendbares heuristisches Maß wäre etwa die bereits kumulierte Arbeit (vgl. etwa die durch eine Person bereits gelaufene Strecke) oder die geschätzte noch zu erledigende Restarbeit (vgl. etwa die erwartete Restdistanz, die eine Person zum Ziel laufen muss) eines Systems.
Jahrelang hat man diesen Ansatz für Spiele wie Schach angewendet. Schach besitzt einen wesentlich größeren Zustandsraum als ein triviales Kinder-Puzzle. Erst als man geeignete Heuristiken fand, um den zu durchsuchenden Baum effektiv zu beschneiden, war man 1997 mittels KI (ein IBM Computer namens Deep BlueDeep Blue) in der Lage, den amtierenden Schachweltmeister7 zuverlässig zu besiegen.
7 Garri Kasparow (*1963 in Baku, UdSSR, heute Aserbaidschan), Schach-Weltmeister 1985–2000.
Ein weiterer Formalismus, der den symbolischen Ansätzen der KI zuzuordnen ist, sind EntscheidungsbäumeEntscheidungsbäume. Hierbei handelt es sich um die Repräsentation von Wissen in Form von Binärbäumen (Abbildung 2-4). Ein Baum besitzt einen ausgewiesenen Knoten, den man »Wurzel« nennt (in der Abbildung als q0 dargestellt), an dem einen Ende (in der Regel oben) sowie Knoten, die man »Blätter« nennt (in der Abb. als c0,…,c8 als bezeichnet und üblicherweise unten), am andere Ende. Knoten, die weder Wurzel noch Blatt sind, werden »innere Knoten« genannt. Binärbäume besitzen pro Knoten maximal 2 Kindknoten.
In einem Entscheidungsbaum wird jedem Knoten, der nicht Blatt ist, eine Frage zugeordnet, die mit Wahr oder Falsch beantwortet werden kann. Jene Fragen sind in der Regel in einer formalen Sprache formuliert, um diese maschinell auswerten zu können. Man beginnt bei der Wurzel und prüft die zugehörige Frage (in der Abb. als q0 bezeichnet). Kann jene Frage mit Wahr oder umgangssprachlich Ja beantwortet werden, so geht man zur nächsten Frage q1
