Machine Learning – kurz & gut - Chi Nhan Nguyen - E-Book

Machine Learning – kurz & gut E-Book

Chi Nhan Nguyen

0,0

Beschreibung

Der kompakte Schnelleinstieg in Machine Learning und Deep Learning - Die Neuauflage des Bestsellers wurde ergänzt durch die Themen Unsupervised Learning und Reinforcement Learning - Anhand konkreter Datensätzen lernen Sie einen typischen Workflow kennen: vom Datenimport über Datenbereinigung, Datenanalyse bis hin zur Datenvisualisierung - Nicht nur für zukünftige Data Scientists und ML-Profis geeignet, sondern auch für Interessierte, die nur am Rande mit ML zu tun haben, wie z.B. Softwareentwickler*innen Machine Learning erreicht heute beinahe alle Bereiche der Technik und der Gesellschaft. Dieses Buch bietet Interessierten, die einen technischen Hintergrund haben, die schnellstmögliche Einführung in das umfangreiche Themengebiet des maschinellen Lernens und der statistischen Datenanalyse. Dabei werden alle wesentlichen Themen abgedeckt und mit praktischen Beispielen in Python, Pandas, TensorFlow und Keras illustriert. Nach der Lektüre dieses Buchs haben Sie einen Überblick über das gesamte Thema und können Ansätze einordnen und bewerten. Das Buch vermittelt Ihnen eine solide Grundlage, um Ihre ersten eigenen Machine-Learning-Modelle zu trainieren und vertiefende Literatur zu verstehen. Die aktualisierte 2. Auflage behandelt jetzt auch Unsupervised Learning und Reinforcement Learning.

Sie lesen das E-Book in den Legimi-Apps auf:

Android
iOS
von Legimi
zertifizierten E-Readern
Kindle™-E-Readern
(für ausgewählte Pakete)

Seitenzahl: 182

Das E-Book (TTS) können Sie hören im Abo „Legimi Premium” in Legimi-Apps auf:

Android
iOS
Bewertungen
0,0
0
0
0
0
0
Mehr Informationen
Mehr Informationen
Legimi prüft nicht, ob Rezensionen von Nutzern stammen, die den betreffenden Titel tatsächlich gekauft oder gelesen/gehört haben. Wir entfernen aber gefälschte Rezensionen.



Zu diesem Buch – sowie zu vielen weiteren O’Reilly-Büchern – können Sie auch das entsprechende E-Book im PDF-Format herunterladen. Werden Sie dazu einfach Mitglied bei oreilly.plus+:

www.oreilly.plus

2. Auflage

Machine Learningkurz & gut

Chi Nhan Nguyen und Oliver Zeigermann

Chi Nhan Nguyen und Oliver Zeigermann

Lektorat: Alexandra Follenius

Korrektorat: Sibylle Feldmann, www.richtiger-text.de

Satz: III-Satz, www.drei-satz.de

Herstellung: Stefanie Weidner

Umschlaggestaltung: Karen Montgomery, Michael Oréal, www.oreal.de

Bibliografische Information der Deutschen Nationalbibliothek

Die Deutsche Nationalbibliothek verzeichnet diese Publikation in der Deutschen Nationalbibliografie; detaillierte bibliografische Daten sind im Internet über http://dnb.d-nb.de abrufbar.

ISBN:

Print  978-3-96009-161-5

PDF   978-3-96010-511-4

ePub  978-3-96010-512-1

mobi  978-3-96010-513-8

2. Auflage 2021

Copyright © 2021 dpunkt.verlag GmbH

Wieblinger Weg 17

69123 Heidelberg

Dieses Buch erscheint in Kooperation mit O’Reilly Media, Inc. unter dem Imprint »O’REILLY«. O’REILLY ist ein Markenzeichen und eine eingetragene Marke von O’Reilly Media, Inc. und wird mit Einwilligung des Eigentümers verwendet.

Hinweis:

Dieses Buch wurde auf PEFC-zertifiziertem Papier aus nachhaltiger Waldwirtschaft gedruckt. Der Umwelt zuliebe verzichten wir zusätzlich auf die Einschweißfolie.

Schreiben Sie uns:

Falls Sie Anregungen, Wünsche und Kommentare haben, lassen Sie es uns wissen: [email protected].

Die vorliegende Publikation ist urheberrechtlich geschützt. Alle Rechte vorbehalten. Die Verwendung der Texte und Abbildungen, auch auszugsweise, ist ohne die schriftliche Zustimmung des Verlags urheberrechtswidrig und daher strafbar. Dies gilt insbesondere für die Vervielfältigung, Übersetzung oder die Verwendung in elektronischen Systemen.

Es wird darauf hingewiesen, dass die im Buch verwendeten Soft- und Hardware-Bezeichnungen sowie Markennamen und Produktbezeichnungen der jeweiligen Firmen im Allgemeinen warenzeichen-, marken- oder patentrechtlichem Schutz unterliegen.

Alle Angaben und Programme in diesem Buch wurden mit größter Sorgfalt kontrolliert. Weder Autor noch Verlag können jedoch für Schäden haftbar gemacht werden, die in Zusammenhang mit der Verwendung dieses Buches stehen.

5 4 3 2 1 0

Inhalt

1Einführung

Wie du dieses Buch lesen kannst

Arten von Machine Learning – ein Überblick

2Quick-Start

Unser erstes Python-Notebook

Unser Beispiel: Irisblüten

Wir bringen dem Computer bei, Irisblüten zu unterscheiden

Nearest Neighbors Classification

Overfitting

Underfitting

Eine bessere Feature-Auswahl

Weiterführende Links

3Datenimport und -vorbereitung

Datenimport

Das vorbereitete Projekt

Preprocessing

Weiterführende Links

4Supervised Learning

Lineare Regression

Logistische Regression

Support Vector Machine

Decision-Tree-Klassifikator

Random-Forest-Klassifikator

Boosted Decision Trees

Weiterführende Links

5Feature-Auswahl

Reduzierung der Features

Auswahl der Features

Principal-Component-Analyse

Feature-Selektion

Weiterführende Links

6Modellvalidierung

Metrik für Klassifikation

Metrik für Regression

Evaluierung

Hyperparameter-Suche

Weiterführende Links

7Neuronale Netze und Deep Learning

Iris mit neuronalen Netzen

Feed Forward Networks

Deep Neural Networks

Anwendungsbeispiel: Erkennung von Verkehrsschildern

Data Augmentation

Neuere Ansätze im Bereich CNN

Weiterführende Links

8Unsupervised Learning mit Autoencodern

Das Szenario: Visuelle Regressionstests mit Autoencodern – eingeschlichene Fehler erkennen

Die Idee von Autoencodern

Aufbau unseres Autoencoders

Training und Ergebnisse

Was passiert im Autoencoder?

Fazit

Weiterführende Links

9Deep Reinforcement Learning

Grundkonzepte und Terminologie

Ein Beispiel: der hungrige Bär

Optimierung als Herausforderung

Technische Modellierung als OpenAI Environment

Training mit PPO

Training als Supervised-Deep-Learning-Problemstellung formulieren

Der Policy-Loss

Actor-Critic über das Value Network

Sample-Effizienz und katastrophale Updates

Exploration vs. Exploitation

Fazit

Weiterführende Links

Index

KAPITEL 1

Einführung

In diesem Buch führen wir dich in das Thema Machine Learning ein. Wir setzen keine Kenntnisse voraus und beginnen tatsächlich bei null. Das Buch ist für alle Anwender mit einem technischen Hintergrund gedacht, die in das Thema Machine Learning einsteigen möchten. Wenn du also Programmierer, Ingenieur, Naturwissenschaftler, technischer Journalist oder etwas Ähnliches bist, ist dies hier dein Buch.

Alle Codebeispiele werden wir in Python 3 angegeben – Python-Kenntnisse sind jedoch nicht zwingend erforderlich, denn wir werden die notwendigen Grundlagen Stück für Stück in entsprechend gekennzeichneten Kästen vermitteln. Diese kannst du überspringen, falls du Python bereits beherrschst. Wenn du dir nur einen generellen Überblick verschaffen willst, ist es auch möglich, die Programmierbeispiele komplett zu überspringen, einen tieferen Einblick bekommst du aber nur mit ihrer Hilfe. Um den Programmierbeispielen folgen zu können, solltest du eine Programmiersprache mit objektorientierten Eigenschaften beherrschen – welche, ist egal.

Wie du dieses Buch lesen kannst

Dieses Buch ist kein Nachschlagewerk. Du kannst es gut von vorn bis hinten durchlesen. Dann dient es dir als Einführung in das Thema Machine Learning.

Das Buch ist in drei Teile aufgeteilt. Teil 1 bildet mit den Kapiteln 1 bis 3 die Einleitung in das Thema. Die Kapitel 4 bis 6 liefern als Teil 2 einen strukturierten Aufbau der Grundlagen. Im dritten Teil mit den Kapiteln 7 bis 9 lernst du anhand von Anwendungsbeispielen fortgeschrittene Techniken wie neuronale Netze, Autoencoder und Deep Reinforcement Learning kennen.

Du kannst alle Codebeispiele direkt nachvollziehen und brauchst dann dementsprechend länger. Du kannst aber auch bestimmte Kapitel auslassen, wenn du dich nicht so sehr für das darin behandelte Thema interessierst. In jedem Fall solltest du den Schnelldurchlauf in Kapitel 2, Quick-Start, und das Kapitel 4, Supervised Learning, komplett lesen. Diese Kapitel enthalten die Kernthemen dieses Buchs.

In Kapitel 4 werden wir uns durch die einzelnen klassischen Strategien des Supervised Learning hindurcharbeiten und dabei deren Unterschiede, Stärken und Schwächen kennenlernen. In Kapitel 2 findest du einen Schnelldurchlauf durch alle Stationen dieses Buchs.

Die beiden Kapitel 5, Feature-Auswahl, und 6, Modellvalidierung, gehen etwas mehr in die Tiefe und beantworten Fragen, die eventuell in Kapitel 4 offengeblieben sind. Sie enthalten Formeln und erfordern ein wenig mathematisches Interesse und Verständnis.

Kapitel 3, Datenimport und -vorbereitung, liegt uns persönlich besonders am Herzen. Oft fehlt dieser Teil in einführenden Büchern, da er als etwas mühsam und spaßfrei angesehen wird. Wir glauben, dass sogar die Vorbereitung der Daten spannend sein kann. Zudem sind gute Daten in der Regel die Voraussetzung für einen erfolgreichen Machine-Learning-Prozess. In diesem Kapitel schaffen wir zudem die technischen Grundlagen für den Umgang mit Python und seinen Bibliotheken.

Kapitel 7, Neuronale Netze und Deep Learning, handelt vom Deep Learning mit neuronalen Netzen, dem zurzeit heißesten Thema im Bereich Machine Learning. Dies ist ebenso eine Strategie des Supervised Learning, ist aber in vielen Punkten anders als die zuvor in Kapitel 4 behandelten Strategien. Daher haben wir diesem Thema ein eigenes Kapitel spendiert. Hier wenden wir auch alles bisher Gelernte in einer praktischen Anwendung an, indem wir versuchen, Geschwindigkeitsbeschränkungen auf Verkehrsschildern zu erkennen.

In Kapitel 8, Unsupervised Learning mit Autoencodern und Kapitel 9, Deep Reinforcement Learning gehen wir weiter auf dem Pfad der neuronalen Netze, und du erfährst, wie man diese für unüberwachtes und verstärkendes Lernen einsetzen kann.

Arten von Machine Learning – ein Überblick

Stell dir ein System vor, das sagen soll, ob auf einem Bild ein Hund zu sehen ist oder nicht. So etwas könntest du programmatisch mit Methoden der Bildverarbeitung umsetzen. Dazu könntest du einen Satz von Regeln anlegen, anhand derer das System entscheidet, ob es einen Hund gibt oder eben nicht. Solche Systeme sind nicht nur schwer zu entwickeln, es wird wahrscheinlich viele Hunde auch gar nicht erkennen oder in manchen Bildern fälschlicherweise Hunde vermuten. Was macht man da? Man fügt neue Regeln hinzu, und andere verfeinert man manuell.

Mit einem Machine-Learning-Ansatz würde das ganz anders laufen. Du müsstest ein System konfigurieren und mit entsprechenden Hundebildern (und Bildern ohne Hund) in einer Lernphase trainieren. Das System lernt dann im Idealfall selbst die Regeln, die du sonst als Programmierer hättest explizit aufzählen müssen.

Von Machine Learning spricht man, wenn man einen Computer nicht direkt programmiert, sondern wenn diese Maschine bestimmte Fähigkeiten erlernt. In der klassischen Programmierung bringen wir ein Modell in ein Stück Code, mit dem wir eine Eingabe in eine Ausgabe wandeln. Im Machine Learning drehen wir das um und lassen die Maschine das Modell aus passenden Sätzen von Ein- und Ausgaben erlernen. Dies illustriert Abbildung 1-1. Ein solches Vorgehen nennt man auch Supervised Learning (überwachtes Lernen), da wir unser System aktiv durch zueinander passende Datensätze trainieren.

Abbildung 1-1: Maschinelles Lernen vs. klassische Programmierung

Supervised Learning

Man kann den Bereich Machine Learning anhand unterschiedlicher Ansätze unterteilen. Beim Supervised Learning (dem überwachten Lernen) trainierst du ein System mit Datensätzen aus Eingabe und erwarteter Ausgabe.

Für das Beispiel mit den Hundebildern musst du einen Satz von Bildern mit Hunden und ohne Hunde heraussuchen. Um den Trainingserfolg zu überprüfen, nimmst du einen anderen, bisher dem System nicht bekannten Teil der Bilder und lässt das System entscheiden, ob das Bild einen Hund enthält oder nicht. Da du für diese Bilder ja schon das richtige Ergebnis kennst, kannst du sehen, wie gut das System gelernt hat. Im Idealfall kann das System in dieser Testphase alle Bilder richtig zuordnen. Wo die Grenzen solcher Systeme gerade im Bereich Bilderkennung sind und was du machen kannst, falls das System nicht richtig lernt, thematisieren wir in einem praktischen Beispiel in Kapitel 7, Neuronale Netze und Deep Learning.

Klassifikation und Regression

So ein Beispiel nennt man auch eine Klassifikation. Das System lernt, Bilder in die beiden Klassen »Bild mit Hund« und »Bild ohne Hund« einzusortieren. Oft gibt es bei einer Klassifikation nur zwei Klassen, z.B. ob ein selbstfahrendes Auto in einer bestimmten Situation bremsen sollte oder nicht oder ob auf einem Ultraschallbild Krebs vermutet wird oder nicht. Häufig wird sich in einem solchen Fall nicht strikt für Ja oder Nein entschieden, stattdessen wird die Vorhersage mit einer Gewissheit versehen, meist einer Zahl zwischen 0 und 1.

Es gibt auch Klassifikationen, die zwischen einer ganzen Reihe von Klassen entscheiden, z.B. bei einer Handschriftenerkennung der Ziffern 0 bis 9, die bei Postsendungen zum Einsatz kommt. Hier haben wir zehn Klassen, nämlich für jede Ziffer von 0 bis 9 eine. Auch hier bekommen wir Wahrscheinlichkeiten pro Ziffer.

Der zweite Problembereich des Supervised Learning ist die Regression – also das Erlernen einer kontinuierlichen Funktion – anhand von Werten, die auf dieser Funktion liegen. Das wäre z.B. der Fall, wenn wir das Gewicht eines Hundes anhand bestimmter Parameter oder sogar eines Bilds des Tieres vorhersagen wollen.

Manchmal ist es gar nicht so einfach, den richtigen Ansatz für ein bestehendes Problem zu finden. Wenn die Ausgabe diskrete Werte sind (z.B. die Ziffern 0 bis 9), ist es wahrscheinlich ein Klassifikationsproblem. Hat man kontinuierliche Werte, wie bei dem Gewicht eines Hundes, ist es ein Regressionsproblem.

Unsupervised Learning

Beim Ansatz des Unsupervised Learning (des unüberwachten Lernens) sind keine Labels, also keine Vorgaben der richtigen Lösungen notwendig.

Clustering

Ein Beispiel sind sogenannte Clustering-Verfahren: Sie nehmen eine automatische Kategorisierung der Daten vor und sortieren sie in zusammenhängende Gruppen bzw. »Klumpen« oder »Haufen« (Cluster). Die Kategorisierung geschieht dabei anhand ähnlicher Eigenschaften. Nehmen wir als Beispiel an, dass wir von einer Gruppe von Hunden die Größe und das Gewicht kennen. Wir nehmen dazu ein Koordinatensystem mit einer x-Achse, auf der wir die Größe auftragen, und einer y-Achse für das Gewicht. Versehen wir nun jeden Hund mit einem Punkt, der seinem Gewicht und seiner Größe entspricht, ergibt sich eine Verteilung der Hunde, wie in Abbildung 1-2 zu sehen.

Abbildung 1-2: Verteilung von Hunden (jeder Punkt ist ein Hund)

Ebenso wie wir als Menschen in der Lage wären, hier Gruppen einzutragen, ohne Ahnung von Hunden zu haben, kann das auch ein Clustering-Verfahren. Erst die Interpretation der Gruppen erfordert wieder menschliches Zutun. Ein mögliches Ergebnis ist in Abbildung 1-3 dargestellt. Andere Clusterungen sind natürlich möglich – das hängt vom jeweiligen Menschen oder Clustering-Verfahren ab.

Als kleine Übung bitten wir dich, den jeweiligen Clustern Interpretationen zu geben. Was für eine Gruppe könnte z.B. die Gruppe ganz rechts unten sein?

Abbildung 1-3: Automatisches Clustering der Hundegruppe (ohne Interpretation)

Vereinfachung von Daten – Reduktion von Dimensionen

Zum Unsupervised Learning gehört auch die sogenannte Principal Component Analysis (PCA, Hauptkomponentenanalyse, https://de.wikipedia.org/wiki/Hauptkomponentenanalyse). Durch eine Reduzierung der Dimensionen (d.h. der Anzahl der Variablen in den Datensätzen) werden dabei umfangreiche Datensätze vereinfacht, ohne dass wichtige Informationen verloren gehen. Dies werden wir ebenfalls für die Feature-Auswahl in Kapitel 5 nutzen. Das heißt, dieses Verfahren kann auch für die Datenvorverarbeitung beim Supervised Learning genutzt werden.

Als Beispiel für eine PCA kann man ICE-Fahrten von Berlin nach Hamburg betrachten. Kennt man die Abreisezeit, ist die ungefähre geplante Ankunftszeit daraus ableitbar. Beide Dimensionen in seinen Datensätzen zu halten, wäre unnötig. Dies herauszufinden und den Datensatz in seiner Dimension zu reduzieren (in unserem Fall von 2 auf 1), ist Aufgabe der PCA.

Kapitel 8, Unsupervised Learning mit Autoencodern, zeigt über diese Beispiele hinaus mit Autoencodern Techniken auf Basis von neuronalen Netzen.

Reinforcement Learning

Reinforcement Learning (bestärkendes Lernen oder verstärkendes Lernen, https://de.wikipedia.org/wiki/Best%C3%A4rkendes_Lernen) wird häufig in Spielsituationen verwendet. Ein System soll anhand von positiver oder negativer Rückmeldung auf eine ausgeführte Aktion ein optimales Verhalten innerhalb einer Situation erlernen. Diese Situation wird dem System anhand gewisser Eingabeparameter zusammen mit einer Bewertung des Spielstands mitgeteilt. Eine solche Bewertung kann zum Beispiel der Punktestand innerhalb eines Arcade-Spiels sein. Mit diesem könnte zusammen mit der Videodarstellung eines Spiels ein solches System gefüttert werden. Führt das System eine Aktion aus, z.B. Schießen, und führt dies zu einem höheren Punktestand, wird das Verhalten verstärkt.

Reinforcement Learning mit neuronalen Netzen wird in Kapitel 9 beschrieben.

Visualisierung

Unsere Gehirne sind großartig darin, Muster in visuellen Darstellungen zu erkennen. Nicht so großartig sind wir darin, lange Datenkolonnen auszuwerten und daraus interessante Informationen abzuleiten. Sieh dir dazu einmal den Auszug aus Datensätzen über Flüge in Google Sheets in Abbildung 1-4 an.

Wie viele Informationen kann man als Mensch aus so einer Tabelle herausziehen? Nicht besonders viele. Und verlockend ist die Aufgabe auch nicht gerade.

Abbildung 1-4: Rohe Datensätze in Google Sheets

Wie sieht das nun mit einer Grafik aus, die die Verteilung von Verspätungen aus diesen Datensätzen aufbereitet? Diese haben wir als Diagramm aus den Google Sheets in Abbildung 1-5 aufbereitet.

Abbildung 1-5: Verteilung von Verspätungen als Google-Sheets-Diagramm

Auch wenn diese automatisch erzeugte Grafik noch einige Punkte zu wünschen übrig lässt, sehen wir sofort, dass die meisten Verspätungen (über 300) in dem ersten Balken liegen. Die meisten Flüge aus unseren Daten sind also entweder gar nicht oder nur gering verspätet.

Auch die weitere Verteilung der Verspätungen können wir auf einen Blick erfassen. Eine Häufung am rechten Rand fällt noch auf. Manche Flüge scheinen extrem verspätet. Ohne genauer auf die Interpretation dieser Daten einzugehen: Dies aus einer Menge von rohen Datensätzen herauszulesen, wäre uns vermutlich ohne den Umweg über eine – eventuell von Hand gezeichnete – Grafik nicht möglich gewesen.

Aus diesem Grund werden wir immer wieder Visualisierungen unserer Daten mit Python erzeugen und auch in dieses Buch einbinden. Wie das geht, lernst du Schritt für Schritt in jedem Kapitel ein wenig mehr.

KAPITEL 2

Quick-Start

In diesem Buch werden wir das auf Python basierende Framework Scikit-Learn (http://scikit-learn.org) verwenden. Oft wird auch nur der abgekürzte Name Sklearn genutzt.

Anhand eines kompletten und durchgängigen Beispiels kannst du dich hier schon einmal mit dem Vorgehen beim Machine Learning vertraut machen.

Unser erstes Python-Notebook

Damit du wirklich lauffähigen Code hast, aber keine Installationsarie durchlaufen musst, haben wir für dich ein sogenanntes Notebook erstellt. Das Notebook erfordert nur einen Browser für seine Darstellung. Der tatsächliche Code wird auf einem Server, auf dem auch sämtliche Software installiert ist, ausgeführt.

Für jedes Kapitel haben wir ein Notebook vorbereitet. Diese sind unter der URL https://github.com/DJCordhose/buch-machine-learning-notebooks (https://bit.ly/ml-kug) öffentlich erreichbar.

Dort kannst du dir das Notebook in der Vorschau inklusive aller Anmerkungen und Ergebnisse ansehen. Du kannst es aber auch auf deinen eigenen Computer herunterladen oder es direkt ohne Installation über die dort vorbereiteten Links auf Google Colab laufen lassen. Dieses Kapitel ist unter dem Namen kap2.ipynb erreichbar.

Notebooks

Gerade im Bereich Machine Learning führen wir oft interaktiv eine Reihe von Codeschnipseln aus, um z.B. einen Datensatz besser zu verstehen oder schnell eine andere Lernstrategie auszuprobieren. Sogenannte Notebooks erlauben uns genau das zusammen mit der Möglichkeit, so ein Notebook auch leicht teilen zu können und damit andere an unseren Ergebnissen partizipieren zu lassen.

In einem Notebook kannst du Texte und Grafiken mit Codeschnipseln mischen. Das Besondere dabei ist, dass diese Codeschnipsel wirklich ausführbar sind. Dabei wird der Code nicht notwendigerweise auf dem Rechner ausgeführt, auf dem das Ergebnis im Browser angezeigt wird. In unserem Beispiel hier wird der Code auf einem Rechner von Google ausgeführt, auf dem auch sämtliche Software installiert ist. Die Ausgabe erfolgt aber in dem Browser auf deinem Rechner, auf dem außer dem Browser nichts weiter installiert sein muss.

Im einfachsten Fall kannst du dir so ein Notebook einfach nur ansehen, ohne es überhaupt auszuführen. Das geht, weil so ein Notebook auch jedes Ergebnis, inklusive Bildern, eines Codeschnipsels speichert.

Mehr Informationen zu Notebooks findest du unter http://jupyter.org/.

Unser Beispiel: Irisblüten

Als Beispiel nehmen wir den Irisdatensatz, der dir im Buch immer wieder begegnen wird (siehe auch den Kasten auf der nächsten Seite). Es geht darum, anhand von vier Eigenschaften der Irisblüten (Features) drei unterschiedliche Irisarten voneinander zu unterscheiden. Features sind die zu einem Datensatz gehörigen Eingaben, Labels sind die zugehörigen Ausgaben. Diese Ausgaben sind in unserem Fall die Zahlen 0 bis 2 für die unterschiedlichen Irisarten. Man unterscheidet die Arten »Iris setosa« (0), »Iris virginica« (1) und »Iris versicolor« (2). Unser Beispiel ist dabei ein Klassifikationsproblem. Anhand der Features wollen wir das zugehörige Label erschließen. Da wir dazu das System mit Datensätzen trainieren, haben wir es mit Supervised Learning zu tun.

Dieser Irisdatensatz wird sehr gut verstanden und für viele Beispiele verwendet. Daher gibt es diverse Ressourcen dafür, und er ist sogar direkt in Scikit-Learn als Beispieldatensatz verfügbar, ohne dass du ihn dir von irgendwo besorgen müsstest. Wie erwähnt, ist Scikit-Learn eine zentrale Python-Bibliothek für Machine Learning, die wir über das ganze Buch hinweg einsetzen werden.

Ursprung des Irisdatensatzes

Der Irisdatensatz wurde von dem Botaniker Edgar Anderson (https://en.wikipedia.org/wiki/Edgar_Anderson) zusammengestellt. Bekanntheit erlangte er über die Verwendung durch den Statistiker Ronald Fisher (https://en.wikipedia.org/wiki/Ronald_Fisher). Dieser nutzte den Datensatz in einem Artikel eines Magazin zur Eugenik als Beispiel für statistische Methoden der Klassifikation. Wir distanzieren uns von Fishers Ansichten (https://en.wikipedia.org/wiki/Ronald_Fisher#Views_on_race) über Existenz und unterschiedliche mentale Fähigkeiten von menschlichen Rassen und generell von der Thematik der Eugenik.

Im ersten Schritt unseres Notebooks nutzen wir nun den Beispieldatensatz direkt aus Scikit-Learn und haben dann die kompletten Daten in der Variablen iris. Es ist bei Scikit-Learn üblich, die Features mit einem großen X und die Labels mit einem kleinen y zu bezeichnen. Der Unterschied in der Groß-/Kleinschreibung soll andeuten, dass y nur ein einfacher Vektor mit der Art der Iris ist, also 0, 1 oder 2. X hat hingegen zwei Dimensionen, da es für jeden Datensatz vier Features gibt:

Für jede der drei Arten gibt es jeweils 50 Beispiele. In jedem Beispiel ist zusammen mit der Irisart die Länge und Breite sowohl des Kelchblatts (Sepalum) als auch des Kronblatts (Petalum) erfasst. Das Kronblatt sind die bunten Blätter, die wir typischerweise als Blüte wahrnehmen. Das Kelchblatt ist meist grün wie der Stängel der Pflanze und schützt die Blüte im Knospenzustand. Bei einer blühenden Iris geht das Kelchblatt im Gegensatz zum Kronblatt ziemlich unter. Mehr dazu gibt es auf Wikipedia unter https://de.wikipedia.org/wiki/Portal:Statistik/Datensaetze#Iris.

Für uns ergibt das vier Features:

sepal_length

: Länge des Kelchblatts

sepal_width

: Breite des Kelchblatts

petal_length

: Länge des Kronblatts

petal_width

: Breite des Kronblatts

Diese können wir aus der 150-x-4-Matrix der Features extrahieren und haben dann jeweils einen Vektor mit 150 Einträgen:

Die eventuell etwas überraschende Syntax, um einen Vektor aus der Matrix zu bekommen [:, 0], bietet uns NumPy (https://docs.scipy.org/doc/numpy/user/basics.indexing.html), das von Scikit-Learn für Datenstrukturen genutzt wird. Die Syntax besagt, dass wir von der ersten Dimension alle Einträge wünschen und von der zweiten Dimension nur das nullte, erste, zweite und dritte Feature. NumPy ist eine zweite, grundlegendere Python-Bibliothek, die performante Datenstrukturen zur Verfügung stellt. Sie wird uns am Rande immer wieder begegnen und dann auch detaillierter vorgestellt werden. Wie bei vielen Programmiersprachen üblich, fängt auch bei Python die Zählung bei null und nicht bei eins an.

Wir bringen dem Computer bei, Irisblüten zu unterscheiden

Hier möchten wir nun dem Computer beibringen, die unterschiedlichen Arten der Irisblüten anhand ihrer Features zu unterscheiden. Das ist erstaunlich einfach, da wir mit Scikit-Learn eine Software nutzen, die genau für so etwas gedacht ist. Wir brauchen zuerst einen sogenannten Estimator, also eine Strategie, wie der Computer lernen soll.

Hier nutzen wir wieder das Supervised Learning, das heißt, wir trainieren unseren Estimator mit einer Reihe von Datensätzen, von denen wir die Klassifikation in eine der drei Arten kennen. Danach hoffen wir, dass unser Estimator auch Irisblüten, die wir bisher noch nicht gesehen haben, richtig klassifiziert, also anhand der Größe der Blütenblätter sagen kann, was für eine Art Iris wir vor uns haben. Dies nennt man Generalisierung.

Das mit der Hoffnung ist so eine Sache, und daher nutzen wir nicht alle unsere Datensätze zum Training, sondern halten einige zurück, um danach zu testen, wie gut das Training eigentlich funktioniert hat. Auch dabei unterstützt uns Scikit-Learn mit seinem model_selection-Paket. Damit können wir unsere Daten vom Zufall gesteuert in Trainings- und Testdaten aufteilen. Ein typisches Verhältnis sind 60% für das Training und 40% für den Test:

from sklearn.model_selection import train_test_split

train_test_split(X, y, test_size=0.4)

Nun haben wir 90 Datensätze in X_train bzw. y_train und 60 in X_test bzw. y_test:

X_train.shape, y_train.shape, X_test.shape, y_test.shape

> ((90, 4), (90,), (60, 4), (60,))

Hier führen wir auch eine Konvention ein. Vom Code erzeugte Ausgaben schreiben wir direkt hinter den Code und fangen die Zeile mit einem Größerzeichen (>) an. Im Beispiel oben ist ((90,4), (90,),(60,4),(60,)) also nicht Teil des Codes, sondern die Ausgabe, die durch X_train.shape, y_train.shape, X_test.shape, y_test.shape im Notebook erzeugt wurde.

Nearest Neighbors

Eine wirkliche einfache Strategie heißt Nearest Neighbors Classification (http://scikit-learn.org/stable/modules/neighbors.html#classification). In der simpelsten Version wird untersucht, welchem bekannten Datensatz eine Eingabe am nächsten ist. Dann wird davon ausgegangen, dass diese neue Eingabe von derselben Art ist. Fertig. Das mag naiv klingen, aber erstaunlicherweise ist dieser Ansatz wirklich mächtig. Es ist gar nicht so weit hergeholt, diesen Ansatz mit erkenntnistheoretischen Klassikern zu vergleichen (http://37steps.com/4370/nn-rule-invention/). Vielleicht verarbeiten sogar Fliegen Gerüche mit einem ähnlichen Ansatz (https://twitter.com/dribnet/status/931830521843236864).

Wir sehen uns erst einmal den Code an und welche Ergebnisse diese Lernstrategie für unsere Daten liefert. Als Erstes erzeugen wir einen entsprechenden Estimator. Parameter 1 gibt an, dass wir nur nach dem jeweils nächsten bekannten Datenpunkt entscheiden. Das wird später noch wichtig:

Nun haben wir in