AI Engineer - Werde KI-Entwickler in 3 Monaten - Stefano AI-Studio - E-Book

AI Engineer - Werde KI-Entwickler in 3 Monaten E-Book

Stefano AI-Studio

0,0

Beschreibung

Fühlen Sie sich von KI-News, Tutorials und Fachjargon überfordert? Sie staunen über ChatGPT, wissen aber nicht, wie man solche Systeme selbst entwickelt? Dieser Kurs schafft Klarheit und Einstieg. Was diesen Kurs besonders macht – Ihr Lern-Toolkit für den Erfolg: Verständliche Analogien: Wir übersetzen komplexe Architekturen wie Transformer oder die Logik von Vektor-Datenbanken in einfache, alltagsnahe Bilder und Geschichten. Anstatt sich in Fachbegriffen zu verlieren, entwickeln Sie ein tiefes, intuitives Verständnis für das Warum und Wie. Praxisnahe Übungen nach jedem Modul: Theorie ist nur der Anfang. Jedes Modul schließt mit einer konkreten, praktischen Übung ab, die auf den vorherigen aufbaut. Sie schreiben echten Code, lösen reale Probleme und sehen sofort die Ergebnisse Ihrer Arbeit. Von der ersten SQL-Abfrage bis zum Deployment Ihrer API – Sie wenden die Theorie sofort an. Ein umfassendes Glossar als Ihr ständiger Begleiter: Die Welt der KI ist voller Akronyme und Fachbegriffe. Unser sorgfältig kuratiertes Glossar dient Ihnen während des gesamten Kurses und darüber hinaus als ständiges Nachschlagewerk. So können Sie jederzeit Begriffe von "API" bis "Zero-Shot Prompting" schnell und verständlich nachschlagen. Das Capstone Project als Meisterstück: Der Höhepunkt des Kurses ist Ihr eigenes Abschlussprojekt. Hier wenden Sie alles Gelernte an, um eine voll funktionsfähige KI-Anwendung zu konzipieren, zu entwickeln und in der Cloud bereitzustellen. Dies ist nicht nur eine Übung – es ist Ihr Beweisstück, Ihr Portfolio-Projekt, das Ihre Fähigkeiten für jeden potenziellen Arbeitgeber sichtbar macht. In diesem Kurs lernen Sie nicht nur, wie man KI-Tools benutzt. Sie lernen, wie man sie baut, steuert und in robuste, wertschöpfende Produkte integriert. Sie meistern Datenbanken, trainieren Modelle, entwickeln APIs und lernen die Kunst des Prompt Engineering.

Sie lesen das E-Book in den Legimi-Apps auf:

Android
iOS
von Legimi
zertifizierten E-Readern
Kindle™-E-Readern
(für ausgewählte Pakete)

Seitenzahl: 158

Veröffentlichungsjahr: 2025

Das E-Book (TTS) können Sie hören im Abo „Legimi Premium” in Legimi-Apps auf:

Android
iOS
Bewertungen
0,0
0
0
0
0
0
Mehr Informationen
Mehr Informationen
Legimi prüft nicht, ob Rezensionen von Nutzern stammen, die den betreffenden Titel tatsächlich gekauft oder gelesen/gehört haben. Wir entfernen aber gefälschte Rezensionen.



AI Engineer

Werde KI-Entwickler in 3 Monaten

Dieser Kurs ist eine umfassende Reise durch die Welt der Daten und der

künstlichen Intelligenz. Du beginnst mit dem soliden Fundament des

Data Engineering – dem Sammeln, Speichern und Aufbereiten von

Daten. Darauf aufbauend meisterst du die Prinzipien des klassischen

Machine Learnings, bevor du in die faszinierende Welt der neuronalen

Netze und des Deep Learnings eintauchst. Die Krönung des Kurses ist

die Spezialisierung auf Generative AI, wo du lernst, modernste

Sprachmodelle in intelligente, praktische Anwendungen zu

verwandeln. Dieser Kurs macht dich nicht nur zu einem Entwickler,

sondern zu einem Architekten intelligenter Systeme.

Autor: Stefano AI-Studio

Inhaltsverzeichnis

Teil 12

Das Fundament Daten-und Software-Engineering2

Modul 1: Grundlagen der Datenarchitektur und Anforderungsanalyse3

Lektion 1.1: Business Intelligence – Daten in Entscheidungen verwandeln4

Lektion 1.2: Anforderungsmanagement – Erst verstehen, dann bauen6

Lektion 1.3: System-Modellierung – Die Sprache der Architekten (ERM & UML)7

Lektion 1.4: KI im Arbeitsprozess – Vom reaktiven zum proaktiven System8

Modul 2: Relationale Datenbanken und SQL9

Lektion 2.1: Grundlagen von Datenbanksystemen10

Lektion 2.2: Vom Modell zur Realität – Normalisierung11

Lektion 2.3: SQL in der Praxis – Die Sprache der Daten13

Lektion 2.4: Grenzen von Relationalen Datenbanken14

Modul 3: Data Warehousing (DWH) Das Gedächtnis des Unternehmens15

Lektion 3.1: Das Konzept des Data Warehouse16

Lektion 3.2: Dimensionale Modellierung – Star, Snowflake & Galaxy17

Lektion 3.3: Die Zeit im Griff – Slowly Changing Dimensions (SCDs)18

Lektion 3.4: Anatomie eines DWH – Fakten und Dimensionen im Detail20

Modul 4: ETL und Data Vault – Die Daten-Pipeline21

Lektion 4.1: Der ETL-Prozess – Die Datenautobahn22

Lektion 4.2: Die Kunst der Transformation – Data Cleansing & Understanding24

Lektion 4.3: Verantwortung im Datenhandling – Datenschutz und Datensicherheit26

Lektion 4.4: Eine agile Alternative – Einführung in Data Vault 2.027

Teil 229

Klassisches Maschinelles Lernen (ML)29

Modul 5: Einführung in die Welt des Machine Learning30

Lektion 5.1: Der Paradigmenwechsel – Warum Machine Learning?31

Lektion 5.2: Die vier Arten des Lernens32

Lektion 5.3: Der Machine Learning Workflow – Von Daten zur Vorhersage34

Modul 6: Überwachtes Lernen – Vorhersagen treffen36

Lektion 6.1: Die zwei Hauptaufgaben – Klassifikation und Regression37

Lektion 6.2: Die Balance des Lernens – Overfitting und Underfitting38

Lektion 6.3: Klassische Algorithmen – Von Linien und Nachbarn40

Lektion 6.4: Ensemble-Methoden – Die Weisheit der Vielen41

Lektion 6.5: Weitere wichtige Algorithmen43

Modul 7: Unüberwachtes Lernen – Versteckte Muster finden44

Lektion 7.1: Die Notwendigkeit der Vorverarbeitung und Skalierung45

Lektion 7.2: Komplexität reduzieren – Dimensionsreduktion und Feature Engineering46

Lektion 7.3: Daten visualisieren – Manifold Learning mit t-SNE48

Lektion 7.4: Gruppen finden – Clusteranalyse49

Modul 8: Evaluierung und Optimierung von Modellen51

Lektion 8.1: Das Problem der Modellauswahl und die Kreuzvalidierung52

Lektion 8.2: An den richtigen Schrauben drehen – Hyperparameter-Optimierung53

Lektion 8.3: Die richtigen Maßstäbe – Evaluationsmetriken für die Klassifikation55

Teil 357

Deep Learning Die Architektur der Intelligenz57

Modul 9: Grundlagen Neuronaler Netze58

Lektion 9.1: Vom biologischen zum künstlichen Neuron – Das Perzeptron59

Lektion 9.2: Der Lernprozess – Backpropagation und Optimierung61

Lektion 9.3: Den Lernprozess steuern – Lernrate und Optimizer63

Lektion 9.4: Generalisierung sicherstellen – Überanpassung und Regularisierung64

Modul 10: Convolutional Neural Networks (CNNs) für die Bildverarbeitung66

Lektion 10.1: Die Welt mit den Augen einer Maschine sehen67

Lektion 10.2: Vom Merkmal zur Entscheidung – Die CNN-Architektur69

Lektion 10.3: Auf den Schultern von Giganten stehen – Transfer Learning70

Lektion 10.4: Über die Klassifikation hinaus – Kreative und komplexe Anwendungen72

Modul 11: Recurrent Neural Networks (RNNs) für Sequenzen74

Lektion 11.1: Die Notwendigkeit eines Gedächtnisses – Einführung in die Sequenzanalyse75

Lektion 11.2: Der Lernprozess in RNNs – Backpropagation Through Time (BPTT)76

Lektion 11.3: Das Langzeitgedächtnis – LSTM und GRU78

Lektion 11.4: Tiefe und Anwendung – Deep RNNs und Zeitreihenanalyse80

Modul 12: Die Transformer-Revolution & Moderne Sprachmodelle82

Lektion 12.1: Die Grenzen der Rekurrenz und die Geburt der Attention83

Lektion 12.2: Die Transformer-Architektur – "Attention Is All You Need"84

Lektion 12.3: Die Giganten des NLP – BERT und GPT86

Lektion 12.4: Praktische Anwendungen – Summarization und Chatbots88

Teil 489

Spezialisierung Generative AI Engineering89

Modul 13: Modelle integrieren und steuern mit Prompt Engineering90

Lektion 13.1: Der erste Kontakt – LLM-APIs in Python integrieren91

Lektion 13.2: Die Kunst der Anweisung – Prompting-Techniken93

Lektion 13.3: System-Design für Prompts – Vom Einzel-Prompt zum System95

Lektion 13.4: Qualität messen – LLM-Antworten evaluieren97

Modul 14: Wissen erweitern mit Retrieval-Augmented Generation (RAG)99

Lektion 14.1: Die Grenzen von LLMs – Veraltetes Wissen und Halluzinationen100

Lektion 14.2: Die Sprache der KI – Text Preprocessing & Embeddings102

Lektion 14.3: Das externe Gehirn – Vektor-Datenbanken103

Lektion 14.4: Die RAG-Architektur – Suche und Generierung kombinieren104

Modul 15: KI-Systeme bauen Backend, APIs und strukturierter Output106

Lektion 15.1: Backend & API Entwicklung mit FastAPI107

Lektion 15.2: Persistent Context Management – Das Gedächtnis des Chatbots108

Lektion 15.3: Structured Output Handling – Die KI zur Ordnung zwingen110

Lektion 15.4: Cloud Deployment – Die KI der Welt zur Verfügung stellen112

Modul 16: Cloud Deployment und Betrieb von KI-Anwendungen113

Lektion 16.1: Projektdefinition und Anforderungsanalyse114

Lektion 16.2: Systemarchitektur und Datenmodellierung116

Abschlussprüfung: Capstone Project Ihr Meisterstück als AI Engineer117

Die Vision: Vom Konzept zur Cloud117

Die Projekt-Optionen: Wählen Sie Ihre Herausforderung118

Die Projektphasen: Ihr Fahrplan zum Erfolg120

Beispielübungen für den gesamten Kurs123

Modul 1: Grundlagen der Datenarchitektur und Anforderungsanalyse123

Modul 2: Relationale Datenbanken und SQL125

Modul 3: Data Warehousing (DWH)127

Modul 4: ETL und Data Vault128

Modul 5: Einführung in die Welt des Machine Learning129

Modul 6: Überwachtes Lernen130

Modul 7: Unüberwachtes Lernen131

Modul 8: Evaluierung und Verbesserung von Modellen132

Modul 9: Grundlagen Neuronaler Netze133

Modul 10: Convolutional Neural Networks (CNNs)134

Modul 11: Recurrente Neuronale Netze (RNNs)135

Modul 12: Die Transformer-Revolution136

Modul 13: Modelle integrieren und steuern137

Modul 14: Retrieval-Augmented Generation (RAG)138

Modul 15: KI-Systeme bauen139

Glossar140

1

Teil 1

Das Fundament

Daten-und Software-Engineering

In diesem Teil baust du das unverzichtbare Fundament. Ohne qualitativ

hochwertige Daten und eine saubere Software-Architektur ist jede KI

nur ein Ratespiel. Du lernst, wie Profis Daten managen, modellieren

und für die Analyse bereitstellen.

2

Modul 1: Grundlagen der Datenarchitektur und Anforderungsanalyse

Willkommen zu Modul 1. In dieser ersten Einheit legen wir das strategische und konzeptionelle Fundament für Ihre gesamte Reise zum AI Engineer. Bevor wir eine einzige Zeile Code schreiben, müssen wir lernen, wie ein Architekt zu denken. Wir müssen verstehen, welche Probleme wir lösen wollen, für wen wir sie lösen und wie wir unsere Pläne so gestalten, dass sie jeder versteht. Dieses Modul stellt sicher, dass die technischen Lösungen, die Sie später entwickeln, auch die richtigen unternehmerischen Probleme lösen und echten Mehrwert schaffen.

3

Lektion 1.1: Business Intelligence – Daten in Entscheidungen

verwandeln

Lernziele

In dieser Lektion lernen Sie, Business Intelligence (BI) zu definieren und seinen Zweck zu erklären. Sie werden die entscheidenden Unterschiede zwischen operativen OLTP-und analytischen OLAP-Systemen verstehen und die wichtigsten Anwendungsfelder von BI kennenlernen.

Kursinhalt

Business Intelligence ist kein einzelnes Tool, sondern ein technologiegetriebener Prozess. Sein Ziel ist es, Rohdaten zu analysieren und in handlungsrelevante Informationen umzuwandeln, um Führungskräfte und andere Endbenutzer bei ihren Geschäftsentscheidungen zu unterstützen. Im Kern geht es darum, aus Daten wertvolles Wissen zu generieren. Die Anwendungsfelder sind vielfältig und reichen von standardisierten Berichten, wie wöchentlichen Verkaufszahlen, über interaktive Analysen zur Ursachenforschung bis hin zu visuellen Dashboards, die wichtige Leistungskennzahlen (KPIs) auf einen Blick darstellen.

Ein zentrales Konzept in der Datenwelt ist die Unterscheidung zwischen OLTP und OLAP. OLTP-Systeme (Online Transaction Processing) sind das operative Rückgrat eines Unternehmens. Sie sind für die schnelle und effiziente Abwicklung unzähliger kleiner Transaktionen optimiert, wie sie im Tagesgeschäft anfallen – beispielsweise eine Bestellung in einem Online-Shop oder eine Geldautomaten-Abhebung. Ihr Fokus liegt auf der reibungslosen Ausführung des Geschäfts.

Im Gegensatz dazu stehen OLAP-Systeme (Online Analytical Processing). Diese sind nicht für das Tagesgeschäft, sondern für dessen Analyse konzipiert. Sie sind darauf optimiert, komplexe und weitreichende Abfragen über riesige historische Datenmengen auszuführen. Eine typische OLAP-Anfrage wäre: "Vergleiche die Verkaufszahlen aller Produkte in allen Regionen der letzten fünf Jahre." Hier liegt der Fokus auf der Analyse des Geschäfts.

Analogie zum Verständnis: Das Restaurant

Stellen Sie sich ein Restaurant vor. Die Kasse, an der jede Bestellung sofort und korrekt verbucht wird, ist das OLTP-System. Sie ist für hunderte kleine Transaktionen pro Stunde optimiert. Das Büro des Managers am Monatsende ist das OLAP-System. Hier werden alle Kassenbons der letzten Zeit genommen, um große, übergreifende Fragen zu beantworten: Welches Gericht war am beliebtesten? An welchem Wochentag war der Umsatz am höchsten? Diese Analyse ist komplex und langsam, aber sie liefert die strategischen Einsichten.

4

Praktische Übung

Ordnen Sie die folgenden Anfragen gedanklich entweder OLTP oder OLAP zu:

1. Ein Kunde legt ein Produkt in den Warenkorb.

2. Ein Analyst erstellt einen Bericht über die demografischen Merkmale der Top-10%-

Kunden des letzten Jahres.

3. Ein Bankmitarbeiter prüft den Kontostand eines Kunden.

4. Das Marketing-Team analysiert die Klickraten von E-Mail-Kampagnen über das letzte

Quartal.

5

Lektion 1.2: Anforderungsmanagement – Erst verstehen, dann bauen

Lernziele

Nach dieser Lektion verstehen Sie, warum eine saubere Anforderungsanalyse der kritischste Schritt in jedem Datenprojekt ist. Sie können die Ziele des Anforderungsmanagements benennen und kennen die grundlegende Vorgehensweise zur Erhebung von Anforderungen.

Kursinhalt

Anforderungsmanagement ist der systematische Prozess des Definierens, Dokumentierens und Verwaltens von Anforderungen an ein System. Das primäre Ziel ist es, ein klares und gemeinsames Verständnis zwischen dem Auftraggeber (z.B. einer Fachabteilung) und dem Entwicklerteam zu schaffen. Dies ist entscheidend, denn die Kosten für die Behebung eines Fehlers steigen exponentiell, je später er im Projekt entdeckt wird. Ein Missverständnis in der Anforderungsphase zu klären ist ungleich günstiger, als eine bereits fertig entwickelte Software umbauen zu müssen.

Der Prozess folgt einem Zyklus. Zuerst werden die Anforderungen erhoben, meist durch Interviews und Workshops. Anschließend werden sie unmissverständlich dokumentiert, zum Beispiel in Form von User Stories. Im dritten Schritt werden diese Dokumente mit allen Beteiligten geprüft und abgestimmt, um sicherzustellen, dass alles korrekt und vollständig ist. Zuletzt müssen die Anforderungen über den gesamten Projektverlauf verwaltet werden, was auch den Umgang mit Änderungswünschen einschließt.

Analogie zum Verständnis: Der Hausbau

Das Anforderungsmanagement ist die Arbeit des Architekten, bevor der erste Bagger rollt. Er setzt sich mit der Baufamilie zusammen und fragt: "Wie viele Zimmer brauchen Sie? Wo soll die Küche hin? Brauchen Sie eine Garage?" Er erhebt, dokumentiert (im Bauplan) und prüft diese Anforderungen. Ohne diesen Plan würde die Baufirma einfach anfangen zu mauern – und am Ende steht ein Haus, das niemandem gefällt und viel zu teuer ist.

Praktische Übung

Stellen Sie sich vor, die Marketing-Abteilung wünscht sich ein "Kunden-Dashboard", um "bessere Entscheidungen" zu treffen. Formulieren Sie mindestens fünf klärende Fragen, die Sie als Anforderungsmanager stellen würden, um diesen vagen Wunsch in eine konkrete Anforderung zu überführen.

6

Lektion 1.3: System-Modellierung – Die Sprache der Architekten (ERM

& UML)

Lernziele

In dieser Lektion lernen Sie die Bausteine des Entity-Relationship-Modells (ERM) kennen und können ein einfaches ERM für ein gegebenes Szenario erstellen. Zudem können Sie den Zweck von UML erklären und die wichtigen Diagrammtypen Use-Case, Aktivität und Klasse unterscheiden.

Kursinhalt

Um Anforderungen präzise zu dokumentieren, verwenden wir standardisierte Modellierungssprachen. Für die Struktur von Daten nutzen wir das Entity-Relationship-Modell (ERM). Es visualisiert die logische Struktur einer Datenbank mithilfe von drei Hauptbausteinen: Entitäten sind Objekte wie Kunde oder Produkt. Attribute sind deren Eigenschaften, wie Name oder Preis. Beziehungen verbinden die Entitäten miteinander, zum Beispiel "ein Kunde tätigt eine Bestellung".

Für die Modellierung von Software-Systemen und Prozessen nutzen wir die Unified Modeling Language (UML). Sie bietet verschiedene Diagrammtypen. Das Use-Case-Diagramm beschreibt aus der Sicht eines Nutzers, was ein System tut (z.B. "Produkt suchen"). Das Aktivitätsdiagramm stellt dar, wie ein Prozess abläuft, ähnlich einem Flussdiagramm. Das Klassendiagramm schließlich beschreibt die statische Struktur eines Systems – seine Klassen, deren Attribute und Methoden. Es ist der technische Bauplan für die objektorientierte Programmierung.

Analogie zum Verständnis: Der Bauplan

Der Bauplan eines Hauses ist eine Sammlung verschiedener Modelle. Das ERM ist der Grundriss der Daten, der die Informations-Räume und ihre Verbindungen zeigt. Das Use-Case-Diagramm ist die Perspektive des Bewohners ("Als Bewohner möchte ich kochen können"). Das Aktivitätsdiagramm ist die Ablaufbeschreibung für eine Handlung ("Kühlschrank öffnen, Zutaten entnehmen, kochen"). Das Klassendiagramm ist der technische Plan für die Bauteile, der das Objekt "Fenster" mit seinen Eigenschaften und Fähigkeiten beschreibt.

Praktische Übung

Modellieren Sie einen einfachen Online-Shop.

1. ERM: Zeichnen Sie ein ER-Modell mit den Entitäten Kunde, Produkt und Bestellung,

inklusive Attributen und Beziehungen.

2. UML: Zeichnen Sie ein Use-Case-Diagramm für den Kunden und ein

Aktivitätsdiagramm für den Bestellprozess.

7

Lektion 1.4: KI im Arbeitsprozess – Vom reaktiven zum proaktiven

System

Lernziele

Nach dieser Lektion können Sie den Unterschied zwischen traditioneller BI und KI-gestützter Analyse erklären. Sie können konkrete Anwendungsfälle für KI im Geschäftsumfeld nennen und verstehen, wie KI auf den in diesem Modul gelernten Konzepten aufbaut.

Kursinhalt

Business Intelligence blickt traditionell in den Rückspiegel und beantwortet die Frage: "Was ist passiert?". KI-gestützte Analyse hingegen ermöglicht den Blick nach vorne. Die prädiktive Analyse fragt: "Was wird passieren?" (z.B. Kundennachfrage vorhersagen). Die präskriptive Analyse geht noch einen Schritt weiter und fragt: "Was sollten wir tun?" (z.B. Preise automatisch anpassen). Die neueste Stufe, die Generative KI, erfüllt den Befehl: "Erstelle für mich..." (z.B. "Erstelle eine personalisierte Marketing-E-Mail").

Konkrete Anwendungen finden sich überall: Vorhersage von Kundenabwanderung im Marketing, vorausschauende Wartung von Maschinen in der Produktion oder intelligente Chatbots im Kundenservice. Wichtig ist dabei zu verstehen, dass KI kein magischer Ersatz für die Grundlagen ist. Sie ist auf die sauberen, strukturierten und gut modellierten Daten angewiesen, deren Fundament wir in diesem Modul gelegt haben.

Analogie zum Verständnis: Der Autopilot

Traditionelle BI ist das Armaturenbrett eines Autos. Es zeigt Ihnen, was passiert ist: Ihre Geschwindigkeit, die zurückgelegte Strecke. KI ist der Autopilot. Er nutzt dieselben Daten, agiert aber vorausschauend. Er kann vorhersagen, dass eine Bremsung nötig sein wird (prädiktiv), und er kann sie selbstständig einleiten (präskriptiv). Generative KI wäre die Fähigkeit des Systems, auf den Befehl "Plane die schnellste Route und schlage drei gute Podcasts für die Fahrt vor" eine umfassende Lösung zu generieren.

Praktische Übung

Nehmen Sie das Szenario des Online-Shops. Beschreiben Sie für die Abteilungen Marketing, Logistik und Kundenservice jeweils einen möglichen Anwendungsfall für KI, der über eine traditionelle BI-Analyse hinausgeht.

8

Modul 2: Relationale Datenbanken und SQL

Willkommen zu Modul 2. Nachdem wir im ersten Modul die Baupläne für unsere Datenarchitektur gezeichnet haben, lernen wir nun das Handwerkszeug kennen, um diese Pläne in die Realität umzusetzen. Dieses Modul konzentriert sich auf das Herzstück der meisten traditionellen Datensysteme: relationale Datenbanken. Sie werden lernen, wie diese Datenbanken strukturiert sind, wie man ihre Effizienz durch Normalisierung sicherstellt und wie man mit SQL, der universellen Sprache der Daten, mit ihnen kommuniziert.

9

Lektion 2.1: Grundlagen von Datenbanksystemen

Lernziele

In dieser Lektion lernen Sie den Zweck und die grundlegende Architektur eines Datenbankmanagementsystems (DBMS) kennen. Sie werden verstehen, was ein relationales Datenbankmanagementsystem (RDBMS) auszeichnet und warum es so verbreitet ist.

Kursinhalt

Ein Datenbankmanagementsystem (DBMS) ist die zentrale Software-Komponente, die als Vermittler zwischen dem Benutzer und der eigentlichen Datenbank agiert. Man kann es sich als das Betriebssystem für Daten vorstellen. Es ist verantwortlich für das Definieren, Erstellen, Abfragen, Aktualisieren und Verwalten der Daten. Die Architektur stellt sicher, dass Benutzer und Anwendungen auf kontrollierte Weise auf die Daten zugreifen können, ohne sich um die komplexe physische Speicherung kümmern zu müssen. Das DBMS garantiert dabei Aspekte wie Datensicherheit, Datenintegrität und Mehrbenutzerzugriff.

Der mit Abstand am weitesten verbreitete Typ ist das relationale Datenbankmanagementsystem (RDBMS). Es basiert auf dem von Edgar F. Codd entwickelten relationalen Modell. Die fundamentale Idee dieses Modells ist, dass alle Daten in Tabellen gespeichert werden, die aus Zeilen und Spalten bestehen. Diese Tabellen können über gemeinsame Werte miteinander in Beziehung (Relation) gesetzt werden, was komplexe Abfragen über verschiedene Datensätze hinweg ermöglicht.

Analogie zum Verständnis: Der digitale Bibliothekar

Stellen Sie sich eine riesige Bibliothek als Ihre Datenbank vor und die unzähligen Bücher darin als Ihre Daten. Das DBMS ist der professionelle Bibliothekar. Sie sagen dem Bibliothekar, welches Buch Sie suchen (Ihre Abfrage), und er kennt das System (die Architektur), um es effizient zu finden. Er sorgt dafür, dass niemand unerlaubt Bücher mitnimmt (Sicherheit), dass keine Seiten herausgerissen werden (Integrität) und dass mehrere Personen gleichzeitig Bücher ausleihen können (Mehrbenutzerzugriff). Ein RDBMS wäre ein Bibliothekar, der alle Bücher nach einem strengen System von Karteikarten organisiert hat, bei dem jedes Buch eine eindeutige Nummer hat und Verweise auf andere relevante Bücher enthält.

Praktische Übung

Recherchieren Sie und benennen Sie drei populäre relationale Datenbankmanagementsysteme (RDBMS) sowie ein Beispiel für eine nicht-relationale Datenbank.

10

Lektion 2.2: Vom Modell zur Realität – Normalisierung

Lernziele

Nach dieser Lektion können Sie ein Entity-Relationship-Modell (ERM) in ein konkretes Datenbankschema übersetzen. Sie werden den Zweck der Normalisierung verstehen und die ersten drei Normalformen (1NF, 2NF, 3NF) anwenden können, um Redundanzen zu vermeiden.

Kursinhalt

Die Umsetzung eines ER-Modells in ein relationales Datenbankschema folgt klaren Regeln: Jede Entität wird zu einer Tabelle und jedes Attribut zu einer Spalte in dieser Tabelle. Die Beziehungen zwischen den Entitäten werden durch Schlüssel abgebildet. Ein Primärschlüssel identifiziert jede Zeile innerhalb einer Tabelle eindeutig, während ein Fremdschlüssel eine Spalte ist, die auf den Primärschlüssel einer anderen Tabelle verweist und so die Verbindung herstellt.

Hier kommt die Normalisierung ins Spiel. Dies ist ein formaler Prozess zur Organisation der Spalten und Tabellen in einer Datenbank, um Datenredundanz zu minimieren und die Datenintegrität zu verbessern. Redundanz (die mehrfache Speicherung derselben Information) ist problematisch, da sie zu Inkonsistenzen führen kann. Die wichtigsten Stufen sind:

•Erste Normalform (1NF): Stellt sicher, dass jeder Wert in einer Tabelle atomar ist, also

nicht weiter teilbar. Jede Zelle enthält nur einen einzigen Wert.

• Zweite Normalform (2NF): Baut auf der 1NF auf und verlangt, dass alle Nicht-Schlüssel-Attribute vollständig vom gesamten Primärschlüssel abhängig sind. Dies ist vor allem bei zusammengesetzten Schlüsseln relevant.

• Dritte Normalform (3NF): Baut auf der 2NF auf und eliminiert transitive

Abhängigkeiten. Das bedeutet, kein Nicht-Schlüssel-Attribut darf von einem anderen Nicht-Schlüssel-Attribut abhängig sein.

Analogie zum Verständnis: Der effiziente Kleiderschrank

Eine unorganisierte Datenbank ist wie ein unordentlicher Kleiderschrank, in dem alles auf einem Haufen liegt. Die Normalisierung bringt Ordnung hinein.

• 1NF: Jedes Kleidungsstück ist ein einzelnes Teil. Socken werden nicht als Knäuel,

sondern als einzelne Socken aufbewahrt.

•2NF: Sie schaffen separate Schubladen (Tabellen) für "Hemden" und "Hosen". Die Art

des Kleidungsstücks (der Schlüssel) bestimmt, in welche Schublade es gehört.

•3NF: Sie würden die Adresse des Hemdenherstellers nicht auf jedes einzelne Hemd-

Etikett drucken. Stattdessen haben Sie ein separates Adressbuch (eine Tabelle für Hersteller) und auf dem Etikett steht nur ein Verweis auf den Hersteller. Das vermeidet, dass Sie bei einem Umzug des Herstellers die Etiketten auf hunderten Hemden ändern müssen.

11

Praktische Übung

Nehmen Sie das ER-Modell für den Online-Shop aus Modul 1 (Kunde, Produkt, Bestellung). Schreiben Sie die Tabellenstrukturen in Textform auf und kennzeichnen Sie die Primär-und Fremdschlüssel (z.B. KUNDE(KundenID_PK, Name, Adresse)).

12

Lektion 2.3: SQL in der Praxis – Die Sprache der Daten

Lernziele