Erhalten Sie Zugang zu diesem und mehr als 300000 Büchern ab EUR 5,99 monatlich.
Im Internet der Dinge werden Objekte des täglichen Lebens mit Rechenleistung ausgestattet und vernetzt. Dadurch können Daten über die Objekte und deren Umgebung gewonnen und untereinander ausgetauscht werden. Mit diesen Daten lassen sich neue Funktionen verwirklichen. Automatische Produktion, selbstfahrende Autos, intelligente Versorgungsnetze oder "Wearables" für medizinische Zwecke sind nur einige Beispiele. Die in diesem Band zusammengefassten Beiträge entstanden im Rahmen zweier Seminare im Fachbereich Technik der Hochschule Trier. Im Bachelorseminar sollte anhand konkreter Anwendungsbeispiele der aktuelle Stand der digitalen Automation auf der Basis des Internet der Dinge dargestellt werden. Ziel des Masterseminars war es, durch Sichtung wissenschaftlicher Veröffentlichungen aktuelle Forschungsergebnisse wiederzugeben, um so zu einer Einschätzung der möglichen Weiterentwicklung des Gebiets in den nächsten Jahren zu gelangen.
Sie lesen das E-Book in den Legimi-Apps auf:
Seitenzahl: 273
Veröffentlichungsjahr: 2018
Das E-Book (TTS) können Sie hören im Abo „Legimi Premium” in Legimi-Apps auf:
Walter Jakoby (Hrsg.)
Hochschule Trier
Trier, Deutschland
Das Internet der Dinge
1.1 Das Netz
1.2 Die Adressierung
1.3 Protokolle
1.4 Anwendungs-Dienste und -protokolle
1.5 Entwicklungsgeschichte des Internet
1.6 Vernetzte „Dinge“
1.7 Herausforderungen des IoT
Sensoren in der Smart Factory
2.1 Anforderungen an die Sensorik der Smart Factory
2.2 Definition und Eigenschaften eines „Smart Sensor“
2.3 Dezentrale Intelligenz
2.4 Vertikale Integration
2.5 CPPS – Cyber-physisches Produktionssystem
Auftrags- und Fertigungssteuerung in der Smart Factory
3.1 Individualisierung der Produktion („Losgröße 1“)
3.2 Cyber-physische Systeme (CPS)
3.3 Dezentrale Steuerung
3.4 Maschine-zu-Maschine-Kommunikation (M2M)
3.5 Mensch-Maschine-Interaktion (MMI)
3.6 Logistik in der Smart Factory
Potentiale der Smart Mobility im ÖPNV
4.1 Bedeutung von Mobilität und Smart Mobility
4.2 Forderungen und Erwartungen an den ÖPNV
4.3 Verkehrsdatenanalyse
4.4 Intermodales Verkehrsmanagement
4.5 Smart Ticketing
Smart Mobility im Stadtverkehr
5.1 Anforderungen an die Mobilität
5.2 Ausgangslage Stadtverkehr
5.3 Verkehrsdatenanalyse
5.4 Intelligente Verkehrssysteme
5.5 Intermodale Verkehrsnutzung
5.6 Smart Services im Stadtverkehr
5.7 Perspektiven der Smart Mobility im Stadtverkehr
Platooning als Form des automatisierte Fahrens
6.1 Das Konzept des Platooning
6.2 Anwendung im Güterverkehr
6.3 Anwendung im Personenverkehr
6.4 Technische Voraussetzungen
6.5 Zu lösende Probleme
6.6 Ausblick
Wearables zur Fernüberwachung und -Diagnose
7.1 Die Sensoren
7.2 Die Tragemöglichkeiten
7.3 Drahtlose Kommunikation
7.4 Medizinischer Nutzen von Wearables
7.5 Absehbare Probleme und Herausforderungen
7.6 Fazit
IoT-Sensorik in der Telemedizin
8.1 Anforderungen an Sensoren für Telemonitoring
8.2 Wandel der Arzt-Patient-Interaktion
8.3 Big Data in der Telemedizin
8.4 Praxisbeispiel: Blutzuckerkontrolle von Diabetikern
8.5 IoT-Sensorik im Rettungsdienst
Vernetzte Geräte der präklinischen Akutmedizin
9.1 Das System der präklinischen Notfallmedizin
9.2 Problemfelder
9.3 Medizintechnik in der Präklinik
9.4 Vorteile vernetzter medizintechnischer Geräte
9.5 Potentiale
9.6 Zu lösende Probleme
Versorgungssicherheit in Smart Grids
10.1 Netzstruktur im Wandel
10.2 Netzstabilität
10.3 Smart Grid
10.4 Energiespeicher
10.5 Realisierbarkeit in naher Zukunft
10.6 Ein Anwendungsszenario
Das Smartphone als Schaltzentrale des Smart Home
11.1 Grundlegen des Smart Home
11.2 Entwicklungsgeschichte
11.3 Idee und Zielsetzung
11.4 Kommunikationsnetze für das Smart Home
11.5 Funktionsweise
11.6 Kosten/ Nutzenfaktor
Spracherkennung im Smart Home
12.1 Entwicklungsgeschichte der Spracherkennung
12.2 Technische Realisierung der Spracherkennung
12.3 Anwendungsbeispiele im Smart Home
12.4 Die Spracherkennung als digitaler Assistent
12.5 Sicherheit und Datenschutz der Sprachassistenten
Smarte Sensoren und Aktoren für das IoT
13.1 Hardwarevoraussetzung für das IoT
13.2 Mit smarten Sensoren in die Industrial-IoT
13.3 Fahrerlose Transportsysteme mit Smarten Sensoren
13.4 Mit smarten Aktoren in die Industrial-IoT
13.5 Fördermatrix basierend auf Smarten Aktoren
IoT-Anwendungsbereiche und deren Marktentwicklung
14.1 Anwendungsgebiete
14.2 Problematiken
14.3 Marktentwicklung
Drahtlose Datenkommunikation für das IoT
15.1 Datenkommunikation im IoT
15.2 Anwendungsbereiche für drahtlose Datenkommunikation
15.3 Anforderungen
15.4 Technik der drahtlosen Kommunikation
15.5 Ausblick
Energy Harvesting zur autarken Versorgung von IoT-Komponenten
16.1 Einführung
16.2 Einsatz im Internet der Dinge
16.3 Nutzbare Quellen für IoT-Anwendungen
16.4 Energiemanagement
16.5 Kommunikation
16.6 Stand der Technik
Smart Grids als Stromnetze der Zukunft
17.1 Der Wandel des Stromnetzes
17.2 Auswirkungen dezentraler Energieerzeuger im Netz
17.3 Effiziente Steuerung von Smart Grids
Anwendungsgebiete von RFID im IoT
18.1 Was ist RFID
18.2 Ein RFID System
18.3 Anwendungsgebiete von RFID
18.4 Technologische Trends
18.5 Nachhaltigkeit
18.6 Sicherheitsaspekte
Kommunikationsprotokolle des IoT
19.1 MQTT
19.2 CoAP
19.3 XMPP
19.4 Fazit
Intelligente und lernende Systeme im Internet der Dinge
20.1 Wie wird Intelligenz definiert und welche Techniken werden eingesetzt?
20.2 Verteilte Intelligenz
20.3 Standardisierung des Kommunikationsprotokolls
20.4 Beispielsystem der Zukunft
20.5 Fazit
Konzepte des maschinellen Lernens
21.1 Lernende Systeme, Mensch vs. Maschine
21.2 Verborgene Strukturen finden, Cluster-Analyse
21.3 Nachbarschaftsliebe, k-Nearest-Neighbor
21.4 Der Apfel fällt nicht weit vom Stamm, Entscheidungsbaum
21.5 Das künstliche Gehirn, Neuronale Netze
W. Jakoby, Hochschule Trier, FB Technik
Abstract: Das Internet hat sich innerhalb kurzer Zeit zu einem dezentralen, weltumspannenden Netzwerk entwickelt, über das sehr viele Daten ausgetauscht werden, so dass heute bereits die Hälfte der Menschen online ist. Wegen der rasanten Leistungssteigerung und Miniaturisierung sind in vielen Maschinen, Geräten und Alltagsgegenständen Rechner eingebaut. Vor allem über drahtlose Verbindungen werden diese Rechner an das Internet angeschlossen. Durch dieses „Internet der Dinge“ können in den nächsten Jahren viele neue nutzbringende Funktionen geschaffen werden.
Keywords: Internet, TCP/IP, Internet-of-things (IoT)
Die Hälfte aller Menschen hat heute bereits Zugang zum Internet. Der Begriff des „Internet“ unterliegt sehr unterschiedlichen Interpretationen. Manche verstehen darunter Webseiten, andere ein Kommunikationsmittel und bei einem großen Hersteller von Smartphones wird ein Browser-Programm als „Internet“ bezeichnet. Was also ist das Internet?
Bild 1.1 Vernetzte lokale Netzwerke
Das Internet ist ein weltweites Netzwerk von Rechnern. Räumlich benachbarte Rechner sind zu lokalen Netzwerken (Local Area Networks, LAN) zusammengeschlossen. Diese LANs können sehr unterschiedliche Hardwarekonfigurationen besitzen, unterschiedliche Kommunikationssysteme verwenden und auch die Übertragungsmedien sind sehr heterogen, z.B. drahtgebunden, glasfasergebunden oder funkbasierend. Die lokalen Netzwerke werden über spezielle Brückenrechner (Hubs, Router, Gateways) miteinander verbunden. Durch die enorme Zahl der verbundenen Netzwerke ist im Laufe weniger Jahr ein weltumspannendes Netzwerk entstanden verbindet.
Sollen zwei beliebige Rechner, die nicht direkt miteinander verbunden sind, Daten austauschen, so kann diese auf verschiedenen Wegen erfolgen, indem dazwischenliegende Rechner und lokale Netzwerke als „Brücken“ genutzt werden. Die Heterogenität der Systeme erschwert dies aber. Dieses Problem wurde gelöst durch die Schaffung eines einheitlichen Protokollstandards. Dadurch können die vielen heterogenen Rechner und Netzwerke miteinander kommunizieren. Damit ist es heute möglich, dass zwei beliebige, mit dem Internet verbundene Rechner miteinander Datenaustauschen können.
Um einen beliebigen Rechner im Netz erreichen zu können benötigt er eine eindeutige Adresse. Im Internet Protocol (IP) besteht die Adresse aus 4 Byte, also 32 Bit. Die binäre Darstellung ist für den Menschen etwas besser lesbar zu machen, wird jedes Byte durch eine Zahl beschrieben, die zwischen 0 und 255 liegen kann. Trennt man die Zahlen durch einen Punkt entsteht die übliche Darstellungsform der IP-Adresse, wie z.B. 143.93.54.111.
Mit 4 Byte können über 4 Milliarden Adressen vergeben werden. Bei der Schaffung des IP-Standards schien diese Zahl mehr als ausreichend und sogar beträchtliche Reserven zu bieten. Die rasant angestiegene Zahl der Rechner, die am Internet angeschlossen sind, hat den Adressvorrat von IPv4 aber mittlerweile ausgeschöpft. Daher wurde als neuer Adressstandard IPv6 eingeführt. Jede Adresse besteht nun aus 128 Bit, bzw. 16 Byte. Dies entspricht einem unvorstellbar großen Adressraum von 3,4 * 1038 adressierbaren Rechnern. Die beiden Adressstandards können nebeneinander betrieben werden, so dass auch in Zukunft alle Rechner IPv4 unterstützen, aber zunehmend mehr Rechner auch IPv6 verstehen.
Auch wenn die Darstellung mit 4 Zahlen schon besser ist, als die Verwendung von 32 Nullen und Einsen, ist sie für den Menschen nicht gut einprägsam und Fehler sind unvermeidbar. Daher wurde das Domain Name System (DNS) eingeführt. Ein Rechner kann hierbei über einen Klartextnamen, wie z.B. www.hochschule-trier.de angesprochen werden. Zu jedem Domain-Namen gehört eine IP-Adresse. Die Zuordnung wird auf speziellen Domain-Name-Servern abgelegt. Bei der Eingabe eines Domainnamens wird dieser Server kontaktiert, um die zugehörige IP-Adresse zu ermitteln. Jeder Domainname setzt sich aus mehreren Segmenten zusammen, die durch Punkte getrennt sind. Von links beginnend können die Segmente einen bestimmten Dienst kennzeichnen, einen individuellen Rechner, lokale Netzwerke bis hin zu einem ganz rechts stehenden Länder- bzw. Organisationscode.
Die Herausforderung für den Aufbau eines weltweiten Netzwerks von Rechnern, die beliebig miteinander kommunizieren können, bestand darin, gemeinsame Kommunikationsebenen zu finden, die die vielen unterschiedlichen Standards bei den physikalischen Übertragungsmedien, bei den Schnittstellen und bei den Protokollen unterstützen. Erschwerend kam hinzu, dass die Netzverbindungen nicht als statisch und sicher angenommen werden konnten. Vielmehr musste davon ausgegangen werden, dass es während der Datenübertragung zu Fehlern, Störungen und Unterbrechungen kommen kann. Die Lösung bestand darin, eine gemeinsame Protokollschicht festzulegen, die für die virtuelle Punkt-zu-Punkt-Verbindung zweier Rechner über beliebige Netzwege ausgelegt ist.
Das Ergebnis stellt der TCP/IP-Standard dar. Es handelt sich dabei um zwei aufeinander aufbauende Protokolle, das Internet Protocol (IP) und das Transmit Control Protocol (TCP). TCP dient dazu, eine vollständige Dateneinheit, also z.B. ein Textdokument, eine Tabelle oder eine Grafik von einem Quellrechner zu einem beliebigen Zielrechner zu übertragen. Größere Dateneinheit werden dazu in kleinere Datenpakete zerlegt, die für einzelne Übertragungen geeignet sind. Der Quellrechner baut dazu zum Zielrechner eine Verbindung auf, die erst dann beendet wird, wenn die vollständige Dateneinheit, bestehend aus den einzeln übertragenen Paketen am Zielrechner angekommen ist. Für die Übertragung übergibt TCP jeweils ein Paket mit Quell- und Ziel-Adresse an das Internet Protocol (IP).
Mit Hilfe der Ziel-IP-Adresse, wird zunächst ein direkt verbundener Rechner ermittelt, der auf dem Weg zum entfernten Zielrechner liegt. An diesen wird das Paket gesendet. Der Zwischenrechner wiederum leitet das Paket an den nächsten auf dem Weg liegenden Zwischenrechner weiter, bis das Paket schließlich am Ziel-Host ankommt.
Die weiteren Pakete können auf dem gleichen oder auch auf anderen Wegen zum Ziel-Host gelangen. Sind alle Pakete, in die die Dateneinheit zerlegt wurde am Ziel angekommen, beendet TCP die zuvor aufgebaute Verbindung.
IP und TCP bilden die Schichten 3 und 4 eines aus maximal 7 Schichten bestehenden Protokollsystems im OSI-Modell. Die unteren beiden Schichten dienen der physikalischen Codierung der einzelnen Bits (Schicht 1) und der sicheren Übertragung eines Telegramm-Rahmens (Schicht 2). Die Anwendungsschichten 5-7 realisieren anwendungsspezifische Dienste, wie z.B. die Übertragung von Hypertexten (http und https), von Dateien (ftp) oder Mails (smtp).
Die Fähigkeit des TCP, größere Dateneinheiten von einem am Internet angeschlossenen Rechner zu einem beliebigen anderen zu senden, wird durch verschiedene Dienste genutzt, um z.B. Dateien, Nachrichten, Bilder, Texte etc. zu übertragen. Viele dieser Dienste besitzen auf den Ebenen 5 bis 7 eigene Protokolle, die die Besonderheiten des jeweiligen Dienstes unterstützen.
Zum Versenden von E-Mails dient SMTP (Simple Mail Transfer Protocol). Beliebige Dateien können mit dem FTP (File Transfer Protocol) übertragen werden. Ein eigener Dienst wurde geschaffen für die Bestimmung der IP-Adresse, die zu einem bestimmten Domain-Namen gehört.
Am bekanntesten ist sicherlich der www-Dienst, das „world wide web“. Er dient dazu, Hypertexte zu übertragen, also Texte mit Darstellungsmerkmalen, Tabellen, Grafiken und Verweisen auf andere Hypertextstellen. Zur Codierung der Hypertexte wurde eine eigene Sprache, die so genannte Hypertext Markup Language (HTML) geschaffen. Die in dieser Sprache dargestellten Hypertexte bilden eine „Webseite“. Sie wird mit Hilfe des Hypertext Transfer Protocols (HTTP) übertragen. http ist also das Protokoll, das für den www-Dienst spezialisiert ist.
Bild 1.2 Zugriff der Dienste im Internet
Das Internet bietet also heute die Möglichkeit, beliebige Daten von einem Rechner (mit seiner individuellen IP-Adresse) an einen anderen Rechner zu übertragen, egal wo er sich befindet, sofern er ans Internet angeschlossen ist. Das „world wide web“ ist dabei nur einer von mehreren Diensten, die das Internet heute als Übertragungsweg nutzen.
Zur eindeutigen Zuordnung wird jedem Dienst auf einem Rechner eine standardisierte Port-Adresse zugewiesen. So läuft z.B. das „world wide web“ über Port 80. Die Liste der Dienste ist bereits recht umfangreich, aber keineswegs abgeschlossen. In den nächsten Jahren werden viele neue Dienste entstehen, die auf dem Weg des Internet der Dinge Leistungen für „Dinge“ zur Verfügung stellen werden.
Die Ursprünge des Internet wurden Ende der 1960er Jahre mit dem Aufbau des Arpanet gelegt. Mit ihm wurden verschiedene Universitäten und Einrichtungen, die für das US-Militär forschten, untereinander vernetzt. Die Grundidee bestand in einer dezentralen Vernetzung. Es wurden also eigenständige und unabhängig voneinander arbeitende Rechner miteinander verbunden.
Seit 1974 wurde dann das TCP entwickelt. Ziel war der Aufbau eines zuverlässigen, verbindungsorientierten und paketvermittelnden Protokolls. Das Protokoll wurde über mehrere Jahre weiterentwickelt und 1981 gemeinsam mit weiteren Protokollen standardisiert. Zu diesem Zeitpunkt wurde auch das Internet Protocol (IP) und der noch heute verwendete Adressstandard IPv4 eingeführt. Man kann diesen Zeitpunkt auch begrifflich als Geburtsstunde des Internet bezeichnen.
Tabelle 1.1 Wichtige Entwicklungsschritte des Internet
Jahr
Mio. Nutzer
Innovationsschritte
1970
1969: Arpanet: Vernetzung von Forschungseinrichtungen
1975
1974: TCP-Übertragungsprotokoll
1980
1981: IPv4, ICMP, TCP, IP standardisiert => “Internet“
1985
1984: DNS: Domain-Namen
1990
1989: www, http, Hypertexte, öffentliche Nutzer
1995
50
1993: Webbrowser (z.B. Mosaic), 1995: IPv6
2000
400
2005
1.000
2003: „Web 2.0“, soziale Netzwerke
2010
1.900
2015
3.000
2020
4.000
Die ersten Jahre der Vernetzung waren durch die Verwendung des Netzes für die Verbindung ausgewählter Einrichtungen gekennzeichnet. Die Zahl der Nutzer waren dementsprechend sehr limitiert. Meilensteine für den enormen Anstieg der Zahl der Internet-Nutzer sind die Einführung der Domain-Namen (1984), mit denen eine für den Menschen gut handhabbare Adressierung der Rechner entstand, die Schaffung des World Wide Web für den Austausch von Hypertexten (1989) und die Einführung der Webbrowser (1993), mit denen Hypertexte angefordert und dargestellt werden können.
Durch den www-Dienst war die weltweite Zahl der Internet-Nutzer in 1995 bereits auf 50 Millionen gewachsen und stieg weiter rasant an. Einen erneuten Schub brachte das sogenannte Web 2.0, womit der Aufbau sozialer Netzwerke im Internet bezeichnet wird. Die Einführung internetfähiger Mobiltelefone („Smartphones“) brachte einen weiteren Schub der Nutzerzahlen, so dass mittlerweile die Hälfte der Menschen „online“ ist.
Noch in den 1970er Jahren waren Rechner aufwändige und rare Maschinen. Nur in ausgewählten Einrichtungen und Unternehmen waren Rechner verfügbar. Neben der eigentlichen Aufgabe, dem „Rechnen“ wurden zwischen Rechnern Dateien und Nachrichten ausgetauscht. Das Aufkommen von „Personal Computern“ führte im Laufe der 1980er Jahre zu einer starken Verbreitung der Rechner, womit dann auch eine stärkere persönliche und private Nutzung einherging. Die Einführung der rechnerbasierten und internetfähigen Smartphones änderte nichts an der Grundkonstellation, dass Rechner für Menschen als Zugangspunkt zum Internet dienen.
Durch die stetig ansteigende Leistungsfähigkeit der Rechner sowie durch den gleichzeitig geringer werdendem Platz-, Energie- und Kapitalbedarf finden Rechner in immer mehr Bereichen Einsatzmöglichkeiten. Nicht nur große technische Anlagen, Maschinen und Einrichtungen werden heute von Rechner automatisiert, sondern auch in einfachen und kleinen Geräten sind heute Rechner in Gestalt hochintegrierter Mikroprozessoren zu finden. Viele Geräte in den Büros, in der Medizin oder im Haushalt arbeiten heute rechnergesteuert. In Autos sind heute oft schon Dutzende von Mikroprozessoren zu finden.
Parallel mit der Elektronik und Rechnertechnik hat sich auch die Kommunikationstechnik weiterentwickelt. Insbesondere die verschiedenen drahtlosen Techniken stellen mittlerweile fast überall Kommunikationsnetzwerke zur Verfügung.
Da nun in vielen „Dingen“ (Maschinen, Geräten, Anlagen) Rechner vorhanden und diese immer öfter auch mit dem Internet verbunden sind, ist es naheliegend, dass diese Rechner mit anderen, am Internet angeschlossenen Rechnern Daten austauschen. Für diese Konstellation wurde der Begriff des „Internet of Things“ (IoT) geprägt. In Abgrenzung davon könnte man das davor bestehende Internet, mit dem vorwiegend Menschen mit Hilfe von Rechnern kommunizierten als „Internet of People“ (IoP) bezeichnen. Zudem kann man erwarten, dass in Zukunft auch verschiedene Prozesse, in denen sowohl Menschen, als auch Maschinen und Geräte aktiv sind über das Internet Daten austauschen. Hier könnte man von einem „Internet of Services“ (IoS) sprechen.
Bild 1.4 Die Internet-„Landschaft“
Es ist daher zu erwarten, dass neben den heute bereits bekannten, viele neue internetbasierte Anwendungen entstehen werden. Menschen, Dinge und Dienste werden dann über das Internet kommunizieren.
Das Internet der Dinge ist seit einigen Jahren dabei in verschiedenen Anwendungsbereichen Fuß zu fassen. Die Anfänge liegen in der Logistik und dort ist die Technik dementsprechend schon weit fortgeschritten. Die Grundlage bilden RFID-Tags, Radio-frequent-Identifier. Es handelt sich hier um elektronische Datenträger, die kontaktlos in einer Entfernung von einigen Metern ausgelesen werden können. Auch wenn diese Tags selbst keine Datenverarbeitung besitzen, ermöglichen sie es über entsprechende Leser physikalische Objekte jederzeit zu identifizieren. Der Warenstrom lässt sich somit durchgängig verfolgen, so dass man sofort nach der Bestellung ein bestelltes Objekt auf seinem Weg zum Besteller lokalisieren kann.
Ein weiterer Bereich, in dem schon seit mehreren Jahren vernetzte Objekte eingesetzt werden ist das Smart Home. Haushaltsgeräte, Mediengeräte und Gebäudesicherungseinrichtung werden untereinander und mit dem Internet verbunden. Sie können dann über Smartphones fernabgefragt oder geschaltet werden. Auch selbsttätige Aktionen der Geräte sind durch die integrierte Datenverarbeitung kein technisches Problem mehr.
Angrenzend an das Smart Home sind Smart Grids, also intelligente Versorgungsnetze. Im Zuge der Dezentralisierung der Energieversorgung und -verteilung. Tausende von Windrädern und Solaranlagen, die Strom unabhängig voneinander und auch unabhängig vom Strombedarf produzieren, erfordern wesentlich mehr Koordination, als dies bei wenigen zentralen Kraftwerken der Fall war. Das Internet der Dinge ist hier die geeignete Basis, um Energieerzeuger, -übertrager, -speicher und -verbraucher zu vernetzen und miteinander zu synchronisieren.
Bei der industriellen Güterproduktion findet ein Wechsel von der Massenherstellung hin zu Schaffung individualisierter Produkte. Dies erfordert eine engere Kopplung zwischen den Produktionsmaschinen einer Fabrik und auch zwischen Auftraggeber, Produzent und Lieferant. Die Vernetzung aller Produktionsschritte über das Internet ist in Deutschland unter der Bezeichnung „Industrie 4.0“ und sonst als „Industrial Internet of Things“ bekannt.
Angetrieben durch die enorme Verbreitung von Smartphones werden mittlerweile viele am Körper getragene Geräte – so genannte Wearables – entwickelt. Sie sind in der Lage die Bewegung des Menschen mit Hilfe der GPS-Signale aufzuzeichnen oder Vitaldaten, wie Herz- und Atemfrequenzfrequenz zu messen. Derzeit werden die Geräte vorwiegend als Fitness-Tracker verwendet, aber der Übergang zu medizinischen Anwendungen wird bereits vollzogen.
Nicht zuletzt wird auch die Mobilität der Menschen und der Güter durch IoT einen enormen Umbruch erfahren. Autos sind bereits heute auch „Kommunikationsgeräte“. Zahlreiche Sensoren im Auto erfassen den Zustand des Autos und der Umgebung. Die zunehmende Vernetzung aller Verkehrsteilnehmer wird rasant fortschreiten und viele neue Potentiale eröffnen, von der autonomen Bewegung der Fahrzeuge, der effizienten Planung der Fahrten bis zur optimalen Bewirtschaftung der Stellplätze in den Städten.
Die Miniaturisierung der Hardware hat seit der Erfindung des Transistors und der Entwicklung der ersten Mikroprozessoren unvorstellbare Fortschritte erzielt. Parallel zum Anstieg der Integrationsdichte und der Leistungsfähigkeit ging eine drastische Verringerung des Platzbedarfs, der Kosten pro Einheit und des Energiebedarfs einher. Dadurch können Rechenleistung und Konnektivität heute bereits in viele technische Geräte eingebaut werden. Wenn in Zukunft auch Dinge des alltäglichen Gebrauchs, wie z.B. Kleidung, Lebensmittel oder Medikamente mit Rechenleistung ausgestattet werden sollen, werden weitere deutliche Fortschritte bei der Hardware benötigt. Auch die Vorstellung, was ein „Rechner“ ist, wird sich dabei vollständig wandeln.
Wichtige Faktoren sind Baugröße und Bauform. Die Entwicklung wird nicht bei scheckkarten- oder briefmarkengroßen Rechnern stehen bleiben. Intelligenter Staub („Smart Dust“) ist vielleicht nur ein Schlagwort, macht aber deutlich, dass noch lange kein Ende der Miniaturisierung erkennbar ist. Sehr kleine Rechner können natürlich keine Anschlüsse im heutigen Sinne mehr besitzen. Dies wirkt sich auf die Energieversorgungs-, die Benutzer- und die Kommunikationsschnittstellen aus. Eine Energieversorgung über Batterien oder Akkus scheidet aus mehreren Gründen aus. Ziel muss es sein, energieautarke Einheiten aufzubauen. Geeignete Quellen für die sehr geringen Energiemengen könnte z.B. die Versorgung mit Hilfe von Umgebungslicht, Umgebungswärme oder aus elektromagnetischen Feldern sein.
Für die Kommunikationsschnittstellen zu anderen Einheiten und zum Internet ist der Weg bereits vorgezeichnet. Unterschiedliche drahtlose Verbindungen sind heute bereits verfügbar, so dass hier nicht mit großen Problemen zu rechnen ist. Es ist zu erwarten, dass es hinsichtlich Datenrate, drahtlose Reichweite und geringem Energiebedarf weitere Fortschritte geben wird.
Als Benutzerschnittstelle bieten sich die allgegenwärtigen Smartphones an. Jedes „Smarte Ding“ sollte sich in Zukunft bei einem in der Nähe befindlichen Smartphone bemerkbar machen und dann über eine App mit einem Menschen in Verbindung treten können.
Eine große, möglicherweise sogar die größte Herausforderung stellt die Sicherheit dar. Je mehr Rechner an das Internet angeschlossen sind und je mehr Funktionen des täglichen Lebens darüber verwirklicht werden, desto mehr kriminelle Energie wird auch für unerlaubte Zugriffe und Datenmissbrauch eingesetzt werden. Bei allen technischen Fortschritten und bei allen Nutzenpotentialen sollte diese Risiken beachtet werden. Der technische Fortschritt sollte daher immer auch durch Fortschritte bei der Sicherung begleitet werden.
Bullinger, H.J. and Hompel, M. eds., 2007. Internet der Ding. Springer-Verlag.
Brand, L., Hülser, T., Grimm, V. and Zweck, A., 2009. Internet der Dinge: Übersichtsstudie. Düsseldorf: Eigenverlag VDI Technologiezentrum. Link (abgerufen am 24.10.2017): https://www.vdi.de/fileadmin/vdi_de/redakteur/dps_bilder/TZ/2009/Band%2080_IdD_komplett.pdf
Fleisch, E., 2010. What is the Internet of things? An economic perspective. Economics, Management & Financial Markets, 5(2).
Mattern, F. and Floerkemeier, C., 2010. Vom Internet der computer zum Internet der Dinge. Informatik-Spektrum, 33(2), pp.107-121.
Sprenger, F. and Engemann, C., 2015. Internet der Dinge. Über smarte Objekte, intelligente Umgebungen und die technische Durchdringung der Welt. Bielefeld: transcript.
Walter Jakoby ist Professor an der Hochschule Trier. Er lehrt und forscht in den Bereichen Automation, Engineering und Management. Daneben ist er an der Universität Luxemburg, für die Zentralstelle für Fernstudien (ZFH) und als Projektberater für die Industrie tätig. Er leitete zahlreiche Projekte in den Bereichen Software- und Elektronikentwicklung, Automation, Mechatronik und im Bauwesen. Für seine Leistungen wurde er mit dem "Lehrpreis des Landes Rheinland-Pfalz" ausgezeichnet.
D. Roderich, Hochschule Trier, FB Technik
Abstract: In diesem Kapitel sollen die künftige Entwicklung der Sensorik und deren Rolle in der Smart Factory im Hinblick auf Datengewinnung und Datenverarbeitung näher beleuchtet werden. Hierzu werden zunächst die wesentlichen Anforderungen an die Sensorik der Zukunft und deren Umsetzung in „Smart Sensors“ erläutert. Danach wird die Entwicklung hin zur dezentralen Intelligenz beschrieben. Abschließend werden auf die Integration der Sensoren bzw. Sensordaten in höheren Ebenen (z.B. ERP-Systeme) und die Zusammenführung all dieser Punkte in einem cyber-physischen Produktionssystem eingegangen.
Keywords: Smart Sensor, Embedded Systems, CPPS, Cloud Computing
Die Anforderungen an die Sensorik werden durch den rasanten technischen Fortschritt und die ständigen Verbesserungen und Veränderungen in der Industrie immer höher. Der Sensor der Zukunft hat ein viel größeres Aufgabenspektrum zu erfüllen, als dies bei den bisherigen Sensoren der Fall ist.
Wie bei vielen technischen Geräten wird auch im Bereich der Sensorik eine stetige Miniaturisierung der Geräte verlangt. Zum einen um eine Platzersparnis zu erreichen, aber auch um bei der Positionierung der Sensoren flexibler zu sein. So können die Sensoren z.B. teilweise näher an die Messgröße herangeführt werden. Natürlich sollen trotz Miniaturisierung die Kosten der Sensoren durch Anschaffung, Betrieb und Wartung sinken und die Zuverlässigkeit steigen (vgl. Sauerer 2013: 19f).
Des Weiteren müssen im Internet der Dinge sämtliche Sensoren eine standardisierte digitale Schnittstelle zur Kommunikation und eine eindeutige Adresse haben, über die sie angesprochen werden können. Der Sensor soll die Messsignale aufbereiten und über eine digitale Schnittstelle weitergeben können. Dadurch sollen die „erheblichen Integrationsaufwände“ vermmieden werden (Bauernhansl et al. 2015: 512), die heutige Sensoren mit ihrer meist herstellerspezifischen Datenübertragung verursachen. Außerdem sollen nicht, wie heute üblich, die Rohdaten, sondern schon (vor)verarbeitete Daten weitergegeben werden. Zu diesem „Smart Connected Sensor (…) gehört allerdings immer eine spezielle (Cloud-) Serviceplattform, an die der Sensor Daten weitergeben kann, ohne dass dafür ein zusätzliches Engineering erforderlich wäre“ (Walter 2016). Hierauf wird in Kapitel 2.4 noch einmal näher eingegangen.
Beispiele für speziellere Anforderungen sind sensitive Robotik, die Möglichkeit der Massenindividualisierung (Mass Customization) oder vorausschauende Instandhaltung. Sensitive Leichtbauroboter messen durch verbaute Sensorik sehr präzise die Kräfte und Momente, die bei der Interaktion mit Gegenständen oder Menschen auftreten. Durch diese „Feinfühligkeit“ können sie gewisse Situationen erkennen und darauf wie programmiert reagieren. Dadurch können diese Roboter nicht nur fest programmierte Bewegungsabläufe abfahren, sondern „Montagevorgänge auch in nur teilweise bekannten Umgebungen präzise und zuverlässig ausführen“ (Bauernhansl et al.2014: 111). Massenindividualisierung der Produktion hat zum Ziel durch Sensorik jedes einzelne Produkt identifizieren zu können und so hochflexible Produkte kostengünstig herzustellen (siehe 2.3 Dezentrale Intelligenz). Die vorausschauende Instandhaltung ist ein Konzept, bei dem die Anlage mit vielen kleinen Sensoren bestückt wird, um in Echtzeit Daten zum Zustand der Anlage und einzelner Anlagenteile zu erfassen und auszuwerten. So kann man Fehlermuster erkennen und frühzeitig Gegenmaßnahmen planen, wodurch unnötig lange Standzeiten von Anlagen verhindert werden sollen (vgl. Reinheimer 2017: 37). Ein Beispiel für einen solchen Sensor wird im folgenden Kapitel erläutert.
Klassischerweise ist ein Sensor ein Element, das eine physikalische Größe in eine elektrische Größe umwandelt. So liefern heutzutage die meisten Sensoren ein analoges Ausgangssignal (z.B. 4-20mA), welches von übergeordneten Elementen wie etwa einer SPS aufgenommen und verarbeitet wird.
Ein Smart Sensor kann viel mehr. Laut Definition liefert dieser ein digitales Signal über eine standardisierte Schnittstelle, wie z.B. Ethernet oder auch eine drahtlose Datenverbindung. Über diese bidirektionale Schnittstelle ist der Sensor mit einer eindeutigen Adresse ansprechbar (vgl. Sauerer 2013: 19). Da so die Anzahl der noch zu vergebenen IP-Adressen in Zukunft nicht ausreichen wird, um alle Teilnehmer des Netzes eindeutig identifizieren zu können, ist für die Zukunft in der TCP/IP-Kommunikation die Ablösung des IPv4 Standards durch IPv6 notwendig (siehe Kapitel 1.2).
Der Smart Sensor verfügt über eine integrierte Datenverarbeitung, das heißt er ist in der Lage die analog aufgenommenen Signale zu digitalisieren und zu verarbeiten. Das kann von einfachen logischen Operationen, über komplexe Messwertverarbeitung bis hin zur Messwertbewertung gehen. Für diese Verarbeitungen verfügen die Sensoren über Datenspeicher, in denen sie z.B. vorangegangene Messwerte speichern können (vgl. Sauerer 2013: 19).
Des Weiteren sollte der Sensor über interne Abgleich- und Diagnosefähigkeiten verfügen, so dass der Sensor automatisch oder manuell durch den Anwender einen Null-Abgleich machen kann, um optimal eingestellt zu sein. Mit der Diagnosefähigkeit soll der Sensor in der Lage sein, Fehler eigenständig zu erkennen, z.B. durch eine Plausibilitätsprüfung der Messergebnisse. Im Fehlerfall könnte der Sensor eigenständig versuchen den Fehler zu beheben oder zumindest eine Fehlermeldung an die übergeordneten Systeme schicken.
In einigen Einsatzbereichen ist es auch sinnvoll, Sensoren autark, also ohne externe Energieversorgung einzusetzen. In diesen Fällen müssen die Sensoren über eine Energiegewinnung (z.B. Photovoltaik) oder zumindest einem Energiespeicher verfügen.
Ein Beispiel für die ersten Entwicklungen eines industriellen Smart Sensors ist ein von ABB entwickelter Sensor zur Überwachung von Niederspannungsmotoren (siehe Bild 2.1).
Bild 2.1 Schematisches Montagebeispiel des Sensors auf einem Motor (Quelle: http://new.abb.com/motors-generators/de/motoren-generatorenservice/erweitertes-service-angebot/smart-sensor)
Dieser Sensor kann, wie auf dem Bild zu sehen, direkt auf das Gehäuse des Motors montiert werden. Er vereint in einem Gehäuse verschiedene MEMS (Micro-Electro-Mechanical Systems), die unterschiedliche Messdaten des Motors wie z.B. Vibration und Temperatur aufnehmen. Diese werden intern sofort digitalisiert und vorverarbeitet. Die Daten werden dann über Bluetooth an ein Handy oder Tablet geschickt. Der Sensor verfügt über einen internen Akku und kommt somit komplett ohne Kabelverbindungen aus. Softwaremäßig läuft er mit einer Firmware mit FOTA (Firmware Over-The-Air). Der Vorteil einer solchen Firmware ist, dass diese z.B. über das Smartphone aktualisiert werden können. So können auch ältere Sensoren über ein Firmware-Update um neue Funktionen erweitert werden. Die Daten auf dem Smartphone können entweder vom Benutzer selbst analysiert, oder weiter zu einer Cloud geleitet werden, wo sie gespeichert und ausgewertet werden (siehe Weiterführung des Beispiels in Kapitel 2.4).
Dieser Sensor vereint schon einige „intelligente“ Eigenschaften und darf daher zu Recht als Smart Sensor bezeichnet werden. Für den aktuellen Stand des Marktes ist er schon sehr fortschrittlich. Allerdings wird sich in Zukunft sicher auch noch einiges entwickeln müssen, wie z.B. die digitale Schnittstelle.
In der klassischen Automatisierung ist die Intelligenz sehr stark zentriert. Meist gibt es für eine Anlage nur eine Stelle, an der z.B. durch eine SPS die komplette Intelligenz der Steuerung sitzt. Alle Rohdaten, die durch Sensoren in der ganzen Anlage aufgenommen werden, kommen hier an und werden verarbeitet. Alle Steuerbefehle, die in der Anlage ausgeführt werden, kommen von hier. Die restlichen Teile der Anlage sind mehr oder weniger nur dazu da, um der zentralen Intelligenz zuzuarbeiten oder deren Steuerbefehle auszuführen.
In der modernen Automatisierung geht der Trend immer mehr zur dezentralen Intelligenz. Diese „ist eine Voraussetzung für eine dezentrale Steuerung. Sie beschreibt die für den Ansatz Industrie 4.0 wichtige Fähigkeit von Produktionsmitteln und -anlagen individuell und ortsunabhängig, für den Produktionsprozess relevante Informationen an ein dezentrales Steuerungssystem weitergeben zu können“ (Roth 2016: 39). Nur mit diesem Ansatz lässt sich realisieren, dass ein System, das genau, flexibel und performant sein soll, effektiv arbeitet. Würde man die in Zukunft stark steigende Anzahl an Informationen weiterhin an eine zentrale SPS leiten und nur dort verarbeiten, wären z.B. schnelle Reaktionen auf kleine Änderungen eines Messsignals nur schwer möglich. Deshalb bedarf es der Entwicklung neuer Konzepte mit integrierter und verteilter Intelligenz, anstelle der starren Strukturen der zentralen Automatisierungssysteme (vgl. Wörner 2013).
Eine Anlage würde dann aus vielen eingebetteten Systemen („Embedded Systems“) bestehen, die z.B. verschiedene Überwachungs-, Mess-, oder Steuerungs- und Regelfunktionen für ihren Teil der Anlage übernehmen würden.
Oftmals werden RFID-Chips (Radio Frequency Identification-Chip) als eine der Schlüsseltechnologien im Hinblick auf die Entwicklung von Anlagen mit dezentraler Intelligenz bezeichnet. Bei diesen Chips handelt es sich um kleine Sender-Empfänger-Systeme, die teilweise wesentlich kleiner als ein 1-Cent-Stück und dünner als ein Blatt Papier sein können. Sie können einige hundert Bits speichern und kommen komplett ohne eigene Energieversorgung aus. Möchte man etwas auf den Chip schreiben oder davon lesen, kann man das über einen entsprechenden Transmitter tun. Der RFID-Chip bzw. Transponder wird durch die hochfrequenten elektromagnetischen Wellen des Lesegerätes beschrieben. Zusätzlich erzeugt er durch Induktion aus dem Signal des Transmitters die nötige Energie, die er zum Speichern und Schicken der Daten an das Lesegerät braucht. Diese Kommunikation kann über Reichweiten von bis zu 30 Meter und ohne direkten Sichtkontakt stattfinden (vgl. Roth 2016: 51ff).
Bild 2.2 Beispiel eines Produktionsablaufs mit RFID-Chips (Quelle: Roth 2016: 53)
Wie im Kapitel 2.1 erläutert, ist eine Forderung der Industrie an die Sensorik die Möglichkeit der Massenindividualisierung (Mass Customization) der produzierten Produkte. Diese lässt sich zum Beispiel, wie mit dem Produktionsablauf im Bild 2.2 dargestellt, durch die Verwendung von RFID-Chips realisieren. Hierbei wird das Produkt am Anfang des Produktionsprozesses mit einem RFID-Chip versehen. Dieser enthält grundsätzliche Informationen über das Produkt (Abmessungen, Farbe, usw.) oder die einzelnen Produktionsschritte bzw. Maschinen (nötige Fertigungsschritte usw.). So kann ein RFID-Scanner vor jeder Maschine den Chip auslesen und so als dezentrale Intelligenz direkt die Maschine für das Produkt individuell richtig einstellen. Die Chips werden daher auch „Smart Label“ genannt. Durch diese kann das Produkt schon während des Produktionsvorgangs jederzeit genau identifiziert und einem Kunden zugeordnet werden. Das ist z.B. auch ein Vorteil für das Qualitätsmanagement. Ein weiterer Vorteil der RFID-Transponder z.B. gegenüber Barcodes ist die Beständigkeit gegen äußere Einflüsse wie z.B. Öl, Feuchtigkeit oder Schmutz. Nachteilig ist momentan noch der Preis, der sich im niedrigen bis hohen zweistelligen Cent-Bereich bewegt und somit die Verwendung der Chips nur für teurere Produkte lohnend ist (vgl. Roth 2016: 52). Allerdings sollte der Preis durch Fortschritte in der Produktion und Entwicklung solcher Chips und durch die steigende Nachfrage nach ihnen sinken.
Durch die im vorherigen Abschnitt beschriebene Entwicklung von einer zentralen zu einer dezentralen Intelligenz verändert sich zwangsläufig auch die Automatisierungspyramide. Es gibt nun nicht mehr nur zwei Kommunikationswege (von unten nach oben und von oben nach unten) sondern viele eingebettete Systeme, die alle untereinander vernetzt sind.
Bild 2.3 Die Entwicklung der Automatisierungspyramide (Quelle: http://docplayer.org/11270498-Das-internet-der-dinge-dienste-auf-dem-weg-in-die-produktion.html)
In der Grafik sieht man links den klassischen Aufbau der Automatisierungspyramide, wie man ihn aus der Vergangenheit und Gegenwart kennt, und rechts die vermutliche zukünftige Entwicklung. Wie links zu sehen ist, ist die Pyramide klassisch in sechs Ebenen aufgeteilt. Ganz unten kommt die Sensor-/Aktorebene (in Grafik grau). Darüber kommt die Feldebene mit den Prozesssignalen, Ein- und Ausgabemodulen, die meist über einen Feldbus verbunden sind. Eine Ebene höher ist dann die Steuerungsebene mit der SPS, welche die Steuerung und Regelung übernimmt. Sie ist direkt dem Prozessleitsystem in der Prozessleitebene untergeordnet, welches für die Bedienung und Überwachung aller zu einem Prozess gehörigen Anlagen zuständig ist. Eine Ebene darüber ist die Betriebsebene mit einem MES (Manufacturing Execution System), welches alle Produktionsdaten erfasst und z.B. für die Produktionsfeinplanung und das Qualitätsmanagement zuständig ist. Die oberste Ebene ist schließlich die Unternehmensebene mit einem ERP-System (Enterprise-Resource-Planing) welches für die ganze Unternehmensorganisation, Produktionsplanung und Bestellungen zuständig ist.
Durch die Dezentralisierung der Intelligenz und die Vernetzung vieler eingebetteter Systeme, ändert sich dieses Bild. Die Kommunikation kann nicht mehr nur zur nächsthöheren bzw. –unteren Ebene stattfinden, sondern auch über Ebenen hinweg. Jeder kann mit jedem kommunizieren. Da hierdurch die vertikalen Strukturen gebrochen oder zumindest auflockert werden, spricht man von der „vertikalen Integration“. Die so veränderte Struktur wird deshalb oft auch als „Automatisierungswolke“ bezeichnet (siehe Grafik 2.3).
Wolke ist hier auch ein gutes Stichwort, denn es bietet sich an, die Verarbeitung der großen, anfallenden Datenmenge (Big Data) in einer Cloud zu realisieren. Die große Menge der aufkommenden, zum Teil durch den Sensor vorverarbeiteten Daten wird oft als Big Data bezeichnet. Dieser Begriff kann größtenteils mit drei „V“ beschrieben werden: Volume, Variety, Velocity. Volume (Menge) beschreibt die immer größer werdende Menge an Daten, die geliefert wird. Velocity (Geschwindigkeit) meint die Bereitstellung der Daten in Echtzeit. Variety (Bandbreite der Datentypen und –quellen) meint, dass es zu einer Ansammlung von teils vorverarbeiteten und strukturierten und teils unstrukturierten Daten kommt (vgl. Samulat 2017: 118).