Erhalten Sie Zugang zu diesem und mehr als 300000 Büchern ab EUR 5,99 monatlich.
In diesem Praxishandbuch erhalten Sie umfangreiche Informationen der Medientechnik angefangen von der Geschichte, den Grundlagen bis zur aktuellen Technik der Gegenwart. Grundlagen des menschlichen Sehens, der analogen Fernsehtechnik, der digitalen Datenübertragung, FullHD, UHD, OLED, 3D, Blu-ray, Sat-IP, HDR, Farbraum, DVB-T2, Streaming, Display Kalibrierung, Testbilder, HbbTV , HDMI, Codec, ITU Rec.709 und 2020, CIE1931, HDR, Testbilder und viele weitere Fachbegriffe werden detailliert erklärt.
Sie lesen das E-Book in den Legimi-Apps auf:
Seitenzahl: 824
Veröffentlichungsjahr: 2017
Das E-Book (TTS) können Sie hören im Abo „Legimi Premium” in Legimi-Apps auf:
Die Firma BUROSCH befasst sich seit ihrer Gründung im Jahre 1948 mit der Audio- und Videotechnik und spezialisierte sich im Laufe der Zeit auf die Entwicklung von Messgeräten für die Unterhaltungselektronik. Heute ist die Firma BUROSCH Marktführer in Bezug auf Referenz-Testsequenzen für die Bildoptimierung sowie TV- und Beamer-Bildanalyse. Im Auftrag verschiedener Hersteller (z.B. Panasonic) bestimmt das unabhängige BUROSCH-TV-Testlabor die Bildqualität der neuesten Fernsehgeräte, arbeitet an deren Entwicklung mit, bietet professionelle Kalibrierung und ermittelt mithilfe standardisierter PSNR-und SSIM-Verfahren die Qualität eingesetzter Codecs sowie Spezifikationen. Darüber hinaus berufen sich namhafte Fachzeitschriften bei ihren vergleichenden Warentests auf die BUROSCH-Testbilder. Und auch renommierte Forschungsinstitute gehören selbstverständlich zu den BUROSCH-Partnern.
Der Leser profitiert also vom umfassenden Know-how und den einzigartigen Synergieeffekten, die auf langjährigen Erfahrungen sowie erfolgreichen Kooperationen mit Industrie und Forschung basieren.
Abbildung 1: Klaus Burosch
Als Initiator und Herausgeber dieses Buches bedanke ich mich für die hervorragende Zusammenarbeit mit allen Beteiligten, Kollegen und Mitarbeitern. Ein ganz besonderer Dank gilt meinen beiden Söhnen Steffen und Andreas Burosch für ihre tatkräftige Unterstützung.
Mit freundlicher Empfehlung
Klaus Burosch, im August 2016
Herausgeber
Vorwort
Technik-Essay von Konrad L. Maul
Die Chronologie des Fernsehens
19. Jahrhundert
20. Jahrhundert
21. Jahrhundert
Grundlagen der Wahrnehmung
Das menschliche Auge
Aufbau
Photorezeptoren und Netzhaut
Adaption
Akkomodation
Sehnerv
Fovea centralis
Das Licht: mehr als elektromagnetische Wellen
Reflexion und Remission
Polarisation
Kontrast und Schärfe
Kontrast
Ortsfrequenz
Sehschärfe
Räumliche Wahrnehmung (3D)
Gesichtsfeld
Parallaxe
3D-Sickness
Pulfrich-Effekt
Shutterbrillen
Polfilterbrille
Farbfilterbrillen (Anaglyphen-Verfahren)
Farbwahrnehmung
Farbbegriffe
Farbfrequenzen und -wellenlängen
Additive und subtraktive Farbmischung
Farbtemperaturen
Absorptionsspektren
Photorezeptormosaik
Rot-Grün-Blindheit (Anopia)
Grundlagen der Fernsehtechnik
Bildübertragung
Kathodenstrahl/Elektronenstrahl
Elektronenröhre (Kathodenstrahlröhre)
Aufbau
Strahlablenkung
Comeback der Bildröhre?
Farbbildwiedergabe
Loch- und Schlitzmaskenröhre
Delta-Farbbildröhre (Lochmaske)
Inline-Farbbildröhre (Schlitzmaske)
Trinitron-Röhre
Bildaufbau
Bildrate/-frequenzen (24 bis 120 Hz)
Kino
Fernsehen
Bildabtastung
Zeilensprung-/Halbbildverfahren (Interlaced Scan)
Zeilensprung-Artefakte
Progressive Abtastung (Vollbildverfahren)
De-Interlacing
Pulldown
Weave
Gamma-Korrektur
Bewegungsunschärfe
Local Dimming
Abbildungsfehler
Klötzchenbildung
Banding/Clouding
Blooming
Flashlights
Dirty-Screen-Effect (DSE)
Crosstalk/Ghosting
Soap-Effect
Halo-Effekt
Tipps zur Fehlerbehebung
Videoauflösungen
Zeitliche/räumliche Auflösung
Skalierung
Native Auflösung
Pixeldichte
Betrachtungsabstand - Was ist dran?
Farbräume und photometrische Größen
Helligkeits-Farbigkeits-Farbmodelle
Photometrische Größen und Einheiten
Farbtemperatur
Normvalenzsysteme (CIE 1931/1964)
Farbräume und Farbmodelle
ITU-R-Empfehlung BT.709 (Rec.709)
ITU-R-Empfehlung BT.2020 (Rec.2020)
Video-/Auflösungsstandards
Standard Definition (SD)
High Definition (HDTV)
Full HD (1920 × 1080 Pixel)
UHD-1: Ultra HD (3840 × 2160 Pixel)
UHD-2: 8K (7680 × 4320 Pixel)
4K Cinema (4096 × 2160 Pixel)
Fernsehnormen
Kalibrierung und Messinstrumente
Unbunt- oder Weißabgleich
Wave-Form-Monitor (WFM)
Vektorskop
Testbilder
Testbild-Generator
Test-Labor: professionelle Kalibrierung
Analoge Fernsehsignalübertragung
Das monochrome Video-Signal
BAS-Signal
Das Chrominanz-Signal (Farbsignalcodierung)
FBAS-Signal
Weitere Farbvideosignale
Farbsignalhierarchie
Farbfernsehsysteme
NTSC-Verfahren
PAL-Verfahren
SECAM
Die Begriffe PAL und NTSC im Digitalfernsehen
Modulation und Synchronisation
Multiburst
Cross-Color-/Cross-Luminance (Signalübersprechen)
Color-Plus-Verfahren/Intra Frame Averaging
Analoge Übertragungsverfahren
Analoge Videoanschlüsse
Grundlagen des Digitalfernsehens
Geschichte der TV-Digitalisierung
Grundbegriffe der Digitaltechnik
Bit/Byte
Bit Error Ratio (BER)
Codec
Container
Chroma Subsampling/Farbunterabtastung
Multiplexverfahren
Videokompressionsverfahren
Digitalisierung
Diskretisierung
Quantisierung
Codieren/Decodieren
AVC/H.264
HEVC/H.265
Digitale Videosignale
Video-Schnittstellen (Interfaces)
SDI
DVI
HDMI
Video- und Bildformate
MPEG
JPEG
Digital Video Broadcasting (DVB)
DVB-S/DVB-S2 (Satellitenkanal/ETS 300 421)
DVB-C/DVB-C2 (Kabelkanal/ETS 300 429)
DVB-T/DVB-T2 (Terrestrischer Kanal/ETS 300 744)
freenet.tv
DVB-Spezifikationen
DVB-IPTV (TV over IP)
DVB-GEM/MHP
MHP (DVB-J/DVB-HTML)
DVB-H (Mobil)
Praxis der modernen Fernsehtechnik
Mobiles Fernsehen
Handy-TV per UMTS
DMB: TV goes mobile
DVB-SH
DVB-T für Android und Apple
TV over IP/IPTV
Triple-Play
IPTV (DSL + Kabel)
02 TV & Video – kein IPTV, dafür live via App + AirPlay
Telekom IPTV: Magenta
Fernsehen mit 1&1 DSL
Fritz!Box 6490 Cable
IPTV via Satellit/SAT over IP
Quadplay/All in One
(K)ein Ende der Grundverschlüsselung?
IPTV Deutschland GmbH
HbbTV – mehr als nur IPTV
Red-Button
Blue-Button
TV-Mediatheken
Video-on-Demand
Netflix
Amazon Instant Video
Watchever
Maxdome
Web-TV per Live-Stream
Zattoo
Magine TV
Weitere TV-Apps
dailymeTV
Couchfunk/Live-TV
AIIMyTV
Apps der TV-Sender
Red Bull TV
Streaming-Boxen
Apple-TV (Airplay)
Android-TV
Google Chromecast
Google Nexus Player
NVIDIA SHIELD
Amazon Fire TV
Das richtige Netz(werk)
Internet
Netzwerkverbindungen
LAN (Ethernet)
Power-LAN (Powerline)
WPAN (Bluetooth)
WLAN (WiFi)
Übertragungswege
DSL/VDSL
Glasfaser
LTE (4G)
Powerline Access
Netze der Zukunft
Internet via Satellit
Internet via Kabel
All-IP (Quad Play)
Router & Co.
Betriebssysteme für Smart-TVs
webOS 2.0/3.0
Android-TV
Tizen für Samsung
Bildwiedergabesysteme NEXT GENERATION
Video-Features der Zukunft
Ultra HD/UHD/4K
BT.2020: Der lange Weg zum erweiterten Farbraum
HDR
Probleme bei der Kompatibilität
Probleme zwischen Aufnahme und Wiedergabe
Tonemapping
HDR-Übertragungsmethoden
Metadaten
HDR-Systeme und ihre verschiedenen Ansätze
HD+ (Samsung)
HDR-10 vs. Dolby Vision
Videomaterial mit HDR
Amazon und Netflix setzen auf Dolby Vision
HDR nur mit dem richtigen Kabel
Ultra HD Premium™
Praxistest zum Zertifikat
Weitere Gütesiegel für 4K/Ultra HD
Streaming in Ultra HD und 8K
Upscaling & Co
UHD Deep Color
UHD/HDR-Demokanäle
Display-Technologien
Plasma
LCD/LED
LED-Backlight-Technologien im Vergleich
OLED
OLED vs. LED/LCD & Co
Beleuchtung
Farbbrillanz
Kontrast
Lebensdauer
Einbrennen
3D-Darstellung
Bewegungsdarstellung
QLED/Quantum Dots
QLED vs. OLED
TV-Bildschirme
4K-OLEDs + HDR
HDR + QLED
UHD-Standard für wenig Geld
ULED
Curved-TV
Ambilight
Extra dünn
Video-Equipment
UHD-Standards bei Schnittstellen
4K/UHD-Blu-ray-Player + HDR
Blu-ray vs. Streaming (4K/HDR)
Tuner/Receiver & Co
Integrierte Tuner
Externe Tuner
Tuner plus SAT-IP-Client
AV-Receiver
SAT-Receiver inklusive 4K + HDR
PS4 PRO mit 4K/HDR-Content
UHD/4K-Streaming - Boxen
Soundbars/Audio-Systeme
Heimkino: Beamer/Leinwände
LCD-Technologie
DLP/LED-Technologie
SXRD-Technologie
D-ILA-Technologie
Wichtige Parameter
Leinwände
Virtual Reality
Professionelle Bildeinstellungen
Drei Gründe für schlechte Bildqualität
Hintergründe der Werkseinstellungen
Vier Methoden zur Bildoptimierung
Sechs Schritte zur Bildoptimierung
Die richtigen Menüeinstellungen
Blue-Only
Die professionelle Kalibrierung
Kalibrierung mit Lichtsensoren
Display- und Beamer-Tuning
Was bedeutet Bildoptimierung zu Hause?
Standardwerte
Basis der Bildoptimierung
Grundmerkmale der Bildanalyse
Was bedeutet Bildoptimierung?
Vorbereitung der Bildoptimierung
Alles auf einen Blick
Testbilder von BUROSCH
Einsatzgebiete
5 Kategorien der BUROSCH-Testbilder
Basic-TestbiIder
Basic-Testbild Nr. 1: Bildformat/Overscan
Basic-Testbild Nr. 2: Helligkeit
Basic-Testbild Nr. 3: Kontrast
Basic-Testbild Nr. 4: Farbe
Basic-Testbild Nr. 5: Bildschärfe
Universal-Testbilder
Universal-Testbild: „First Check“
Universal-Testbild: "Ladies" Version 1 (2013)
Universal-Testbild „Ladies“ Version 2 (2016)
Universal-Testbild „Divas“ inklusive Audiotestsequen
Universal-Testbild „AVEC“ für Bild und Ton
Statische Testbilder zur Feineinstellung
Testbild: “Display Banding/Clouding”
Testbild "BCC"
Testbild: „Crosstalk/Ghosting“
Dynamische Testsequenzen
Realtestbilder zur Gegenkontrolle
Realtestbild "Woman"
Realbild "Stuttgarter Bibliothek"
Realbild "Santorin"
BUROSCH-Testbilder in der Praxis
Schritt 1: Die richtige Vorbereitung
Schritt 2: Die richtige Reihenfolge
Schritt 3: Die richtige Anwendung
Schritt 4: Die richtige Feineinstellung
Schritt 5: Die richtige Kontrolle
Tipps & Tricks
Hintergründe der vergleichenden Warentests
Synergien und Know-how
Fachzeitschriften/Praxis-Bewertungen
Hersteller/Industrie
Forschung/Entwicklung
Workshops
Ein Tipp zum Schluss
Häufig gestellte Fragen (FAQ)
HDTV & Fernsehstandards
Bildformate & Auflösung
Wiedergabegeräte & Anschlüsse
Technik und Grundbegriffe
Multimedia
Stichwortverzeichnis (Index)
„Der Fortschritt geschieht heute so schnell, dass, während jemand eine Sache für gänzlich undurchführbar erklärt, er von einem anderen unterbrochen wird, der sie schon realisiert hat.“
Albert Einstein
Ob der Genius des 20. Jahrhunderts bereits seinerzeit geahnt hat, was in punkto Unterhaltungselektronik Großartiges und Vielfältiges entstehen würde? Für uns heißt es heute nicht selten: „Glotze an – Alltag raus!“ oder wir schauen unterwegs die aktuelle Folge unserer Lieblingsserie im Bus oder Zug. Doch wie kommt das Video der letzten Familienfeier auf die Beamerleinwand, der neueste Blockbuster per Stream auf den TV-Bildschirm oder der aktuelle Podcast auf das Display unseres Smartphones?
Fernsehen ist nicht mehr nur „Der Alte“ zur selben Zeit, am selben Ort. Heute können wir immer und überall mithilfe modernster Multimediatechnik unterhalten und informiert werden. Der Empfang von Filmmaterial aus fast einhundert Jahren ist kinderleicht und auf diversen Wegen möglich. Deshalb lässt sich das Fernsehen nicht in eine einzige Schublade pressen, es ist ein Teil der Mediengeschichte, die aus vielen Bereichen der Funk-, Film-, Hörfunk-, Telekommunikations- und Raumfahrttechnik aber auch des gesellschaftlichen und sogar politischen Wandels besteht. Was auf dem Papier anno 1880 mit einer Idee zur seriellen Bildübertragung begann und letztlich in den 1930er Jahren mit der Kathodenstrahlröhre von Ferdinand Braun und Manfred von Ardenne erstmalig realisiert wurde, ist heute im Jahre 2016 eine Selbstverständlichkeit.
Bereits Mitte des 20. Jahrhunderts entstand ein Massenmarkt, der sich bis heute unaufhaltsam entwickelt. Immer größer, kompakter, schneller, brillanter werden die stationären und mobilen Endgeräte zur Bildwiedergabe. TV-Geräte entwickelten sich von klobigen Mattscheiben zu eleganten Displays mit präziser Nanotechnologie - von superschlank bis gebogen, mit Full HD oder nativer UHD-Auflösung (Ultra HD), einzigartigen Farben und einem nie da gewesenen Kontrast, stationär oder mobil. Der klassische TV-Apparat hat ausgedient, Fernsehen ist heute viel mehr: Entertainer, Ratgeber, Seelsorger, Babysitter, Mentor, Ideengeber, Trendsetter und die Schnittstelle zu einer globalisierten Welt.
Dieses Buch erzählt die Geschichte des Fernsehens von den Anfängen bis zur Gegenwart. Es vermittelt Grundlagen über die menschliche Wahrnehmung, die Farbmetrik, Farbraummodelle, Bildauflösungen und Videoformate sowie technische Hintergründe zum analogen und digitalen Fernsehen, der Videosignalübertragung, diversen Kompressionsverfahren, zur Kalibrierung beziehungsweise Bildoptimierung und erläutert darüber hinaus wichtige Standards in Bezug auf DVB, HDMI, HEVC und das CIE-Normvalenzsystem. Während viele Bücher hier enden, beleuchtet dieses Praxishandbuch die Video-Features der Gegenwart und damit aktuelle Bildwiedergabetechnologien im Zusammenhang mit OLED, Quantum Dots, HDR oder aber Curved-TV und beantwortet zahlreiche Fragen rund um das Thema Multimedia.
Die Firma BUROSCH arbeitet mit diversen Forschungseinrichtungen, namhaften Herstellern sowie verschiedenen Warentestern zusammen, wobei jeder einzelne Partner von diesem einzigartigen Netzwerk partizipiert. Im Besonderen sei hier die technische Fakultät der Hochschule Pforzheim und Professor Blankenbach zu nennen, der verantwortlich ist für die Vertiefungsrichtung Displaytechnik im Studiengang Elektrotechnik. Im Bereich der Messtechnik entwickelte BUROSCH seinen neuen Lichtsensor gemeinsam mit Professor Seelmann und Professor Dittmar der Hochschule Aalen.
In der Praxis arbeitet BUROSCH mit zahlreichen Fachzeitschriften zusammen, die auf Basis der BUROSCH-Testbilder ihre vergleichenden Warentests durchführen; hierzu zählen unter anderem HDTV, CHIP, c’t, SATVISION, AUDIO VIDEO FOTO BILD, audiovision oder auch sat+kabel. Weitere Auftraggeber von BUROSCH sind neben der European Broadcast Union in Genf oder dem Instituts für Rundfunktechnik in München selbstverständlich in der Industrie zu finden. Weltweit kommt hier das BUROSCH-Know-how zum Einsatz, wenn es beispielsweise darum geht, im Shoot Out herauszufinden, welcher Hersteller das beste Display bietet und wie die Bildwiedergabe optimiert werden kann. Wer also einen Fernseher, Monitor oder Beamer von Sony, Panasonic, Samsung, LG, Changhong etc. kauft, der kann darauf vertrauen, dass die Qualitätskontrolle mit BUROSCH-Testbildern durchgeführt wurde.
Auf Basis dieser exklusiven Kooperation kann letztlich jeder Kunde, Anwender sowie Leser dieses Buches die hervorragende Sachkenntnis, das umfassende Praxiswissen sowie die daraus resultierende Präzision und Professionalität der BUROSCH-Messtechnik nutzen.
„Medientechnik - Grundlagen. Geschichte. Gegenwart.“ ist ein praktisches Gemeinschaftswerk der Firma BUROSCH. An der Erstellung beteiligten sich zahlreiche Fachleute, die sich nicht zuletzt auf diesem Wege für die langjährige Zusammenarbeit mit BUROSCH bedanken wollen. Zu ihnen gehört einer der erfahrensten und profiliertesten TV-Entwickler Deutschlands. Konrad L. Maul war es eine Ehre, das Technik-Essay für dieses Buch zu schreiben. Er war 37 Jahre in der Fernsehentwicklung tätig und leitete unter anderem das Entwicklungsteam für das erste 100-Hertz-Gerät der Firma Grundig.
Abbildung 2: Andreas Burosch, Steffen Burosch und Klaus Burosch, High End München 2015
Das erste deutsche Fernsehpatent von Paul Nipkow
„Der hier zu beschreibende Apparat hat den Zweck, ein am Orte A befindliches Objekt an einem beliebigen anderen Orte B sichtbar zu machen“, sind die einleitenden Worte in Paul Nipkows Patentschrift von 1885 mit dem Titel „Elektrisches Teleskop“. Ein wahrer Geniestreich, wie wir im Folgenden noch sehen werden. Und da sich 2015 der Start des weltweit ersten regulären Fernsehprogramms zum achtzigsten Mal jährt, soll es der Anlass sein, diese Schlüsselerfindung näher in Augenschein zu nehmen.
Paul Nipkow (1860-1940) Fernsehpionier
Paul Nipkow wurde als Sohn eines Bäckermeisters 1860 in Lauenburg (Pommern) geboren. Er besuchte das Gymnasium und interessierte sich schon früh für Naturwissenschaften und Technik. Und wie es bei vielen jungen Menschen der Fall ist, die später Technik und Ingenieurwissenschaften als ihre Berufung erleben, hatte auch der junge Nipkow Freude am Experimentieren. In seinem Heimatort wurde zu dieser Zeit im Postamt eine Fernsprechstelle eingerichtet, damals eine technische Sensation. Er überredete den zuständigen Postbeamten, den er gut kannte, ihm den Bell-Telefonhörer der Sprechstelle über Nacht zu leihen. Er baute ein Mikrophon dazu und stellte mit dieser einfachen Telefonverbindung Versuche an.
Nach dem Schulabschluss ging Paul Nipkow zum Studium nach Berlin. Er studierte Mathematik, Physik und hörte auch Vorlesungen über Elektrotechnik. Am Heiligabend 1883 soll er, so sagt jedenfalls die Anekdote, dann sein Heureka-Erlebnis gehabt haben. Eine Fahrt nach Hause zu seiner Familie konnte er sich mit seinem spärlichen Budget nicht leisten. Also saß er alleine in seiner Studentenbude und sah durch das Fenster die brennenden Kerzen an den Weihnachtsbäumen in der Nachbarschaft. Er fühlte sich einsam. Da soll ihm der Gedanke gekommen sein, welche phantastische Möglichkeit es wäre, zumindest mittels eines „Telephons für Bilder“ am Geschehen zu Hause teilnehmen zu können und er erdachte ein vollkommen neues Prinzip der Bildzerlegung und des Bildaufbaus.
Bevor wir uns aber Paul Nipkows Erfindung näher ansehen, werfen wir zunächst einen Blick auf die technischen Erkenntnisse und Grundsatzüberlegungen, die ihm seinerzeit zur Verfügung standen.
Der englische Elektroingenieur Willoughby Smith hatte 1873 Messergebnisse an Stäben aus kristallinem Selen unter Lichteinwirkung veröffentlicht. Er gilt damit als Entdecker des Photowiderstandes. Ein Bauelement war gefunden, das Lichtwerte in entsprechende elektrische Stromwerte umwandeln konnte. „Warum nicht diese neue Selenzelle zur Übertragung eines realen Bildes über eine Telegraphenleitung verwenden?“, dachte sich der französische Notar und Erfinder Constantin Senlecq. Er veröffentlichte 1881 das erste Buch in der Weltgeschichte über Fernsehen „Le Télectroscope“. Senlecq war nicht der Einzige, der das Prinzip vorschlug, ein Bild in Bildpunkte zu zerlegen, deren Helligkeitswerte in elektrische Ströme zu wandeln, diese nacheinander auf einer Telegraphenleitung zu übertragen, um sie dann auf der Empfangsseite wieder zusammenzusetzen. Aber gemeinsam war allen Überlegungen zu dieser Zeit, dass die vorgeschlagenen Konzepte der Bildabtastung technisch nicht umsetzbar seien.
Paul Nipkow zögerte nicht lange und reichte sein Fernsehsystem „Elektrisches Teleskop“ schon nach den Weihnachtsfeiertagen am 6. Januar 1884 zur Patentierung beim Kaiserlichen Patentamt ein. Die Patentierung erfolgte dann am 15. Januar 1885 (siehe Abbildung 2). Die Ausgestaltung der Erfindung zeigt Abbildung 3 anhand von drei Zeichnungen.
Erstes deutsches Fernsehpatent von Paul Nipkow; Ausgestaltung der Erfindung anhand von drei Zeichnungen
Zum leichteren Verständnis der Beschreibung wurden die Originalzeichnungen des Patentes in zwei Prinzipzeichnungen (Abbildung 4 und 5) umgeformt.
Beginnen wir mit der Nipkow-Scheibe selbst: Nipkow schlägt vor, entlang einer Spirallinie in gleichmäßigen Abständen Bohrungen anzubringen, in seinem Ausführungsbeispiel sind es 24. Mittels eines Uhrwerks wird die Scheibe in gleichmäßige Umdrehungen versetzt. Die Scheibe dreht sich vor dem zu übertragenden Objekt, in unserem Beispiel der Einfachheit halber die Zeichnung des Buchstabens A. Hinter der Scheibe befindet sich eine Blende, die hier rechteckförmig gezeichnet ist. Paul Nipkow hatte eine rohrförmige Konstruktion gewählt, die einen kreisförmigen Bildausschnitt geliefert hätte. Wenn wir nun von vorne auf die Scheibe sehen, gibt diese jeweils nur den Bereich der Vorlage frei, der durch eine Bohrung zu sehen ist. Die Abstände der Bohrungen sind so gewählt, dass wenn eine Bohrung den linken Rand des Blendenfensters erreicht, die nächste Öffnung am rechten Rand des Blendenfensters erscheint.
Prinzipzeichnung des Patents: Nipkow-Scheibe mit 24 Öffnungen; Funktionsprinzip der Bildabtastung
Der rot markierte Kreisbogen in Abbildung 4 beschreibt den Weg der roten Öffnung und entspricht damit quasi einer Abtastzeile des Nipkow’schen Fernsehsystems. Wenn Öffnung 24 den linken Blendenrand erreicht, hat die Scheibe eine ganze Umdrehung durchgeführt und damit ein ganzes Bild mit 24 Zeilen abgetastet. Die Bildabtastung beginnt mit der nächsten Umdrehung für das nächste Bild wieder von vorne. Für die Übertragung muss nun der Helligkeitswert jedes Bildpunktes, den die jeweiligen Scheibenöffnungen freigeben, in einen elektrischen Wert umgewandelt werden. Dazu sieht Paul Nipkow an der Stelle, auf der wir in der Prinzipskizze auf die Scheibe geblickt haben, einen Selenwiderstand vor. Dieser setzt nun die Punkthelligkeit in einen Widerstandswert um.
In Abbildung 5 ist links der prinzipielle Aufbau der Sendestation zu sehen. Der Photowiderstand ist über eine Batterie mit den beiden Drähten der Fernleitung verbunden.
Prinzipzeichnung des Patents: Aufbau der Sende- und Empfangsstation
Auf der rechten Seite zeigt Abbildung 5 den Aufbau von Nipkows Empfangsstation. Hier verwendet er eine mit der Senderseite baugleiche Nipkow-Scheibe, die ebenfalls von einem Uhrwerk angetrieben wird und sie so synchron zur Sendestation in gleichmäßige Umdrehungen versetzt. Auf der Empfängerseite müssen nun die auf der Senderseite durch die Abtastung erhaltenen Widerstandswerte wieder in Helligkeitswerte der einzelnen Bildpunkte umgewandelt werden.
Die zur Zeit der Patentanmeldung vorhandenen elektrischen Lichtquellen waren die Kohlebogenlampe und die von Edison 1879 zum Patent eingereichte Kohlefadenglühlampe. Beide waren für die direkte Umwandlung der schnellen Helligkeitswechsel, die Nipkows elektromechanisches Verfahren erfordert, nicht geeignet. Deswegen griff er auf den von Michael Faraday 1846 entdeckten Effekt der Polarisationsdrehung des Lichts zurück. Dabei wird die Polarisationsebene eines Lichtstrahls, der in ein durchsichtiges Medium geleitet wird, durch ein Magnetfeld längs dieses Mediums gedreht.
Abbildung 5 zeigt die von Paul Nipkow vorgeschlagene Anordnung, die später auch als „Lichtrelais“ bezeichnet wurde. Dieses besteht aus einem Glasstab um den Drahtwindungen gelegt werden. Vor und hinter dem Stab sind Nicol’sche Prismen angebracht. Ein Nicol’sches Prisma besteht aus zwei mit speziellem Klebemittel aneinandergefügten Prismen. Es hat die Eigenschaft, den eingehenden Lichtstrahl einer Lichtquelle zu polarisieren, sodass am Ausgang der Lichtstrahl nur mehr eine Schwingungsebene aufweist.
Nipkow gibt an, dass die beiden Nicol’schen Prismen so gegeneinander zu verdrehen sind, dass das Licht der Lichtquelle nicht mehr am Ausgang des „Lichtrelais“ erscheint. Die Polarisationsebenen der beiden Nicol’schen Prismen stehen dann senkrecht zueinander. Wird nun Strom durch die Spule geschickt, dreht sich nach dem Faraday-Effekt die Polarisationsebene des Lichtstrahls beim Durchlaufen des Glasstabs, und diese steht nicht mehr senkrecht zur Polarisationsebene des Nicol’schen Prismas am Ausgang. Licht kann also passieren. Mit der Stärke des Stromes lässt sich der Winkel der Polarisationsdrehung und somit die Helligkeit steuern. Die Spule des „Lichtrelais“ verbindet Nipkow mit den beiden Drähten der Fernleitung.
Sehen wir uns nun das Zusammenwirken der Sende- und Empfangsstation an. Die jeweilige Punkthelligkeit wird durch den Selenwiderstand in einen analogen Widerstandswert umgesetzt. Die Batterie treibt einen dem Widerstandswert entsprechenden Strom durch die Spule des „Lichtrelais“, und demgemäß stellt sich die Helligkeit am Ausgang des „Lichtrelais“ ein. Das Auge und das Gehirn des Beobachters vor der sich drehenden Nipkow-Scheibe des Empfängers setzt aus den einzelnen übertragenen Bildpunkthelligkeiten wieder den Buchstaben A der Vorlage zusammen.
Paul Nipkow hat in seiner Patentschrift noch weitere Ausführungsformen für sein „Lichtrelais“ beschrieben, die aber für die Bildübertragung nicht geeignet sind. Weiterhin gibt Nipkow folgenden Ausführungshinweis, den er mit Annahmen zum Sehsystem begründet: Das Auge empfände einen momentanen Lichteindruck 0,1 bis 0,5 Sekunden lang. Ein einheitliches Bild ergäbe sich mit seinem „Elektrischen Teleskop“, wenn beide Scheiben in 0,1 Sekunden eine Umdrehung vollenden würden. Sein System liefert demnach zehn Bilder in der Sekunde. Paul Nipkow hat also die „Trägheit“ des Sehsystems schon zur Wirkungsweise angeführt - und dies vor Erfindung der Filmkamera und des Filmprojektors durch Le Prince (1888) und Edison (1890-1891).
Ob Paul Nipkow versucht hat, sein „Elektrisches Teleskop“ praktisch zu erproben, ist nicht bekannt. Man geht davon aus, dass er es nicht getan hat. Die Frage ist natürlich, ob 1884 ein Aufbau nach seinen Prinzipzeichnungen überhaupt funktioniert hätte.
Die Antwort ist leider „nein“, und zwar aus folgenden Gründen:
Der verwendete Selenwiderstand wäre zu träge gewesen, um die Bildpunkthelligkeiten umzusetzen.
Das auf dem Faraday-Effekt beruhende „Lichtrelais“ hätte für die Drehung der Polarisation so hohe Ströme benötigt, dass sie allein mit einem Selenwiderstand nicht hätten erzeugt werden können.
Die Selbstinduktion der Spule des „Lichtrelais“ hätte die für die Bildübertragung erforderlichen schnellen Änderungen des Stromes nicht zugelassen.
Die Synchronisation der beiden Scheibenantriebe war nicht gelöst.
Paul Nipkow ließ 1886 sein Patent aus Geldmangel erlöschen. Andere Quellen besagen, dass es erst nach 15 Jahren verfiel. Für ersteres spricht, dass er ebenfalls aus Geldmangel sein Studium 1885 abbrach und sich als "Einjährig Freiwilliger" bei einem Eisenbahnregiment verpflichtete. Danach arbeitete er als Konstrukteur bei der Zimmermann & Buchloh-Eisenbahnsignalbauanstalt. In dieser Tätigkeit hat er noch zahlreiche Erfindungen im Eisenbahnbereich gemacht.
Um elektromechanisches Fernsehen nach Paul Nipkows Vorstellungen zu verwirklichen, mussten noch einige Schlüsselbausteine erfunden werden, hauptsächlich die Fotozelle durch Hallwachs, Elster und Geitel (ab 1887), die Verstärkerröhre durch Robert von Lieben und Lee de Forest (1906) und die Flächenglimmlampe durch Mac F. Moore (ab 1900). 1924, also 40 Jahre nach Einreichung des Patents von Paul Nipkow, gelang dem schottischen Erfinder John Logie Baird die erste Übertragung von Bildern mit Nipkow-Scheiben. Die erste deutsche Fernsehübertragung demonstrierte Professor August Karolus ebenfalls 1924. Sein System hatte 48 Zeilen.
Der erste deutsche Fernsehsender in Berlin Witzleben (Funkturm auf dem Messegelände) wurde 1935 zu Ehren Paul Nipkows in „Sender Paul Nipkow“ umbenannt. Und am 22. März 1935 wurde über diesen Sender das erste reguläre Fernsehprogramm gestartet. Inzwischen hatte zwar das elektronische Fernsehen Fortschritte gemacht, aber aufgrund des Zeitdrucks wurde der Betrieb noch mit elektromechanischer Abtastung auf der Aufnahmeseite aber schon mit vollelektronischer Wiedergabe gestartet. Die Zeilenzahl betrug jetzt 180 Zeilen.
Es gab nur sehr wenige Empfänger, sodass öffentliche Fernsehstuben eingerichtet wurden, in denen sich viele begeisterte Zuschauer drängten, um zum ersten Mal Fernsehen erleben zu können. Es wird berichtet, dass auch Paul Nipkow zu dieser Zeit zum ersten Mal nach seinem System übertragene Fernsehbilder sah und dass er enttäuscht gewesen sei. Die Fernsehbilder in seiner Phantasie an jenem Heiligabend 1883 waren wohl der Zeit weit voraus gewesen. Berechnet man nämlich aus den Angaben in seinem Patent - also 24 Bildzeilen und kreisförmiges Bildformat - die Bildpunktzahl, ergeben sich nur ca. 576 Bildpunkte.
Aber die Entwicklung ging weiter. Was würde Paul Nipkow wohl sagen, wenn er heute UHD-Fernsehbilder mit über 8 Millionen Bildpunkten in Farbe sehen könnte. Dazu besteht jeder dieser Bildpunkte des LC-Displays des Fernsehgerätes aus einem Subpixel für Rot, Grün und Blau. Erfreut könnte er feststellen, dass für jedes dieser Subpixel ein „Lichtrelais“ eingebaut ist. Mit zwei Polarisationsfiltern und dazwischen Flüssigkristalle, die die Polarisationsebene in Abhängigkeit der angelegten Spannung verändern und somit die Pixelhelligkeit steuern.
Konrad L. Maul, Dipl.-Ing. (FH) war 37 Jahre in der Fernsehentwicklung tätig, davon 30 Jahre in leitender Position. Als Gruppenleiter war er für das erste 100-Hertz- TV-Gerät verantwortlich. Von 2001 bis 2008 leitete er die Fernsehentwicklung von Grundig. Damit ist er einer der erfahrensten und profiliertesten TV-Entwickler Deutschlands.
„Es ist schwer zu sagen, was unmöglich ist, denn der Traum von gestern ist die Hoffnung von heute und die Wirklichkeit von morgen.“
Robert Goddard
Vor etwa achtzig Jahren erkannte der amerikanische Wissenschaftler, was auch heute noch Gültigkeit besitzt. Was wäre schließlich die Welt ohne Visionen, Wagnisse und Utopien? Und ist nicht genau aus diesem Grunde der Großteil dessen, was einst als Träumerei abgetan wurde, heute Realität?
Hätte es nicht von je her Menschen gegeben, die sich mit dem Unmöglichen auseinandersetzen, müssten wir heute auf viele Annehmlichkeiten verzichten. Und doch stellen wir uns im Angesicht der Schnelllebigkeit des 21. Jahrhunderts Fragen, wie: Was soll uns der technische Fortschritt noch bringen? Ist denn nicht schon alles erfunden? Wer braucht 8K-Auflösungen oder so rasante Bildwechselfrequenzen, die unsere Wahrnehmung sowieso nicht mehr erfassen kann? Reicht das Kabel- oder Satellitenfernsehen nicht aus? Wozu AII-IP? Und vor allem: Was kommt danach?
Um die Gegenwart respektieren und die gigantischen Möglichkeiten der Zukunft erkennen zu können, ist der Blick in die Vergangenheit schon immer eine gute Wahl gewesen. Deshalb soll im Folgenden die Geschichte des Fernsehens beziehungsweise der Medientechnik im Allgemeinen in einem Schnelldurchlauf dargestellt werden. Es ist die Zeitreise durch über einhundert Jahre Forschung und Wissenschaft sowie eines strukturellen Wandels in Gesellschaft, Wirtschaft und Kultur – bis hin zur aktuellen Vielfalt, Schönheit und Brillanz der modernen Unterhaltungselektronik, deren Entwicklung noch längst nicht als abgeschlossen gilt.
1843
Alexander Bain schafft mit der Patentierung seines Faxgerätes die Grundlagen für die Bildzerlegung.
1883
Paul Nipkow erfindet das elektrische Teleskop: die Nipkow-Scheibe zur optisch-mechanischen Bildabtastung, die zur Bildzerlegung für das Fernsehen bis Anfang der 1930er Jahre genutzt wurde.
1889
Alexander Stoletow entdeckt die Photozellen (Elektronenröhren)
1897
Ferdinand Braun entwickelt gemeinsam mit Jonathan Zenneck die Kathodenstrahlröhre (Braunsche Röhre) - die Grundlage zur Bilddarstellung für das Fernsehen.
1900
Konstantin Perski prägt das Wort „Television“ auf der Pariser Weltausstellung.
1906
Max Dieckmann (Schüler von Karl Ferdinand Braun) erzeugt das erste elektronische Fernsehbild in Deutschland. Es hat eine Auflösung von 20 Zeilen mit 10 Bildern pro Sekunde Gemeinsam mit G. Glage benutzen sie die Braurïsche Röhre zur Wiedergabe von Schwarzweiß-Bildern - die erste brauchbare Methode zur elektronischen Bildwiedergabe.
Boris Rosing schafft Schattenrisse auf Elektronenstrahlröhren.
1907
Das erste Fernsehbild wird übertragen und empfangen.
1909
Ernst Ruhmer überträgt mithilfe von 25 Selenzellen das Bild eines Kreuzes auf eine Glühlampentafel.
1914
Dénes von Mihály arbeitet im Auftrag des österreichischen Kriegsministeriums an einem Fernsehsystem zur militärischen Aufklärung (Telehor).
1922
Gründung des Radiosenders BBC (British Broadcasting Corporation).
1923
Wladimir Sworykin baut die Ikonoskop-Röhre (elektronischen Bildabtaster), die ab 1934 serienmäßig hergestellt wird.
1924
August Karolus (Universität Leipzig) stellt eine mechanisch/elektronisch arbeitende Bildübertragungs-Einrichtung vor. Mithilfe zweier Nipkow-Scheiben, einer Photo- und einer Kerr-Zelle können nun Bilder mit 45 Zeilen und einer Bildfrequenz von 12 Bildern/Sekunde übertragen werden.
John Logie Baird überträgt auf Basis der Nipkowschen Scheibe mit seinem „Televisor“ Schattenbilder über eine Distanz von drei Metern.
J.L. Baird speicherte Fernsehbilder auf Schallplatten bzw. Bildplatten (Bandbreite ca. 12 kHz) und schaffte den Vorläufer des Videorekorders. Einige dieser Platten sind erhalten und werden regelmäßig im Filmmuseum in Bradford vorgeführt.
1926
Der Japaner Kenjiro Takayanagi überträgt ein Bild auf rein elektronischem Weg. Dazu benutzt er einen voll funktionsfähigen Fernseher auf Basis der Kathodenstrahlröhre.
1927
Es finden Übertragungen von Fernsehbildern mit 100 Zeilen statt.
1928
Dénes von Mihály stellt in New York einen Fernsehempfänger auf Basis der Nipkow-Scheibe aus.
Ernst F. W. Alexanderson entwirft einen Drehspiegel-Projektor für zwei Meter große Fernsehbilder.
NBC (National Broadcasting Company) startet ihren Testbetrieb.
John Logie Baird überträgt die ersten Farbfernsehbilder.
1929
Die erste deutsche Fernsehübertragung wird getestet: vom Berliner Funkturm zum Reichspostzentralamt in Berlin-Tempelhof werden zwei Mädchen im Badeanzug mit 30 Zeilen und 10 Bildern/Sekunde drahtlos übertragen.
Gründung der Fernseh-AG in Berlin – ein Gemeinschaftsprojekt der Unternehmen Bosch, Baird-TV, Zeiss-Ikon und Loewe AG.
1931
Auf der 8. Funkausstellung in Berlin präsentiert Manfred von Ardenne am Loewe-Stand das elektronische Fernsehen erstmals der Öffentlichkeit.
CBS strahlt in New York City ein regelmäßiges Fernsehprogramm aus.
1934
Raymond Davis Kell ermittelte experimentell den Kell-Faktor.
1935
Der deutsche Fernsehsender „Paul Nipkow“ startet: Am 22. März 1035 überträgt der Berliner Funkturm auf Ultrakurzwelle 7,06 m (42,46 MHz) das weltweit erste öffentliche, regelmäßige Fernsehprogramm.
Das Reichspostmuseum Berlin eröffnet die erste „Fernsehstube“. Die insgesamt 15 öffentlichen Fernsehstellen bieten Platz für 70 Personen und übertragen an drei Tagen pro Woche (von 20.30 bis 22.00 Uhr) Kurz- und Spielfilme sowie die Wochenschau. Etwas später strahlte auch die BBC in London ein Fernsehprogramm aus.
1936
Die erste elektronische Fernsehkamera von Emil Mechau („Olympiakanone“) überträgt direkt die Olympischen Sommerspiele in die Berliner Fernsehstuben – der Beginn des vollelektronischen Fernsehzeitalters.
Sendestart von BBC 1 (der erste Sender Großbritanniens); in Großbritannien werden Fernseher für die Darstellung von Bildern mit 405 Zeilen produziert.
1937
Deutschland wechselt von der 180- auf die 441-Zeilennorm.
Mit Kriegsbeginn wird 1939 die europäische Fernsehindustrie vorerst stillgelegt. Der Deutsche Fernsehrundfunk „Fernsehsender Paul Nipkow“ stellt 1944 seinen Sendebetrieb ein.
1950
Der NWDR sendet vom Hochbunker Heiligengeistfeld in Hamburg ein Fernseh-Versuchsprogramm (drei Tage pro Woche).
1951
Sendestart eines täglichen Versuchsprogramms auf dem Grundig-Werksgelände in Fürth.
Öffentliche Fernsehübertragung im Stadtpark Berlin-Schöneberg.
1952
In Europa werden 625 Zeilen als Norm festgelegt (Frankreich und Belgien erproben für kurze Zeit 819 Zeilen).
Am 21. Dezember 1952 geht zu Ehren Stalins an seinem Geburtstag in Berlin-Adlershof die erste „Aktuelle Kamera“ auf Sendung (vom späteren Fernsehsender DFF der DDR).
Am 25. Dezember 1952 nimmt die Bundesrepublik Deutschland ihren Fernsehbetrieb wieder auf, auch wenn das Fernsehen im geteilten Deutschland noch nicht zum Alltag gehört. Ein TV-Gerät kostet Anfang der 1950er Jahre etwa 1000 Mark.
Start des täglichen Fernsehprogramms in West-Deutschland (Hamburg).
1953
Im Sommer wird europaweit die Krönungszeremonie von Elisabeth II. übertragen. In Westdeutschland boomt das Wirtschaftswunder. Immer mehr Menschen können sich einen eigenen TV-Apparat leisten. 4000 Fernsehgeräte werden in der Bundesrepublik Deutschland verkauft (DDR: 300).
1954
Die NTSC-Norm für Farbfernsehen wird in den USA eingeführt (die PAL-Norm in Europa übrigens erst zwölf Jahre später).
Start des Gemeinschaftsprogramms Deutsches Fernsehen der Landesrundfunkanstalten (ARD)
Die Fußballweltmeisterschaft wird übertragen. Public Viewing wird aus der Not heraus geboren: Tausende Menschen sitzen vor den Bildschirmen in den Wohnzimmern aber vor allem in Vereinslokalen und Gaststätten.
Die ersten Kabelfernbedienungen werden eingeführt.
1955
Sendestart des österreichischen Fernsehens
Philips stellt einen Fernseher vor, der alle europäischen Normen empfangen kann.
1956
Der Deutsche Fernsehfunk (DFF) der DDR startet den Regelbetrieb.
Vorstellung der ersten analogen Magnetaufzeichnungs-Anlage mit sendetauglicher Schwarzweißqualität (Quadruplex-System der Firma Ampex).
1957
Der erste Farbvideorekorder der Firma Ampex kommt auf dem Markt.
1960
Echo 1 - der erste passive Kommunikationssatellit wird in eine Umlaufbahn um die Erde gebracht.
1961
ARD2 startet als zweites deutsches Fernsehprogramm, später startet Österreich sein zweites Fernsehprogramm FS2 (seit 1992 ORF2).
1962
Der erste aktive Fernmeldesatellit (Telstar) wird in seine Umlaufbahn gebracht, die erste Liveübertragung für die Eurovision startet aus den USA.
1963
Die europäische PAL-Fernsehnorm wird patentiert.
Walter Bruch stellt das PAL-Verfahren für das Farbfernsehen vor, ab 1964 wird in Farbe ausgestrahlt. Seither entwickelte sich das Fernsehen stetig zum Massenmedium.
Offizieller Sendestart des Zweiten Deutschen Fernsehens (ZDF) in Mainz mit dem Aktuellen Sportstudio, moderiert von Wim Thoelke.
Syncom2 wird als erster Kommunikationssatellit in eine geostationäre Umlaufbahn gebracht. Das Senden/Empfangen ununterbrochen Signale von einem festen Punkt auf der Erde ist jetzt möglich.
1966/ 1967
Die meisten westeuropäischen Staaten übernehmen das PAL-Farbfernsehverfahren.
1967
Am 25. August 1967 drückt Vizekanzler Willy Brandt auf der 25. Großen Deutschen Funkausstellung in Berlin den berühmten roten Farbfernsehen-Knopf.
1969
Erste Live-Übertragung vom Mond über die Raumfähre Apollo 11.
Sendestart des DFF 2 der DDR; nach dem französischen SECAM-Verfahren jetzt in Farbe.
1970
Das Bildseitenverhältnis wechselt von 5:4 auf 4:3.
1971
Die 28. Deutsche Funkausstellung wird umbenannt in Internationale Funkausstellung und findet seither in Berlin statt.
1972
ARD und ZDF übertragen die XX. Olympischen Sommerspiele an alle Fernsehanstalten der Welt.
1973
Als erste Frau moderiert Carmen Thomas das Aktuelle Sportstudio im ZDF. Ihr Versprecher „Schalke 05“ geht in die Geschichte ein. Bereits zwei Jahre zuvor sprach Wibke Bruhns die ZDF-Spätnachrichten und durchdrang damit die Männerdomäne.
1975
Die Fernbedienung wird serienmäßig angeboten. Die sogenannte „Kanaltreue“ wird vom Zapping abgelöst, was nicht zuletzt der Grund für die stetig wachsende Programmvielfalt war.
1977
Der Videotext wird eingeführt.
1979
Auf der IFA stellt Philips zwei Jahre vor der Serienreife den ersten CD-Player vor.
1980
Ted Turner gründet in den USA den Nachrichtensender CNN.
1981
MTV geht auf Sendung und wird über das Kabelnetz übertragen.
Anfang der 1980er wurde die Fernsehtechnik durch analogen Stereo-Ton (mittels zweier Tonunterträger) sowie Tele- bzw. Videotext ergänzt.
1983
Die Bundespost startet Bildschirmtext – den Vorläufer des Internets.
1984
RTL und SAT.1 (damals PKS) nehmen als erste bundesweite Privat-Fernsehsender ihren Betrieb in Deutschland auf. Aus ZDF2 wird 3Sat und der erste deutschsprachige Bezahlfernsehsender Teleclub startet sein Programm.
1985
Premiere des hochauflösenden Fernsehens HDTV auf der 35. IFA in Berlin. Erste Empfänger über Satellit, die D2MAC-Übertragungstechnik, RDS und Fernseher mit 84 und 95 cm Bild werden vorgestellt.
Die analoge D2-Mac-Technik wird als Übertragungsstandard der Zukunft mit höherer Bild- und Tonqualität sowie HDTV-Tauglichkeit vorgestellt. Man warb mit dem Slogan: "Herkömmliche TVs sind bald reif für den Mülleimer". Es sollte allerdings noch einige Jahre dauern.
Discovery Channel geht in den USA auf Sendung.
1986
Am 4. November werden terrestrische Frequenzen an private Anbieter vergeben. Basis dafür bildet das 4. Rundfunk-Urteil des Bundesverfassungsgerichts. Verwendet werden UKW-Frequenzen im Bereich von 100 bis 104 MHz aus dem Bereich des Flugnavigationsfunkdienstes, die zuvor durch das Genfer Abkommen von 1984 freigegeben worden waren.
1987
Auf der IFA wird der erste 100-Hertz-Fernseher von ITT Schaub Lorentz vorgestellt.
Eureka TV (später ProSieben) startet sein Programm.
1988
Österreich sendet in den programmfreien Zeiten das Testbild.
1989
ProSieben (bis dahin Eureka TV) startet sein Programm.
EuroSport geht auf Sendung.
1991
Die ersten Fernsehgeräte im 16:9-Breitbildformat werden vorgestellt.
Premiere startet seinen Betrieb, BBC World geht auf Sendung.
Das DDR-Fernsehen wird zum 31.12.1991 abgeschaltet.
Seither findet wieder eine gesamtdeutsche IFA statt. Messe-Highlights sind u.a. die digitale Compact Cassette (DCC), die MiniDisc sowie wiederbespielbare CDs.
1992
Der erste deutsche Kabelkanal startet sein Programm (damals exklusiv über das Netz der Deutschen Telekom).
Europapremiere für HDTV anlässlich der Olympischen Winterspiele.
Sharp stellt den ersten ernst zu nehmenden Serien-LCD-TV vor mit 21,7 Zentimeter Diagonale (bis dahin waren es nur rund 12 Zentimeter).
Der deutsch-französische Sender ARTE nimmt seinen Betrieb auf (gemäß Staatsvertrag).
Sendestart des ersten deutschen Nachrichtensenders n-tv.
1993
VOX, RTL2 und VIVA nehmen ihren Sendebetrieb auf.
1995
Super RTL, der erste Sender für Kinder und Jugendliche startet sein Programm, später folgt der Homeshopping-Kanal HSE24.
Auf der IFA Berlin werden 16:9/PALplus, TV-/PC-Kombinationen, Dolby-Surround-Anlagen sowie Flachbildschirme vorgestellt.
1996
DF1, der erste digitale Bezahlfernsehsender wird in Deutschland ausgestrahlt.
1997
Pioneer bringt das erste Fernsehgerät mit Plasmabildschirm auf den Markt.
KiKA und PHOENIX gehen auf Sendung (mit digitaler Technik).
1998
Das interaktive Programm NBC Giga startet den Sendebetrieb (Computer im Fernsehen).
Die USA startet die HDTV-Übertragung via Antenne und Kabel.
Die ersten Plasmafernseher für den Heimgebrauch kommen auf den Markt: z.B. von Philips mit einer Bilddiagonale von 102 Zentimeter (42 Zoll) und zu einem Preis von 30.000 DM.
Zum kommerziellen Durchbruch verhalfen hier die Olympischen Winterspiele in Nagano, da ein japanischer Fernsehsender seinerzeit große Flachbildschirme für das hauseigene HDTV-Angebot benötigte.
1999
Premiere World (bis dahin DF1) geht auf Sendung, später auch der 24-Kinder-Sender Disney Channel
Auf der IFA Berlin zählen zu den Messe-Highlights Plasma-Flachbildschirme, MP3-Player, Mobiltelefone mit Internet-Zugang sowie Home-Networks.
2000
Im Dezember startet in Japan das digitale Hi-Vision.
2001
Die ersten 50-Zoll-Plasmas (127 Zentimeter) gehen in Serie.
Australien beginnt mit der Ausstrahlung von terrestrischem HDTV.
Der erste deutsche Quizsender 9Live sowie der Homeshopping-Kanal RTL Shop gehen auf Sendung, später folgen der Musiksender MTV2 Pop sowie der Infotainmentkanal XXP (heute DMAX)
2002
In Deutschland startet die erste reguläre DVB-T-Ausstrahlung in Europa).
Der Standard MPEG-4-AVC/H.264 kommt auf den Markt.
In Deutschland verfügen 37,9 Mio. Haushalte über Fernsehgeräte, davon empfangen lediglich 4,14 Mio. Haushalte digitales Fernsehen über Kabel oder Satellit. In der gesamten EU sind in diesem Jahr 154,73 Mio. Fernsehgeräte verzeichnet, wovon 32,3 Mio. auf Digitalfernsehen zurückgreifen. In den USA konnten bereits knapp 45 Mio. von insgesamt 118 Mio. Haushalten digitales Fernsehen nutzen. Zum Jahresende waren in den Haushalten der USA bereits 5 Mio. HDTV-Bildschirme installiert.
2003
Auf der IFA Berlin werden die Multimedia Home Platform (MHP), Digitalradio und DVB-T vorgestellt. LCD-, Plasma-Bildschirme sowie Projektions-Geräte, Digitalkameras und Festplatten-Videorekorder erfreuen sich großer Beliebtheit.
Die Deutsche TV-Plattform richtet Ende des Jahres eine Arbeitsgruppe ein, die sich mit der weiteren Verbreitung von europäischem HDTV beschäftigt.
Im Dezember startet in Japan das von der Association of Radio Industries and Businesses (ARIB) entwickelte ISDB-T (Integrated Services Digital Broadcasting Terrestrial), um das analoge terrestrische Fernsehen abzulösen.
2004
DVB-T startet in Österreich, Kabel Deutschland das erste digitale Bezahlfernsehangebot mit über 30 Sendern.
Am 1. Januar startet das erste europäische HDTV-Projekte. Am 1. Februar zieht der deutsche Pay-TV Sender Premiere nach und zeigt den Super Bowl ebenfalls in HDTV-Qualität. Am 2. Juli gibt Mexiko die Annahme des Standards ATSC für digitales terrestrisches Fernsehen bekannt.
2005
Österreich stellt alle Grundnetzsender auf DVB-T um.
Die IFA soll ab 2006 jährlich stattfinden, um der rasanten Entwicklung im Multimediabereich gerecht zu werden. HDTV-Geräte, vernetzte Haushaltselektronik und Handy-TV werden vorgestellt.
Neben Japan geht auch China bei der Wahl des Systems für terrestrisches Digital-TV eigene Wege und startet offiziell den Betrieb des selbstentwickelten DMB-T (Digital Multimedia Broadcasting Terrestrial).
2006
Die 46. IFA wird in Berlin von Bundeskanzlerin Angela Merkel eröffnet. Zu den Exponaten zählen diverse Geräte der Unterhaltungs- und Telekommunikationsbranche, hierzu zählen u.a. neue Mobiltelefone von LG.
Alle 64 Spiele der Fußball-Weltmeisterschaft 2006 in Deutschland werden in HDTV-Qualität aufgezeichnet und in vielen Teilen der Welt im hochauflösenden Fernsehformat übertragen.
Die Deutsche Telekom beginnt als IPTV-Versorger mit der Bereitstellung der Triple-Play-Variante, also der Verknüpfung von Telefon, Internet und Fernsehen – jedoch (noch) mit geringer Bandbreite und mäßigem Absatz.
Das IPTV-Angebot „Alice homeTV“ (später Alice-TV) ist verfügbar, wird jedoch 2012 mit der Übernahme durch O2 eingestellt.
2007
Sony stellt den ersten OLED-Fernseher vor.
Die Blu-ray-Disc, DVDs in HD sowie HDTV-Geräte mit integrierter Festplatte erobern den Markt. Auf der IFA werden XXL-Flachbildschirme mit Diagonalen bis 2,62 Meter präsentiert.
Im Dezember präsentiert sich Arcor als IPTV-Anbieter und startet „Arcor TV“.
2008
Flachbildschirme dominieren den Markt. Sony stellt das erste Gerät mit Edge-LED-Backlight vor. Das größte Display misst gigantische 3,81 Meter in der Diagonale.
In Europa liegt die Zahl der IPTV-Abonnenten bei 11 Millionen.
2009
Full HD wird mit einer HD-Auflösung von 1920 × 1080 Pixeln eingeführt. Neben „HD ready“ mit einer niedrigeren Auflösung von 1280 × 720 Pixeln etabliert sich auch der Begriff „True HD“, mit dem sowohl die Full-HD-Eigenschaften im Videobereich als auch das Mehrkanal-Tonformat Dolby TrueHD beworben wird.
2010
3D feiert sein Comeback. Im Frühjahr werden erste Geräte mit Heim-3D-Technik vorgestellt. Am 3. September findet auf der IFA die erste 3D-Pressekonferenz (Telekom) statt. Darüber hinaus wird auf dem Messegelände in Berlin die Themenwelt „iZone“ geschaffen, die Produkte von Apple und Android sowie dazugehörige Apps umfasst.
Die digitalen Standards Digital Audio Broadcasting (DAB) sowie Digital Video Broadcasting-Terrestrial (DVB-T) sind in Deutschland flächendeckend verfügbar.
2011
Die IFA sendet weltweit in drei Sprachen via Internet, Kabel und Satellit und erreicht damit ein Millionenpublikum in 107 Ländern.
Vodafone bringt am 17. Februar sein erstes IPTV-Angebot auf den Markt. Im September zählt das britische Marktforschungsunternehmen „Point Topic“ für die EU-Mitgliedsstaaten zirka 20 Millionen IPTV-Anschlüsse.
Die Telekom startet „SAT-Entertain“ - ein Multimedia-Hybrid-Konzept, das aus Sat-TV und Internetzugang besteht, bei dem das Fernsehsignal per Satellit mit modernen IP-Zusatzdiensten kombiniert wird.
Internetfähige Fernsehgeräte und Set-Top-Boxen werden überwiegend mit der HbbTV-Technologie ausgestattet.
2012
Die OLED-Technik strebt die Nachfolge von LCD an.
Die Digitalisierung des Satellitenfernsehens ist abgeschlossen. Das Kabelfernsehen hinkt mit 48,2 Prozent hinterher (DVB-T ist bereits seit 2008 zu 100 Prozent verfügbar).
Die Internationale Fernmeldeunion (ITU) standardisiert das digitale Videoformat Ultra High Definition Television (UHD TV) mit zwei Bildauflösungen (4K und 8K) sowie einer definierten Bildwiederholungsrate von max. 120 Vollbildern und einer Farbraumerweiterung gemäß BT.2020. Die Bezeichnungen „4K“ oder „UHD“ oder „Ultra HD“ etablieren sich und stehen für eine HD-Auflösung von 3840 × 2160 Pixeln, die mit insgesamt 8 Millionen Pixeln vier Mal so hoch wie Full HD.
Am 18. Oktober 2012 beschließt die Consumer Electronics Association (CEA), dass Ultra HD die bislang propagierte Bezeichnung 4K ablöst, zumal sich diese eigentlich auf die Videoauflösung von 4096 × 2160 Pixeln im Cinema-Bereich bezieht.
In Deutschland wird der erste Kinofilm mit 48 Bildern pro Sekunde ausgestrahlt: „Der Hobbit“.
Der Mobilfunkanbieter O2 übernimmt den Provider Alice.
2013
Alle namhaften Hersteller nehmen Ultra HD-TVs in ihr Programm auf; Sky demonstriert auf der IFA, wie Ultra HD in der TV-Ausstrahlung wirkt.
Die Telekom startet „Entertain to go“ und damit den TV-Empfang auf Smartphone, Tablet und Notebook.
Der erste HFR-3D-Projektor mit 60 Bildern pro Sekunde wird im österreichischen Cinepoint in Tirol installiert.
Unter der Bezeichnung MPEG-? (HEVC/H.265) kommt der weiterentwickelte MPEG-4-Standard auf den Markt, der bei gleicher Qualität eine noch stärkere Videokompression für UHD/4K erlaubt. Hierzu wird auf der IFA die aktuelle HDMI-2.0-Version vorgestellt. Der Standard lässt 18 Gbits pro Sekunde zu und unterstützt die erweiterte UHD-Farbraum-Technologie gemäß Rec.2020, wodurch das visuelle Farbspektrum um bis zu 80 Prozent vergrößert werden kann.
2014
Die IFA wird 90 Jahre alt.
Vodafone übernimmt im April Kabel Deutschland und bringt das gemeinsame All-IP-Produkt „All-in-One“ auf den Markt, welches Mobilfunk, Festnetz, Internet und TV bündelt.
Netflix erwirtschaftet im ersten Quartal über eine Milliarde US-Dollar und verzeichnet mit knapp 50 Millionen Abonnenten im VoD-Markt der Vereinigten Staaten mehr Zuschauer als jeder herkömmliche US-amerikanische Fernsehsender.
Nach Angaben des Branchenverbandes BITKOM gibt in diesem Jahr jeder Einwohner der Bundesrepublik Deutschland durchschnittlich 1.476 Euro für Digitaltechnik (Computer, Smartphones etc.) aus.
In 14 Millionen deutsche Haushalte verfügen über mindestens ein aktiv vernetztes TV-Endgerät (Statista GmbH).
1&1 präsentiert zubuchbares IPTV in Kooperation mit der Telekom.
2015
Ab September wird der Markenname „Kabel Deutschland“ aus der Medienlandschaft verschwinden.
Curved-TVs und Displays mit Quantum-Dot- sowie OLED-Technologie erobern den Markt und sind die Stars auf der IFA in Berlin.
Ab 3. November bietet Amazon exklusiv seine Streaming-Box (Fire TV) mit UHD/4K-Auflösung an. Apple-TV wird es mit Version 4 nur in Full HD geben.
Die Firma BUROSCH präsentiert den Full HD-Testbildgenerator TPG-5 mit HDMI-Ausgang, der auch für alle gängigen UHD-beziehungsweise 4K-Displays oder -Beamer genutzt werden kann.
2016
Das neue Zauberwort in diesem Jahr heißt HDR - High Dynamic Range. Der große Dynamik-Umfang ermöglicht eine weitaus bessere Hell-Dunkel-Darstellung und damit bessere Kontraste, und Farben so natürlich und lebensecht wie noch nie.
Neben HDR10 setzt Studio-Ausstatter Dolby nunmehr auf Videodatenverarbeitung und bringt mit Dolby Vision eine Technologie auf den Markt, die HDR erst möglich macht.
Auf der IFA 2016 in Berlin stellte Samsung seine 10-Bit Quantum Dot-Technologie vor, mit der die Darstellung von bis zu einer Milliarde Farben möglich sein soll. Neue OLED- und Ambilight-Displays wurden u.a. von Philips präsentiert. Trend der Messe war das Thema „Virtual Reality“ inklusive 360-Grad-Kameras ... und 8K bleibt weiterhin Zukunftsmusik.
Weitere Informationen zur Geschichte des Fernsehens gibt es übrigens auch auf: www.fernsehmuseum.info.
Fakt ist: Selbst die beste Technik sucht seinesgleichen in der Natur. Das menschliche Auge ist in seiner Perfektion kaum zu übertreffen und arbeitet (sofern gesund) mit exakter Präzision und damit schärfer, schneller und sensibler als jedes vom Menschen geschaffene Gerät. Nicht umsonst wurden von jeher optische Apparate dem komplexesten aller Sinnesorgane nachempfunden. Wie in einem Uhrwerk sind alle Bestandteile akkurat aufeinander abgestimmt, damit im Bruchteil einer Sekunde aus reflektiertem Licht ein Bild entsteht. Auch die Fernsehtechnik baut auf diese geniale Technologie auf. Um zu verstehen, wie eine Bildröhre, hochauflösendes Fernsehen oder gar 3D funktioniert, sollte man sich zuvor mit dem menschlichen Auge, der Wahrnehmung generell und mit einigen im Zusammenhang stehenden physikalischen Gesetzmäßigkeiten der Optik näher befassen.
Grundsätzlich arbeitet das menschliche Auge wie ein Fotoapparat – oder vielmehr umgekehrt. Die Gemeinsamkeiten der „Bauteile“ sind in jedem Fall nicht von der Hand zu weisen. Ähnlich wie bei einer Kamera verfügt ihr natürliches Vorbild über ein Linsensystem (Objektiv), einen optischen Zoom, eine Blende und natürlich über einen leistungsstarken Prozessor: das menschliche Gehirn.
Zu den wichtigsten Bestandteilen des menschlichen Auges (vgl. Abbildung) gehören die Hornhaut (Kornea), Pupille, Iris, Linse, Netzhaut (Retina) sowie der Ziliarmuskel, Sehnerv und der Glaskörper (Corpus Vitreum). Dieser ist vielmehr ein Glaskörpergel beziehungsweise eine gelartige Substanz, die zu einem überwiegenden Teil aus Wasser sowie gleichmäßig verteilten Eiweißbestandteilen und feinsten Bindegewebsfasern besteht. Umgeben ist der Glaskörper von einer sehr dünnen Membran, die im vorderen Teil des Auges die Linse und seitlich die innerste Schicht der Augapfelwand (Netzhaut) unregelmäßig berührt. An der Netzhautmitte sowie im Bereich des Sehnervs und der äußeren Netzhautperipherie (Glaskörperbasis) bestehen hingegen regelmäßige Anheftungen zwischen dem Glaskörper und der Netzhaut.
Letztgenannte wird im Augenhintergrund von der Aderhaut (Chorioidea) umgeben, die für die Durchblutung des Auges und dessen Nährstoffversorgung zuständig ist.
Abbildung 3: Aufbau des menschlichen Auges
Die Netzhaut besteht aus Millionen lichtempfindlicher Sinneszellen (Zapfen und Stäbchen). Im Zentrum des sogenannten Gelben Flecks (Makula lutea) befindet sich eine Einsenkung, die in etwa 1,5 mm im Durchmesser beträgt und Fovea centralis (Sehgrube) genannt wird. An dieser Stelle des schärfsten Sehens in der Netzhautmitte konzentrieren sich die sogenannten Zapfen, die für das Scharfsehen zuständig sind und bei hohen Leuchtdichten (L > 10 cd/m²) als Rezeptoren zur Helligkeits- und Farbwahrnehmung dienen. Die Stäbchen sind dagegen mehr im Randbereich der Netzhaut zu finden. Aufgrund ihrer hohen Lichtempfindlichkeit übernehmen sie das Dämmerungssehen, da sie auch schwache Leuchtdichten (bis 0,08 cd/m²) registrieren können. Ab einer Leuchtdichte unter diesem Wert sind Farbunterscheidungen nicht mehr möglich (Nachtsehen). Die Netzhaut beziehungsweise ihre Rezeptoren sind insofern die Basis für unsere Sehfähigkeit und vergleichbar mit der Auflösungsqualität einer Digitalkamera.
Im nicht-sichtbaren Teil des Auges wird selbiges durch die Lederhaut (Sklera) und im vorderen (sichtbaren) Teil durch die Hornhaut (Kornea) geschützt. Hier befindet sich die Pupille, durch die das Licht ins Auge fällt und die deshalb wie eine Blende wirkt. Je nach Intensität des Lichteinfalls kann sie sich verkleinern (hell) oder vergrößern (dunkel). Während dieses Anpassungsvorgangs, der als Adaption bezeichnet wird, kann sich der Pupillen-Durchmesser von 1,5 bis 8 Millimeter verändern.
Den farblich individuellen Teil unseres Auges bildet die Iris, die umgangssprachlich auch Regenbogenhaut genannt wird. Direkt dahinter befindet sich die Augenlinse (Lens crystallina), die in ihrem Zentrum zirka vier Millimeter dick und im Durchmesser zwischen sechs und acht Millimeter groß ist. Die Linse ist nach außen (konkav) gewölbt und ebenfalls von einer feinen Membran umgeben sowie links und rechts jeweils mit dem Ziliarmuskel verbunden. Mithilfe dieses Muskels, der vom Gehirn gesteuert wird, kann die Linse ihre Form verändern. Dadurch ist sie in der Lage, das einfallende Licht unterschiedlich zu brechen. Je nachdem, wie weit der abzubildende Gegenstand entfernt ist, verformt sich die Linse, um das Abbild auf der Netzhaut „scharf“ zu stellen. Diese unterschiedliche Brechung beziehungsweise Bündelung des Lichtes (Akkomodation) macht die Augenlinse vergleichbar mit einem Kameraobjektiv.
Abbildung 4: Funktionsweise des Auges (Zapfen/Stäbchen)
Von uns weder bewusst gesteuert noch wahrgenommen, erfassen wir unsere Umgebung durch permanentes Abtasten mithilfe der Fovea centralis. Wie auf dem Film in einer Kamera wird das in der Außenwelt reflektierte Licht durch Hornhaut, Pupille, Linse und Glaskörper geleitet und im Augeninneren auf der Netzhaut gebündelt. Die Lichtenergie wird anschließend in Nervenreize umgewandelt, die vom Gehirn zu einem Bild weiterverarbeitet werden. Für jede neue Blickrichtung akkommodiert oder adaptiert sich das Auge während des Abtastvorgangs jeweils neu. Das heißt, die natürliche Blende und das natürliche Objektiv im Auge regeln gemeinsam mit Millionen lichtempfindlicher Nervenzellen die Bildschärfe, die Farbe und den Kontrast. Allerdings läuft ohne Schaltzentrale gar nichts. Erst mithilfe unseres Gehirns sind wir in der Lage, aus der Flut von Lichtwellen und Reizen einen optischen Gesamteindruck zu bilden.
Und obwohl das menschliche Auge ein wahrer Meister seines Faches ist, kann es nur einen geringen Teil des elektromagnetischen Spektrums, nämlich ausschließlich das Lichtspektrum zwischen 380 und 780 Nanometern, visuell wahrnehmen. Die visuelle Wahrnehmung einiger Tiere ist hingegen besser ausgeprägt. So können beispielsweise Schlangen im Infrarotbereich und Insekten sogar ultraviolettes Licht erfassen (vgl. Abbildung). Dennoch ist es nur dem Menschen vergönnt, aufgrund seiner Gehirnkapazität aus dem vergleichbar minimalen Spektralbereich eine Vielfalt an Farben zu erkennen, zu verarbeiten und Großartiges zu schaffen – von zeitgenössischer Malerei bis hin zu ultrahochauflösender Videodarstellung.
Abbildung 5: Elektromagnetisches Spektrum (Wikimedia Commons)
Denn streng genommen ist Farbe nichts anders als Licht - und Licht wiederum eine elektromagnetische Welle. Wie stark das menschliche Auge Helligkeit empfindet, hängt insofern von der Wellenlänge ab. Der Nachweis hierzu wurde bereits im 19. Jahrhundert von den Physikern James Maxwell und Heinrich Hertz erbracht. Neben dem Licht gehören auch Radio- und Mikrowellen zu den Wellen eines elektromagnetischen Feldes, allerdings sind diese für das menschliche Auge nicht sichtbar (vgl. Abbildung). Dies liegt an den unterschiedlichen Wellenlängen beziehungsweise deren Frequenz. So können wir beispielsweise Radiofrequenzen im Bereich zwischen 87.5 und 108.0 Megahertz hören aber nicht sehen.
Abbildung 6: Schematische Darstellung der Lichtbrechung
In Zusammenhang mit der Beschreibung des Lichtes tauchen immer wieder Begriffe wie Reflexionsgrad und Remissionsgrad auf, welche gern verwechselt werden. Bei der regulären (gerichteten) Reflexion handelt es sich in der Physik um den Vorgang, bei dem eine Welle an eine Grenzfläche zurückgeworfen wird, sich also die Ausbreitung oder der Brechungsindex ändert. Der Reflexionsgrad beschreibt demnach das Verhältnis zwischen reflektierter und einfallender Intensität des Lichtstroms beziehungsweise in welcher Form die Ausbreitung der elektromagnetischen Welle gestört wird. Das einfachste Beispiel ist wohl der Spiegel: er lässt kein Licht durch, sondern wirft es zurück. Deshalb spielt im Wesentlichen die Oberflächenbeschaffenheit der Objekte, auf die das Licht trifft, eine Rolle.
Mit dem Wort „remittieren“ (lat. remittere) ist hingegen das Zurücksenden gemeint oder vielmehr eine diffuse (ungerichtete) Reflexion von Körpern, die nicht selbst leuchten. Dabei absorbiert ein Körper oder Objekt einen Teil des Lichtspektrums (Opazität). Insofern beschreibt der Remissionsgrad das Verhältnis zwischen remittiertem und eingestrahltem Licht. Der Prozentsatz gibt demnach an, wie viel des eingestrahlten Lichts tatsächlich „übrig“ bleibt. Diese Angabe nennt man auch Albedo-Wert1. Im Kapitel „Farbwahrnehmung“ wird hierauf noch einmal gesondert eingegangen. Einige Beispiele für verschiedene Materialien und ihre individuellen Remissionsgrade finden sich in der folgenden Tabelle:
Abbildung 7: Remissionsgrade verschiedener Materialien
Bei transparenten Körpern oder Medien wird das Licht hingegen transmittiert. Dabei findet für die sogenannte Durchlichtmessung der Transmissionsgrad τ(λ) Verwendung, bei dem der farbige lichtfilternde Effekt gegen einen nichtfilternden Effekt gemessen wird (Kolorimetrie). Auch diese Größe ist (ähnlich wie auch der Remissionsgrad) nach dem Bouguer-Lambert-Beerschen Gesetz2 wellenlängenabhängig. In diesem Zusammenhang ist die Leuchtdichte ein erwähnenswerter Aspekt, der allerdings im Kapitel über die fotometrischen Größen ausführlich dargestellt werden soll.
Abgesehen von der Physik bietet das Licht jedoch weitaus mehr als nur Schwarz oder Weiß, Hell und Dunkel. Es kann auch unser Empfinden in starkem Maße beeinflussen. Dabei spielen nicht nur die wärmende Sommersonne und die dadurch produzierten Glückshormone eine Rolle. Wahrnehmungsstörungen und sogar körperliche Symptome hängen unmittelbar mit dem Licht zusammen. So kann das Licht visuellen Stress hervorrufen. Streifen- oder Gittermuster, flackerndes Neonlicht, gleichmäßig bewegte Objekte oder auch dreidimensionale Projektionen können Wahrnehmungsstörungen, Übelkeit oder gar epileptische Anfälle verursachen.
Doch diese vermeintlichen Nachteile bergen auch die vielfältigen Möglichkeiten, die unser Sehvermögen bietet: Das Licht, das in unserer Umwelt von allen Objekten reflektiert, absorbiert oder transmittiert wird, nehmen wir in seiner Gesamtheit wahr. Damit ist es uns möglich, Oberflächen auch bei unterschiedlicher Leuchtkraft gleichmäßig zu erkennen. Unser Gehirn differenziert das Licht und wandelt es um in Bilder mit unterschiedlicher Intensität, Farbe und Schärfe.
Dabei spielt die tatsächliche physikalische Größe des Lichtes in unserer Wahrnehmung nur eine nachgeordnete Rolle. Ein gutes Beispiel dafür sind die Sterne. Sie verändern grundsätzlich nicht ihre Leuchtkraft, doch bei Tag sehen wir sie gar nicht, in einer „sternenklaren“ Nacht dafür umso deutlicher. Selbst wenn die Sichtverhältnisse am Himmel – etwa zur selben Uhrzeit bei ähnlichen Witterungsverhältnissen - identisch sind, können wir dieselben Sterne an einem dunklen Strand trotzdem um einiges besser wahrnehmen, als im Lichtkegel einer Großstadt. Insofern sind weder die Licht absorbierenden Objekte selbst noch die Funktionalität unserer Augen per se dafür verantwortlich, wie genau wir sehen können. Es sind Faktoren der Umwelt (z.B. Umfeldbeleuchtung), die erst eine exakte Wahrnehmung möglich machen.
Ob nun in tiefschwarzer Nacht oder im Licht eines 1000-Watt-Halogenstrahlers: unsere Augen können sich grundsätzlich an die verschiedensten Lichtintensitäten anpassen. Differenzen in den Lichtverhältnissen kompensiert die Pupille durch Verengung oder Erweiterung (Adaption) sowie die Veränderung der Sensitivität der weiter oben beschriebenen Rezeptoren. Im Allgemeinen können 500 verschiedene Helligkeitswerte unterschieden werden, bei einem klassischen TV-Bildschirm sind es immerhin noch 200. Trotz hochentwickelter Technologien sind die Unterschiede zwischen einem künstlichen Display und dem Original in der Natur nach wie vor erheblich – auch wenn die nativen 4K-Auflösungen und die aufblühenden HDR-Technologien dichter dran sind als je zuvor.
Ein weiteres Beispiel für die Vielfalt es Lichtes ist die Polarisation. Das Licht als elektromagnetische Welle ist gleichzeitig eine sogenannte Transversalwelle, deren Amplitude senkrecht zur Ausbreitungsrichtung steht (vgl. Abbildung).
Abbildung 8: Schematische Darstellung einer Transversalwelle
Dabei beschreibt die Polarisation die Richtung der Schwingung. Wenn aus einem Mix verschiedener Polarisationsrichtungen eine bestimmte Richtung herausgefiltert wird, entsteht polarisiertes Licht. In der Natur findet man ein solches Licht bei der Reflexion an metallischen Oberflächen oder bei doppelbrechenden Kristallen. In der Technik (Leinwandprojektoren, Displays) wird sich mit Polarisationsfolien oder -filtern beholfen, um die Intensität der Strahlteilung zu beeinflussen. Praktische Information hierzu finden sich in den Kapiteln „Räumliche Wahrnehmung“ und „Heimkinoprojektoren“.
Jeder Lichtstrahl, der auf das Auge trifft, führt zu einem neuronalen Reiz. Da hierfür mehr Rezeptoren als Neuronen zur Verfügung stehen, kann eine Nervenfaser im Sehnerv (Nervus Opticus) von mehreren Rezeptoren „erregt“ werden. Das heißt, dass jede Nervenzelle (Ganglienzelle) im Sehnerv beziehungsweise jedes Projektionsneuron der Netzhaut gebündelte Informationen aus ungleich vielen Rezeptoren als Impulse an das Gehirn weiterleiten kann (106 Mio. Rezeptoren, 1 Mio. Ganglienzellen). Dieser Vorgang wird als rezeptives Feld bezeichnet, es ist also der Bereich einer Nervenzelle, an die Photorezeptoren ihre Informationen senden.
Wie bereits beschrieben, befinden sich die lichtempfindlichen Stäbchen (Photorezeptoren) außerhalb des Bereiches für das Scharfsehen (Fovea centralis) also mehr im Randbereich der Netzhaut. Die Lichtempfindlichkeit der Stäbchen wird nunmehr durch das rezeptive Feld (Überzahl an Rezeptoren) begünstigt. Dies führt dazu, dass am Rand des menschlichen Sichtfeldes – also aus den Augenwinkeln - schwach beleuchtete aber auch schnell bewegte Objekte zwar relativ unscharf, dafür aber mit einer hohen Bewegungsauflösung wahrgenommen werden können. Ein Grund dafür, warum wir bei einem Röhrenfernseher das Bildflimmern stärker aus dem seitlichen Blickwinkel als bei frontaler Ansicht erkennen können. Die geschwungenen Bildschirme, die unter der Bezeichnung Curved-TV spätestens seit 2015 den Mainstream erobert haben, zielen auf diesen Umstand ab.
Das rezeptive Feld bewirkt allerdings noch weitere Phänomene. Es ist veränderlich und kann sich bei parallel auftretenden Reizen in einen Bereich der Erregung und in einen weiteren Bereich der lateralen Hemmung unterteilen (On-/Off-Zentrum). Das bekannte Hermann-Gitter3 (vgl. Abbildung) veranschaulicht, welche massive neuronale Informationsverarbeitung in unserem visuellen System beim bloßen Anblick eines solchen Gitters ausgelöst wird.
Abbildung 9: Hermann-Gitter
In den Zwischenräumen der schwarzen Quadrate werden weitere graue Vierecke wahrgenommen, die tatsächlich gar nicht vorhanden sind. Fixiert man einen Punkt, so verschwindet hier die Täuschung, bleibt allerdings im übrigen Bereich bestehen. Zu diesem Wahrnehmungseffekt kommt es durch ebenjene Wechselwirkung zwischen Erregung und Hemmung, die die „Feuerrate“ des jeweiligen Neurons erhöht.
Während die Peripherie des rezeptiven Feldes in den Bereich der schwarzen Quadrate fällt, wird diese nur schwach belichtet. Die sogenannte Hemmung ist also gering, die Zwischenräume erscheinen hell. An den Schnittpunkten der hellen Zwischenräume (Kreuzungsstellen) ist mehr Licht in der Peripherie, also eine größere Hemmung vorhanden. Die Kreuzungsstellen erscheinen dunkler und werden von ebenjenen (imaginären) grauen Vierecken überlagert.
Das menschliche Auge ist demnach damit befasst, zwei verschiedene Impulse aufzunehmen und zu verarbeiten. Nach dem französischen Physiker und Mathematiker Jean-Baptiste Joseph Fourier lässt sich ein zweidimensionales Abbild als Funktion der Helligkeit gegen den Ort interpretieren, der sogenannten räumlichen Frequenz oder auch Ortsfrequenz (Formelzeichen k oder R). Örtlich veränderliche Funktionen liefern die Grundlage für wissenschaftliche Erkenntnisse gemäß der Fourier-Optik und nicht zuletzt für die sogenannten Bildkompressionsalgorithmen (beispielsweise JPEG), die in der digitalen Technik unabdingbar sind.
Die Ortsfrequenz bezeichnet in der Wahrnehmungspsychologie die Anzahl der Kanten pro Grad Sehwinkel. Hierbei unterscheidet man die niedrige Ortsfrequenz, bei der Bilder unscharf und flächig wirken (Tiefpass), und Bilder mit hoher Ortsfrequenz (Hochpass), die detailreich und scharf konturiert sind. Dies ist der Grund, warum die in der folgenden Abbildung (links) dargestellten Graukanten an den Übergängen subjektiv schärfer wahrgenommen werden. Ebenso wirkt in der Abbildung (rechts) der graue Kreis vor dem dunklen Hintergrund schärfer beziehungsweise heller als der gleiche Kreis im hellgrauen Rechteck daneben.
Abbildung 10: Graukanten (links) und Simultankontrast (rechts)
Im visuellen System unseres Gehirns (visueller Cortex oder Sehrinde) sind bestimmte Neuronen darauf spezialisiert, die Ortsfrequenz eines Bildes zu analysieren. Das sogenannte „retinotope“ Areal 17 (Area striata) der menschlichen Großhirnrinde ist dafür zuständig, dass nebeneinander abgebildete Punkte auf der Retina (Netzhaut) auch tatsächlich parallel liegen. Die Fovea, als Zentrum des Scharfsehens, ist hier überproportional gefordert.
Abbildung 11: Vertikal verlaufende Streifenmuster
Bei einer optimalen Funktionalität des Auges kann eine Rasterung von bis zu neun Linienpaaren (vgl. Abbildung) pro Grad Sehwinkel erkannt werden. Steigt die Frequenz (also der Wechsel zwischen hellen und dunklen Linien), sinkt der empfundene Kontrast proportional. Bei 36 Linienpaaren pro Grad beträgt dieser nur noch zehn Prozent. Bei Beeinträchtigung der Sehschärfe verschwimmen die Konturen schneller, bei Bewegtbildern können sie ganz verschwinden - z.B. die Speichen bei einem sich drehenden Rad.
Abbildung 12: Siemensstern (www.burosch.de)
Der in obiger Abbildung dargestellte Siemensstern wurde mit einem Tiefpass gefiltert und verfügt über die maximale Ortsfrequenz von zirka 330 Linienpaaren pro Bildhöhe. Die Details in der Mitte des Bildes gehen dabei komplett verloren, während nach außen hin die Kanten breiter wirken.
Die