Medientechnik - Klaus Burosch - E-Book

Medientechnik E-Book

Klaus Burosch

0,0

Beschreibung

In diesem Praxishandbuch erhalten Sie umfangreiche Informationen der Medientechnik angefangen von der Geschichte, den Grundlagen bis zur aktuellen Technik der Gegenwart. Grundlagen des menschlichen Sehens, der analogen Fernsehtechnik, der digitalen Datenübertragung, FullHD, UHD, OLED, 3D, Blu-ray, Sat-IP, HDR, Farbraum, DVB-T2, Streaming, Display Kalibrierung, Testbilder, HbbTV , HDMI, Codec, ITU Rec.709 und 2020, CIE1931, HDR, Testbilder und viele weitere Fachbegriffe werden detailliert erklärt.

Sie lesen das E-Book in den Legimi-Apps auf:

Android
iOS
von Legimi
zertifizierten E-Readern

Seitenzahl: 824

Veröffentlichungsjahr: 2017

Das E-Book (TTS) können Sie hören im Abo „Legimi Premium” in Legimi-Apps auf:

Android
iOS
Bewertungen
0,0
0
0
0
0
0
Mehr Informationen
Mehr Informationen
Legimi prüft nicht, ob Rezensionen von Nutzern stammen, die den betreffenden Titel tatsächlich gekauft oder gelesen/gehört haben. Wir entfernen aber gefälschte Rezensionen.



Herausgeber

Die Firma BUROSCH befasst sich seit ihrer Gründung im Jahre 1948 mit der Audio- und Videotechnik und spezialisierte sich im Laufe der Zeit auf die Entwicklung von Messgeräten für die Unterhaltungselektronik. Heute ist die Firma BUROSCH Marktführer in Bezug auf Referenz-Testsequenzen für die Bildoptimierung sowie TV- und Beamer-Bildanalyse. Im Auftrag verschiedener Hersteller (z.B. Panasonic) bestimmt das unabhängige BUROSCH-TV-Testlabor die Bildqualität der neuesten Fernsehgeräte, arbeitet an deren Entwicklung mit, bietet professionelle Kalibrierung und ermittelt mithilfe standardisierter PSNR-und SSIM-Verfahren die Qualität eingesetzter Codecs sowie Spezifikationen. Darüber hinaus berufen sich namhafte Fachzeitschriften bei ihren vergleichenden Warentests auf die BUROSCH-Testbilder. Und auch renommierte Forschungsinstitute gehören selbstverständlich zu den BUROSCH-Partnern.

Der Leser profitiert also vom umfassenden Know-how und den einzigartigen Synergieeffekten, die auf langjährigen Erfahrungen sowie erfolgreichen Kooperationen mit Industrie und Forschung basieren.

Abbildung 1: Klaus Burosch

Als Initiator und Herausgeber dieses Buches bedanke ich mich für die hervorragende Zusammenarbeit mit allen Beteiligten, Kollegen und Mitarbeitern. Ein ganz besonderer Dank gilt meinen beiden Söhnen Steffen und Andreas Burosch für ihre tatkräftige Unterstützung.

Mit freundlicher Empfehlung

Klaus Burosch, im August 2016

Inhaltsverzeichnis

Herausgeber

Vorwort

Technik-Essay von Konrad L. Maul

Die Chronologie des Fernsehens

19. Jahrhundert

20. Jahrhundert

21. Jahrhundert

Grundlagen der Wahrnehmung

Das menschliche Auge

Aufbau

Photorezeptoren und Netzhaut

Adaption

Akkomodation

Sehnerv

Fovea centralis

Das Licht: mehr als elektromagnetische Wellen

Reflexion und Remission

Polarisation

Kontrast und Schärfe

Kontrast

Ortsfrequenz

Sehschärfe

Räumliche Wahrnehmung (3D)

Gesichtsfeld

Parallaxe

3D-Sickness

Pulfrich-Effekt

Shutterbrillen

Polfilterbrille

Farbfilterbrillen (Anaglyphen-Verfahren)

Farbwahrnehmung

Farbbegriffe

Farbfrequenzen und -wellenlängen

Additive und subtraktive Farbmischung

Farbtemperaturen

Absorptionsspektren

Photorezeptormosaik

Rot-Grün-Blindheit (Anopia)

Grundlagen der Fernsehtechnik

Bildübertragung

Kathodenstrahl/Elektronenstrahl

Elektronenröhre (Kathodenstrahlröhre)

Aufbau

Strahlablenkung

Comeback der Bildröhre?

Farbbildwiedergabe

Loch- und Schlitzmaskenröhre

Delta-Farbbildröhre (Lochmaske)

Inline-Farbbildröhre (Schlitzmaske)

Trinitron-Röhre

Bildaufbau

Bildrate/-frequenzen (24 bis 120 Hz)

Kino

Fernsehen

Bildabtastung

Zeilensprung-/Halbbildverfahren (Interlaced Scan)

Zeilensprung-Artefakte

Progressive Abtastung (Vollbildverfahren)

De-Interlacing

Pulldown

Weave

Gamma-Korrektur

Bewegungsunschärfe

Local Dimming

Abbildungsfehler

Klötzchenbildung

Banding/Clouding

Blooming

Flashlights

Dirty-Screen-Effect (DSE)

Crosstalk/Ghosting

Soap-Effect

Halo-Effekt

Tipps zur Fehlerbehebung

Videoauflösungen

Zeitliche/räumliche Auflösung

Skalierung

Native Auflösung

Pixeldichte

Betrachtungsabstand - Was ist dran?

Farbräume und photometrische Größen

Helligkeits-Farbigkeits-Farbmodelle

Photometrische Größen und Einheiten

Farbtemperatur

Normvalenzsysteme (CIE 1931/1964)

Farbräume und Farbmodelle

ITU-R-Empfehlung BT.709 (Rec.709)

ITU-R-Empfehlung BT.2020 (Rec.2020)

Video-/Auflösungsstandards

Standard Definition (SD)

High Definition (HDTV)

Full HD (1920 × 1080 Pixel)

UHD-1: Ultra HD (3840 × 2160 Pixel)

UHD-2: 8K (7680 × 4320 Pixel)

4K Cinema (4096 × 2160 Pixel)

Fernsehnormen

Kalibrierung und Messinstrumente

Unbunt- oder Weißabgleich

Wave-Form-Monitor (WFM)

Vektorskop

Testbilder

Testbild-Generator

Test-Labor: professionelle Kalibrierung

Analoge Fernsehsignalübertragung

Das monochrome Video-Signal

BAS-Signal

Das Chrominanz-Signal (Farbsignalcodierung)

FBAS-Signal

Weitere Farbvideosignale

Farbsignalhierarchie

Farbfernsehsysteme

NTSC-Verfahren

PAL-Verfahren

SECAM

Die Begriffe PAL und NTSC im Digitalfernsehen

Modulation und Synchronisation

Multiburst

Cross-Color-/Cross-Luminance (Signalübersprechen)

Color-Plus-Verfahren/Intra Frame Averaging

Analoge Übertragungsverfahren

Analoge Videoanschlüsse

Grundlagen des Digitalfernsehens

Geschichte der TV-Digitalisierung

Grundbegriffe der Digitaltechnik

Bit/Byte

Bit Error Ratio (BER)

Codec

Container

Chroma Subsampling/Farbunterabtastung

Multiplexverfahren

Videokompressionsverfahren

Digitalisierung

Diskretisierung

Quantisierung

Codieren/Decodieren

AVC/H.264

HEVC/H.265

Digitale Videosignale

Video-Schnittstellen (Interfaces)

SDI

DVI

HDMI

Video- und Bildformate

MPEG

JPEG

Digital Video Broadcasting (DVB)

DVB-S/DVB-S2 (Satellitenkanal/ETS 300 421)

DVB-C/DVB-C2 (Kabelkanal/ETS 300 429)

DVB-T/DVB-T2 (Terrestrischer Kanal/ETS 300 744)

freenet.tv

DVB-Spezifikationen

DVB-IPTV (TV over IP)

DVB-GEM/MHP

MHP (DVB-J/DVB-HTML)

DVB-H (Mobil)

Praxis der modernen Fernsehtechnik

Mobiles Fernsehen

Handy-TV per UMTS

DMB: TV goes mobile

DVB-SH

DVB-T für Android und Apple

TV over IP/IPTV

Triple-Play

IPTV (DSL + Kabel)

02 TV & Video – kein IPTV, dafür live via App + AirPlay

Telekom IPTV: Magenta

Fernsehen mit 1&1 DSL

Fritz!Box 6490 Cable

IPTV via Satellit/SAT over IP

Quadplay/All in One

(K)ein Ende der Grundverschlüsselung?

IPTV Deutschland GmbH

HbbTV – mehr als nur IPTV

Red-Button

Blue-Button

TV-Mediatheken

Video-on-Demand

Netflix

Amazon Instant Video

Watchever

Maxdome

Web-TV per Live-Stream

Zattoo

Magine TV

Weitere TV-Apps

dailymeTV

Couchfunk/Live-TV

AIIMyTV

Apps der TV-Sender

Red Bull TV

Streaming-Boxen

Apple-TV (Airplay)

Android-TV

Google Chromecast

Google Nexus Player

NVIDIA SHIELD

Amazon Fire TV

Das richtige Netz(werk)

Internet

Netzwerkverbindungen

LAN (Ethernet)

Power-LAN (Powerline)

WPAN (Bluetooth)

WLAN (WiFi)

Übertragungswege

DSL/VDSL

Glasfaser

LTE (4G)

Powerline Access

Netze der Zukunft

Internet via Satellit

Internet via Kabel

All-IP (Quad Play)

Router & Co.

Betriebssysteme für Smart-TVs

webOS 2.0/3.0

Android-TV

Tizen für Samsung

Bildwiedergabesysteme NEXT GENERATION

Video-Features der Zukunft

Ultra HD/UHD/4K

BT.2020: Der lange Weg zum erweiterten Farbraum

HDR

Probleme bei der Kompatibilität

Probleme zwischen Aufnahme und Wiedergabe

Tonemapping

HDR-Übertragungsmethoden

Metadaten

HDR-Systeme und ihre verschiedenen Ansätze

HD+ (Samsung)

HDR-10 vs. Dolby Vision

Videomaterial mit HDR

Amazon und Netflix setzen auf Dolby Vision

HDR nur mit dem richtigen Kabel

Ultra HD Premium™

Praxistest zum Zertifikat

Weitere Gütesiegel für 4K/Ultra HD

Streaming in Ultra HD und 8K

Upscaling & Co

UHD Deep Color

UHD/HDR-Demokanäle

Display-Technologien

Plasma

LCD/LED

LED-Backlight-Technologien im Vergleich

OLED

OLED vs. LED/LCD & Co

Beleuchtung

Farbbrillanz

Kontrast

Lebensdauer

Einbrennen

3D-Darstellung

Bewegungsdarstellung

QLED/Quantum Dots

QLED vs. OLED

TV-Bildschirme

4K-OLEDs + HDR

HDR + QLED

UHD-Standard für wenig Geld

ULED

Curved-TV

Ambilight

Extra dünn

Video-Equipment

UHD-Standards bei Schnittstellen

4K/UHD-Blu-ray-Player + HDR

Blu-ray vs. Streaming (4K/HDR)

Tuner/Receiver & Co

Integrierte Tuner

Externe Tuner

Tuner plus SAT-IP-Client

AV-Receiver

SAT-Receiver inklusive 4K + HDR

PS4 PRO mit 4K/HDR-Content

UHD/4K-Streaming - Boxen

Soundbars/Audio-Systeme

Heimkino: Beamer/Leinwände

LCD-Technologie

DLP/LED-Technologie

SXRD-Technologie

D-ILA-Technologie

Wichtige Parameter

Leinwände

Virtual Reality

Professionelle Bildeinstellungen

Drei Gründe für schlechte Bildqualität

Hintergründe der Werkseinstellungen

Vier Methoden zur Bildoptimierung

Sechs Schritte zur Bildoptimierung

Die richtigen Menüeinstellungen

Blue-Only

Die professionelle Kalibrierung

Kalibrierung mit Lichtsensoren

Display- und Beamer-Tuning

Was bedeutet Bildoptimierung zu Hause?

Standardwerte

Basis der Bildoptimierung

Grundmerkmale der Bildanalyse

Was bedeutet Bildoptimierung?

Vorbereitung der Bildoptimierung

Alles auf einen Blick

Testbilder von BUROSCH

Einsatzgebiete

5 Kategorien der BUROSCH-Testbilder

Basic-TestbiIder

Basic-Testbild Nr. 1: Bildformat/Overscan

Basic-Testbild Nr. 2: Helligkeit

Basic-Testbild Nr. 3: Kontrast

Basic-Testbild Nr. 4: Farbe

Basic-Testbild Nr. 5: Bildschärfe

Universal-Testbilder

Universal-Testbild: „First Check“

Universal-Testbild: "Ladies" Version 1 (2013)

Universal-Testbild „Ladies“ Version 2 (2016)

Universal-Testbild „Divas“ inklusive Audiotestsequen

Universal-Testbild „AVEC“ für Bild und Ton

Statische Testbilder zur Feineinstellung

Testbild: “Display Banding/Clouding”

Testbild "BCC"

Testbild: „Crosstalk/Ghosting“

Dynamische Testsequenzen

Realtestbilder zur Gegenkontrolle

Realtestbild "Woman"

Realbild "Stuttgarter Bibliothek"

Realbild "Santorin"

BUROSCH-Testbilder in der Praxis

Schritt 1: Die richtige Vorbereitung

Schritt 2: Die richtige Reihenfolge

Schritt 3: Die richtige Anwendung

Schritt 4: Die richtige Feineinstellung

Schritt 5: Die richtige Kontrolle

Tipps & Tricks

Hintergründe der vergleichenden Warentests

Synergien und Know-how

Fachzeitschriften/Praxis-Bewertungen

Hersteller/Industrie

Forschung/Entwicklung

Workshops

Ein Tipp zum Schluss

Häufig gestellte Fragen (FAQ)

HDTV & Fernsehstandards

Bildformate & Auflösung

Wiedergabegeräte & Anschlüsse

Technik und Grundbegriffe

Multimedia

Stichwortverzeichnis (Index)

Vorwort

„Der Fortschritt geschieht heute so schnell, dass, während jemand eine Sache für gänzlich undurchführbar erklärt, er von einem anderen unterbrochen wird, der sie schon realisiert hat.“

Albert Einstein

Ob der Genius des 20. Jahrhunderts bereits seinerzeit geahnt hat, was in punkto Unterhaltungselektronik Großartiges und Vielfältiges entstehen würde? Für uns heißt es heute nicht selten: „Glotze an – Alltag raus!“ oder wir schauen unterwegs die aktuelle Folge unserer Lieblingsserie im Bus oder Zug. Doch wie kommt das Video der letzten Familienfeier auf die Beamerleinwand, der neueste Blockbuster per Stream auf den TV-Bildschirm oder der aktuelle Podcast auf das Display unseres Smartphones?

Fernsehen ist nicht mehr nur „Der Alte“ zur selben Zeit, am selben Ort. Heute können wir immer und überall mithilfe modernster Multimediatechnik unterhalten und informiert werden. Der Empfang von Filmmaterial aus fast einhundert Jahren ist kinderleicht und auf diversen Wegen möglich. Deshalb lässt sich das Fernsehen nicht in eine einzige Schublade pressen, es ist ein Teil der Mediengeschichte, die aus vielen Bereichen der Funk-, Film-, Hörfunk-, Telekommunikations- und Raumfahrttechnik aber auch des gesellschaftlichen und sogar politischen Wandels besteht. Was auf dem Papier anno 1880 mit einer Idee zur seriellen Bildübertragung begann und letztlich in den 1930er Jahren mit der Kathodenstrahlröhre von Ferdinand Braun und Manfred von Ardenne erstmalig realisiert wurde, ist heute im Jahre 2016 eine Selbstverständlichkeit.

Bereits Mitte des 20. Jahrhunderts entstand ein Massenmarkt, der sich bis heute unaufhaltsam entwickelt. Immer größer, kompakter, schneller, brillanter werden die stationären und mobilen Endgeräte zur Bildwiedergabe. TV-Geräte entwickelten sich von klobigen Mattscheiben zu eleganten Displays mit präziser Nanotechnologie - von superschlank bis gebogen, mit Full HD oder nativer UHD-Auflösung (Ultra HD), einzigartigen Farben und einem nie da gewesenen Kontrast, stationär oder mobil. Der klassische TV-Apparat hat ausgedient, Fernsehen ist heute viel mehr: Entertainer, Ratgeber, Seelsorger, Babysitter, Mentor, Ideengeber, Trendsetter und die Schnittstelle zu einer globalisierten Welt.

Dieses Buch erzählt die Geschichte des Fernsehens von den Anfängen bis zur Gegenwart. Es vermittelt Grundlagen über die menschliche Wahrnehmung, die Farbmetrik, Farbraummodelle, Bildauflösungen und Videoformate sowie technische Hintergründe zum analogen und digitalen Fernsehen, der Videosignalübertragung, diversen Kompressionsverfahren, zur Kalibrierung beziehungsweise Bildoptimierung und erläutert darüber hinaus wichtige Standards in Bezug auf DVB, HDMI, HEVC und das CIE-Normvalenzsystem. Während viele Bücher hier enden, beleuchtet dieses Praxishandbuch die Video-Features der Gegenwart und damit aktuelle Bildwiedergabetechnologien im Zusammenhang mit OLED, Quantum Dots, HDR oder aber Curved-TV und beantwortet zahlreiche Fragen rund um das Thema Multimedia.

Die Firma BUROSCH arbeitet mit diversen Forschungseinrichtungen, namhaften Herstellern sowie verschiedenen Warentestern zusammen, wobei jeder einzelne Partner von diesem einzigartigen Netzwerk partizipiert. Im Besonderen sei hier die technische Fakultät der Hochschule Pforzheim und Professor Blankenbach zu nennen, der verantwortlich ist für die Vertiefungsrichtung Displaytechnik im Studiengang Elektrotechnik. Im Bereich der Messtechnik entwickelte BUROSCH seinen neuen Lichtsensor gemeinsam mit Professor Seelmann und Professor Dittmar der Hochschule Aalen.

In der Praxis arbeitet BUROSCH mit zahlreichen Fachzeitschriften zusammen, die auf Basis der BUROSCH-Testbilder ihre vergleichenden Warentests durchführen; hierzu zählen unter anderem HDTV, CHIP, c’t, SATVISION, AUDIO VIDEO FOTO BILD, audiovision oder auch sat+kabel. Weitere Auftraggeber von BUROSCH sind neben der European Broadcast Union in Genf oder dem Instituts für Rundfunktechnik in München selbstverständlich in der Industrie zu finden. Weltweit kommt hier das BUROSCH-Know-how zum Einsatz, wenn es beispielsweise darum geht, im Shoot Out herauszufinden, welcher Hersteller das beste Display bietet und wie die Bildwiedergabe optimiert werden kann. Wer also einen Fernseher, Monitor oder Beamer von Sony, Panasonic, Samsung, LG, Changhong etc. kauft, der kann darauf vertrauen, dass die Qualitätskontrolle mit BUROSCH-Testbildern durchgeführt wurde.

Auf Basis dieser exklusiven Kooperation kann letztlich jeder Kunde, Anwender sowie Leser dieses Buches die hervorragende Sachkenntnis, das umfassende Praxiswissen sowie die daraus resultierende Präzision und Professionalität der BUROSCH-Messtechnik nutzen.

„Medientechnik - Grundlagen. Geschichte. Gegenwart.“ ist ein praktisches Gemeinschaftswerk der Firma BUROSCH. An der Erstellung beteiligten sich zahlreiche Fachleute, die sich nicht zuletzt auf diesem Wege für die langjährige Zusammenarbeit mit BUROSCH bedanken wollen. Zu ihnen gehört einer der erfahrensten und profiliertesten TV-Entwickler Deutschlands. Konrad L. Maul war es eine Ehre, das Technik-Essay für dieses Buch zu schreiben. Er war 37 Jahre in der Fernsehentwicklung tätig und leitete unter anderem das Entwicklungsteam für das erste 100-Hertz-Gerät der Firma Grundig.

Abbildung 2: Andreas Burosch, Steffen Burosch und Klaus Burosch, High End München 2015

Technik-Essay von Konrad L. Maul

Das erste deutsche Fernsehpatent von Paul Nipkow

„Der hier zu beschreibende Apparat hat den Zweck, ein am Orte A befindliches Objekt an einem beliebigen anderen Orte B sichtbar zu machen“, sind die einleitenden Worte in Paul Nipkows Patentschrift von 1885 mit dem Titel „Elektrisches Teleskop“. Ein wahrer Geniestreich, wie wir im Folgenden noch sehen werden. Und da sich 2015 der Start des weltweit ersten regulären Fernsehprogramms zum achtzigsten Mal jährt, soll es der Anlass sein, diese Schlüsselerfindung näher in Augenschein zu nehmen.

Paul Nipkow (1860-1940) Fernsehpionier

Paul Nipkow wurde als Sohn eines Bäckermeisters 1860 in Lauenburg (Pommern) geboren. Er besuchte das Gymnasium und interessierte sich schon früh für Naturwissenschaften und Technik. Und wie es bei vielen jungen Menschen der Fall ist, die später Technik und Ingenieurwissenschaften als ihre Berufung erleben, hatte auch der junge Nipkow Freude am Experimentieren. In seinem Heimatort wurde zu dieser Zeit im Postamt eine Fernsprechstelle eingerichtet, damals eine technische Sensation. Er überredete den zuständigen Postbeamten, den er gut kannte, ihm den Bell-Telefonhörer der Sprechstelle über Nacht zu leihen. Er baute ein Mikrophon dazu und stellte mit dieser einfachen Telefonverbindung Versuche an.

Nach dem Schulabschluss ging Paul Nipkow zum Studium nach Berlin. Er studierte Mathematik, Physik und hörte auch Vorlesungen über Elektrotechnik. Am Heiligabend 1883 soll er, so sagt jedenfalls die Anekdote, dann sein Heureka-Erlebnis gehabt haben. Eine Fahrt nach Hause zu seiner Familie konnte er sich mit seinem spärlichen Budget nicht leisten. Also saß er alleine in seiner Studentenbude und sah durch das Fenster die brennenden Kerzen an den Weihnachtsbäumen in der Nachbarschaft. Er fühlte sich einsam. Da soll ihm der Gedanke gekommen sein, welche phantastische Möglichkeit es wäre, zumindest mittels eines „Telephons für Bilder“ am Geschehen zu Hause teilnehmen zu können und er erdachte ein vollkommen neues Prinzip der Bildzerlegung und des Bildaufbaus.

Bevor wir uns aber Paul Nipkows Erfindung näher ansehen, werfen wir zunächst einen Blick auf die technischen Erkenntnisse und Grundsatzüberlegungen, die ihm seinerzeit zur Verfügung standen.

Der englische Elektroingenieur Willoughby Smith hatte 1873 Messergebnisse an Stäben aus kristallinem Selen unter Lichteinwirkung veröffentlicht. Er gilt damit als Entdecker des Photowiderstandes. Ein Bauelement war gefunden, das Lichtwerte in entsprechende elektrische Stromwerte umwandeln konnte. „Warum nicht diese neue Selenzelle zur Übertragung eines realen Bildes über eine Telegraphenleitung verwenden?“, dachte sich der französische Notar und Erfinder Constantin Senlecq. Er veröffentlichte 1881 das erste Buch in der Weltgeschichte über Fernsehen „Le Télectroscope“. Senlecq war nicht der Einzige, der das Prinzip vorschlug, ein Bild in Bildpunkte zu zerlegen, deren Helligkeitswerte in elektrische Ströme zu wandeln, diese nacheinander auf einer Telegraphenleitung zu übertragen, um sie dann auf der Empfangsseite wieder zusammenzusetzen. Aber gemeinsam war allen Überlegungen zu dieser Zeit, dass die vorgeschlagenen Konzepte der Bildabtastung technisch nicht umsetzbar seien.

Paul Nipkow zögerte nicht lange und reichte sein Fernsehsystem „Elektrisches Teleskop“ schon nach den Weihnachtsfeiertagen am 6. Januar 1884 zur Patentierung beim Kaiserlichen Patentamt ein. Die Patentierung erfolgte dann am 15. Januar 1885 (siehe Abbildung 2). Die Ausgestaltung der Erfindung zeigt Abbildung 3 anhand von drei Zeichnungen.

Erstes deutsches Fernsehpatent von Paul Nipkow; Ausgestaltung der Erfindung anhand von drei Zeichnungen

Zum leichteren Verständnis der Beschreibung wurden die Originalzeichnungen des Patentes in zwei Prinzipzeichnungen (Abbildung 4 und 5) umgeformt.

Beginnen wir mit der Nipkow-Scheibe selbst: Nipkow schlägt vor, entlang einer Spirallinie in gleichmäßigen Abständen Bohrungen anzubringen, in seinem Ausführungsbeispiel sind es 24. Mittels eines Uhrwerks wird die Scheibe in gleichmäßige Umdrehungen versetzt. Die Scheibe dreht sich vor dem zu übertragenden Objekt, in unserem Beispiel der Einfachheit halber die Zeichnung des Buchstabens A. Hinter der Scheibe befindet sich eine Blende, die hier rechteckförmig gezeichnet ist. Paul Nipkow hatte eine rohrförmige Konstruktion gewählt, die einen kreisförmigen Bildausschnitt geliefert hätte. Wenn wir nun von vorne auf die Scheibe sehen, gibt diese jeweils nur den Bereich der Vorlage frei, der durch eine Bohrung zu sehen ist. Die Abstände der Bohrungen sind so gewählt, dass wenn eine Bohrung den linken Rand des Blendenfensters erreicht, die nächste Öffnung am rechten Rand des Blendenfensters erscheint.

Prinzipzeichnung des Patents: Nipkow-Scheibe mit 24 Öffnungen; Funktionsprinzip der Bildabtastung

Der rot markierte Kreisbogen in Abbildung 4 beschreibt den Weg der roten Öffnung und entspricht damit quasi einer Abtastzeile des Nipkow’schen Fernsehsystems. Wenn Öffnung 24 den linken Blendenrand erreicht, hat die Scheibe eine ganze Umdrehung durchgeführt und damit ein ganzes Bild mit 24 Zeilen abgetastet. Die Bildabtastung beginnt mit der nächsten Umdrehung für das nächste Bild wieder von vorne. Für die Übertragung muss nun der Helligkeitswert jedes Bildpunktes, den die jeweiligen Scheibenöffnungen freigeben, in einen elektrischen Wert umgewandelt werden. Dazu sieht Paul Nipkow an der Stelle, auf der wir in der Prinzipskizze auf die Scheibe geblickt haben, einen Selenwiderstand vor. Dieser setzt nun die Punkthelligkeit in einen Widerstandswert um.

In Abbildung 5 ist links der prinzipielle Aufbau der Sendestation zu sehen. Der Photowiderstand ist über eine Batterie mit den beiden Drähten der Fernleitung verbunden.

Prinzipzeichnung des Patents: Aufbau der Sende- und Empfangsstation

Auf der rechten Seite zeigt Abbildung 5 den Aufbau von Nipkows Empfangsstation. Hier verwendet er eine mit der Senderseite baugleiche Nipkow-Scheibe, die ebenfalls von einem Uhrwerk angetrieben wird und sie so synchron zur Sendestation in gleichmäßige Umdrehungen versetzt. Auf der Empfängerseite müssen nun die auf der Senderseite durch die Abtastung erhaltenen Widerstandswerte wieder in Helligkeitswerte der einzelnen Bildpunkte umgewandelt werden.

Die zur Zeit der Patentanmeldung vorhandenen elektrischen Lichtquellen waren die Kohlebogenlampe und die von Edison 1879 zum Patent eingereichte Kohlefadenglühlampe. Beide waren für die direkte Umwandlung der schnellen Helligkeitswechsel, die Nipkows elektromechanisches Verfahren erfordert, nicht geeignet. Deswegen griff er auf den von Michael Faraday 1846 entdeckten Effekt der Polarisationsdrehung des Lichts zurück. Dabei wird die Polarisationsebene eines Lichtstrahls, der in ein durchsichtiges Medium geleitet wird, durch ein Magnetfeld längs dieses Mediums gedreht.

Abbildung 5 zeigt die von Paul Nipkow vorgeschlagene Anordnung, die später auch als „Lichtrelais“ bezeichnet wurde. Dieses besteht aus einem Glasstab um den Drahtwindungen gelegt werden. Vor und hinter dem Stab sind Nicol’sche Prismen angebracht. Ein Nicol’sches Prisma besteht aus zwei mit speziellem Klebemittel aneinandergefügten Prismen. Es hat die Eigenschaft, den eingehenden Lichtstrahl einer Lichtquelle zu polarisieren, sodass am Ausgang der Lichtstrahl nur mehr eine Schwingungsebene aufweist.

Nipkow gibt an, dass die beiden Nicol’schen Prismen so gegeneinander zu verdrehen sind, dass das Licht der Lichtquelle nicht mehr am Ausgang des „Lichtrelais“ erscheint. Die Polarisationsebenen der beiden Nicol’schen Prismen stehen dann senkrecht zueinander. Wird nun Strom durch die Spule geschickt, dreht sich nach dem Faraday-Effekt die Polarisationsebene des Lichtstrahls beim Durchlaufen des Glasstabs, und diese steht nicht mehr senkrecht zur Polarisationsebene des Nicol’schen Prismas am Ausgang. Licht kann also passieren. Mit der Stärke des Stromes lässt sich der Winkel der Polarisationsdrehung und somit die Helligkeit steuern. Die Spule des „Lichtrelais“ verbindet Nipkow mit den beiden Drähten der Fernleitung.

Sehen wir uns nun das Zusammenwirken der Sende- und Empfangsstation an. Die jeweilige Punkthelligkeit wird durch den Selenwiderstand in einen analogen Widerstandswert umgesetzt. Die Batterie treibt einen dem Widerstandswert entsprechenden Strom durch die Spule des „Lichtrelais“, und demgemäß stellt sich die Helligkeit am Ausgang des „Lichtrelais“ ein. Das Auge und das Gehirn des Beobachters vor der sich drehenden Nipkow-Scheibe des Empfängers setzt aus den einzelnen übertragenen Bildpunkthelligkeiten wieder den Buchstaben A der Vorlage zusammen.

Paul Nipkow hat in seiner Patentschrift noch weitere Ausführungsformen für sein „Lichtrelais“ beschrieben, die aber für die Bildübertragung nicht geeignet sind. Weiterhin gibt Nipkow folgenden Ausführungshinweis, den er mit Annahmen zum Sehsystem begründet: Das Auge empfände einen momentanen Lichteindruck 0,1 bis 0,5 Sekunden lang. Ein einheitliches Bild ergäbe sich mit seinem „Elektrischen Teleskop“, wenn beide Scheiben in 0,1 Sekunden eine Umdrehung vollenden würden. Sein System liefert demnach zehn Bilder in der Sekunde. Paul Nipkow hat also die „Trägheit“ des Sehsystems schon zur Wirkungsweise angeführt - und dies vor Erfindung der Filmkamera und des Filmprojektors durch Le Prince (1888) und Edison (1890-1891).

Ob Paul Nipkow versucht hat, sein „Elektrisches Teleskop“ praktisch zu erproben, ist nicht bekannt. Man geht davon aus, dass er es nicht getan hat. Die Frage ist natürlich, ob 1884 ein Aufbau nach seinen Prinzipzeichnungen überhaupt funktioniert hätte.

Die Antwort ist leider „nein“, und zwar aus folgenden Gründen:

Der verwendete Selenwiderstand wäre zu träge gewesen, um die Bildpunkthelligkeiten umzusetzen.

Das auf dem Faraday-Effekt beruhende „Lichtrelais“ hätte für die Drehung der Polarisation so hohe Ströme benötigt, dass sie allein mit einem Selenwiderstand nicht hätten erzeugt werden können.

Die Selbstinduktion der Spule des „Lichtrelais“ hätte die für die Bildübertragung erforderlichen schnellen Änderungen des Stromes nicht zugelassen.

Die Synchronisation der beiden Scheibenantriebe war nicht gelöst.

Paul Nipkow ließ 1886 sein Patent aus Geldmangel erlöschen. Andere Quellen besagen, dass es erst nach 15 Jahren verfiel. Für ersteres spricht, dass er ebenfalls aus Geldmangel sein Studium 1885 abbrach und sich als "Einjährig Freiwilliger" bei einem Eisenbahnregiment verpflichtete. Danach arbeitete er als Konstrukteur bei der Zimmermann & Buchloh-Eisenbahnsignalbauanstalt. In dieser Tätigkeit hat er noch zahlreiche Erfindungen im Eisenbahnbereich gemacht.

Um elektromechanisches Fernsehen nach Paul Nipkows Vorstellungen zu verwirklichen, mussten noch einige Schlüsselbausteine erfunden werden, hauptsächlich die Fotozelle durch Hallwachs, Elster und Geitel (ab 1887), die Verstärkerröhre durch Robert von Lieben und Lee de Forest (1906) und die Flächenglimmlampe durch Mac F. Moore (ab 1900). 1924, also 40 Jahre nach Einreichung des Patents von Paul Nipkow, gelang dem schottischen Erfinder John Logie Baird die erste Übertragung von Bildern mit Nipkow-Scheiben. Die erste deutsche Fernsehübertragung demonstrierte Professor August Karolus ebenfalls 1924. Sein System hatte 48 Zeilen.

Der erste deutsche Fernsehsender in Berlin Witzleben (Funkturm auf dem Messegelände) wurde 1935 zu Ehren Paul Nipkows in „Sender Paul Nipkow“ umbenannt. Und am 22. März 1935 wurde über diesen Sender das erste reguläre Fernsehprogramm gestartet. Inzwischen hatte zwar das elektronische Fernsehen Fortschritte gemacht, aber aufgrund des Zeitdrucks wurde der Betrieb noch mit elektromechanischer Abtastung auf der Aufnahmeseite aber schon mit vollelektronischer Wiedergabe gestartet. Die Zeilenzahl betrug jetzt 180 Zeilen.

Es gab nur sehr wenige Empfänger, sodass öffentliche Fernsehstuben eingerichtet wurden, in denen sich viele begeisterte Zuschauer drängten, um zum ersten Mal Fernsehen erleben zu können. Es wird berichtet, dass auch Paul Nipkow zu dieser Zeit zum ersten Mal nach seinem System übertragene Fernsehbilder sah und dass er enttäuscht gewesen sei. Die Fernsehbilder in seiner Phantasie an jenem Heiligabend 1883 waren wohl der Zeit weit voraus gewesen. Berechnet man nämlich aus den Angaben in seinem Patent - also 24 Bildzeilen und kreisförmiges Bildformat - die Bildpunktzahl, ergeben sich nur ca. 576 Bildpunkte.

Aber die Entwicklung ging weiter. Was würde Paul Nipkow wohl sagen, wenn er heute UHD-Fernsehbilder mit über 8 Millionen Bildpunkten in Farbe sehen könnte. Dazu besteht jeder dieser Bildpunkte des LC-Displays des Fernsehgerätes aus einem Subpixel für Rot, Grün und Blau. Erfreut könnte er feststellen, dass für jedes dieser Subpixel ein „Lichtrelais“ eingebaut ist. Mit zwei Polarisationsfiltern und dazwischen Flüssigkristalle, die die Polarisationsebene in Abhängigkeit der angelegten Spannung verändern und somit die Pixelhelligkeit steuern.

Konrad L. Maul, Dipl.-Ing. (FH) war 37 Jahre in der Fernsehentwicklung tätig, davon 30 Jahre in leitender Position. Als Gruppenleiter war er für das erste 100-Hertz- TV-Gerät verantwortlich. Von 2001 bis 2008 leitete er die Fernsehentwicklung von Grundig. Damit ist er einer der erfahrensten und profiliertesten TV-Entwickler Deutschlands.

Die Chronologie des Fernsehens

„Es ist schwer zu sagen, was unmöglich ist, denn der Traum von gestern ist die Hoffnung von heute und die Wirklichkeit von morgen.“

Robert Goddard

Vor etwa achtzig Jahren erkannte der amerikanische Wissenschaftler, was auch heute noch Gültigkeit besitzt. Was wäre schließlich die Welt ohne Visionen, Wagnisse und Utopien? Und ist nicht genau aus diesem Grunde der Großteil dessen, was einst als Träumerei abgetan wurde, heute Realität?

Hätte es nicht von je her Menschen gegeben, die sich mit dem Unmöglichen auseinandersetzen, müssten wir heute auf viele Annehmlichkeiten verzichten. Und doch stellen wir uns im Angesicht der Schnelllebigkeit des 21. Jahrhunderts Fragen, wie: Was soll uns der technische Fortschritt noch bringen? Ist denn nicht schon alles erfunden? Wer braucht 8K-Auflösungen oder so rasante Bildwechselfrequenzen, die unsere Wahrnehmung sowieso nicht mehr erfassen kann? Reicht das Kabel- oder Satellitenfernsehen nicht aus? Wozu AII-IP? Und vor allem: Was kommt danach?

Um die Gegenwart respektieren und die gigantischen Möglichkeiten der Zukunft erkennen zu können, ist der Blick in die Vergangenheit schon immer eine gute Wahl gewesen. Deshalb soll im Folgenden die Geschichte des Fernsehens beziehungsweise der Medientechnik im Allgemeinen in einem Schnelldurchlauf dargestellt werden. Es ist die Zeitreise durch über einhundert Jahre Forschung und Wissenschaft sowie eines strukturellen Wandels in Gesellschaft, Wirtschaft und Kultur – bis hin zur aktuellen Vielfalt, Schönheit und Brillanz der modernen Unterhaltungselektronik, deren Entwicklung noch längst nicht als abgeschlossen gilt.

19. Jahrhundert

1843

Alexander Bain schafft mit der Patentierung seines Faxgerätes die Grundlagen für die Bildzerlegung.

1883

Paul Nipkow erfindet das elektrische Teleskop: die Nipkow-Scheibe zur optisch-mechanischen Bildabtastung, die zur Bildzerlegung für das Fernsehen bis Anfang der 1930er Jahre genutzt wurde.

1889

Alexander Stoletow entdeckt die Photozellen (Elektronenröhren)

1897

Ferdinand Braun entwickelt gemeinsam mit Jonathan Zenneck die Kathodenstrahlröhre (Braunsche Röhre) - die Grundlage zur Bilddarstellung für das Fernsehen.

20. Jahrhundert

1900

Konstantin Perski prägt das Wort „Television“ auf der Pariser Weltausstellung.

1906

Max Dieckmann (Schüler von Karl Ferdinand Braun) erzeugt das erste elektronische Fernsehbild in Deutschland. Es hat eine Auflösung von 20 Zeilen mit 10 Bildern pro Sekunde Gemeinsam mit G. Glage benutzen sie die Braurïsche Röhre zur Wiedergabe von Schwarzweiß-Bildern - die erste brauchbare Methode zur elektronischen Bildwiedergabe.

 

Boris Rosing schafft Schattenrisse auf Elektronenstrahlröhren.

1907

Das erste Fernsehbild wird übertragen und empfangen.

1909

Ernst Ruhmer überträgt mithilfe von 25 Selenzellen das Bild eines Kreuzes auf eine Glühlampentafel.

1914

Dénes von Mihály arbeitet im Auftrag des österreichischen Kriegsministeriums an einem Fernsehsystem zur militärischen Aufklärung (Telehor).

1922

Gründung des Radiosenders BBC (British Broadcasting Corporation).

1923

Wladimir Sworykin baut die Ikonoskop-Röhre (elektronischen Bildabtaster), die ab 1934 serienmäßig hergestellt wird.

1924

August Karolus (Universität Leipzig) stellt eine mechanisch/elektronisch arbeitende Bildübertragungs-Einrichtung vor. Mithilfe zweier Nipkow-Scheiben, einer Photo- und einer Kerr-Zelle können nun Bilder mit 45 Zeilen und einer Bildfrequenz von 12 Bildern/Sekunde übertragen werden.

 

John Logie Baird überträgt auf Basis der Nipkowschen Scheibe mit seinem „Televisor“ Schattenbilder über eine Distanz von drei Metern.

 

J.L. Baird speicherte Fernsehbilder auf Schallplatten bzw. Bildplatten (Bandbreite ca. 12 kHz) und schaffte den Vorläufer des Videorekorders. Einige dieser Platten sind erhalten und werden regelmäßig im Filmmuseum in Bradford vorgeführt.

1926

Der Japaner Kenjiro Takayanagi überträgt ein Bild auf rein elektronischem Weg. Dazu benutzt er einen voll funktionsfähigen Fernseher auf Basis der Kathodenstrahlröhre.

1927

Es finden Übertragungen von Fernsehbildern mit 100 Zeilen statt.

1928

Dénes von Mihály stellt in New York einen Fernsehempfänger auf Basis der Nipkow-Scheibe aus.

 

Ernst F. W. Alexanderson entwirft einen Drehspiegel-Projektor für zwei Meter große Fernsehbilder.

 

NBC (National Broadcasting Company) startet ihren Testbetrieb.

 

John Logie Baird überträgt die ersten Farbfernsehbilder.

1929

Die erste deutsche Fernsehübertragung wird getestet: vom Berliner Funkturm zum Reichspostzentralamt in Berlin-Tempelhof werden zwei Mädchen im Badeanzug mit 30 Zeilen und 10 Bildern/Sekunde drahtlos übertragen.

 

Gründung der Fernseh-AG in Berlin – ein Gemeinschaftsprojekt der Unternehmen Bosch, Baird-TV, Zeiss-Ikon und Loewe AG.

1931

Auf der 8. Funkausstellung in Berlin präsentiert Manfred von Ardenne am Loewe-Stand das elektronische Fernsehen erstmals der Öffentlichkeit.

 

CBS strahlt in New York City ein regelmäßiges Fernsehprogramm aus.

1934

Raymond Davis Kell ermittelte experimentell den Kell-Faktor.

1935

Der deutsche Fernsehsender „Paul Nipkow“ startet: Am 22. März 1035 überträgt der Berliner Funkturm auf Ultrakurzwelle 7,06 m (42,46 MHz) das weltweit erste öffentliche, regelmäßige Fernsehprogramm.

 

Das Reichspostmuseum Berlin eröffnet die erste „Fernsehstube“. Die insgesamt 15 öffentlichen Fernsehstellen bieten Platz für 70 Personen und übertragen an drei Tagen pro Woche (von 20.30 bis 22.00 Uhr) Kurz- und Spielfilme sowie die Wochenschau. Etwas später strahlte auch die BBC in London ein Fernsehprogramm aus.

1936

Die erste elektronische Fernsehkamera von Emil Mechau („Olympiakanone“) überträgt direkt die Olympischen Sommerspiele in die Berliner Fernsehstuben – der Beginn des vollelektronischen Fernsehzeitalters.

 

Sendestart von BBC 1 (der erste Sender Großbritanniens); in Großbritannien werden Fernseher für die Darstellung von Bildern mit 405 Zeilen produziert.

1937

Deutschland wechselt von der 180- auf die 441-Zeilennorm.

Mit Kriegsbeginn wird 1939 die europäische Fernsehindustrie vorerst stillgelegt. Der Deutsche Fernsehrundfunk „Fernsehsender Paul Nipkow“ stellt 1944 seinen Sendebetrieb ein.

1950

Der NWDR sendet vom Hochbunker Heiligengeistfeld in Hamburg ein Fernseh-Versuchsprogramm (drei Tage pro Woche).

1951

Sendestart eines täglichen Versuchsprogramms auf dem Grundig-Werksgelände in Fürth.

 

Öffentliche Fernsehübertragung im Stadtpark Berlin-Schöneberg.

1952

In Europa werden 625 Zeilen als Norm festgelegt (Frankreich und Belgien erproben für kurze Zeit 819 Zeilen).

 

Am 21. Dezember 1952 geht zu Ehren Stalins an seinem Geburtstag in Berlin-Adlershof die erste „Aktuelle Kamera“ auf Sendung (vom späteren Fernsehsender DFF der DDR).

 

Am 25. Dezember 1952 nimmt die Bundesrepublik Deutschland ihren Fernsehbetrieb wieder auf, auch wenn das Fernsehen im geteilten Deutschland noch nicht zum Alltag gehört. Ein TV-Gerät kostet Anfang der 1950er Jahre etwa 1000 Mark.

 

Start des täglichen Fernsehprogramms in West-Deutschland (Hamburg).

1953

Im Sommer wird europaweit die Krönungszeremonie von Elisabeth II. übertragen. In Westdeutschland boomt das Wirtschaftswunder. Immer mehr Menschen können sich einen eigenen TV-Apparat leisten. 4000 Fernsehgeräte werden in der Bundesrepublik Deutschland verkauft (DDR: 300).

1954

Die NTSC-Norm für Farbfernsehen wird in den USA eingeführt (die PAL-Norm in Europa übrigens erst zwölf Jahre später).

 

Start des Gemeinschaftsprogramms Deutsches Fernsehen der Landesrundfunkanstalten (ARD)

 

Die Fußballweltmeisterschaft wird übertragen. Public Viewing wird aus der Not heraus geboren: Tausende Menschen sitzen vor den Bildschirmen in den Wohnzimmern aber vor allem in Vereinslokalen und Gaststätten.

 

Die ersten Kabelfernbedienungen werden eingeführt.

1955

Sendestart des österreichischen Fernsehens

 

Philips stellt einen Fernseher vor, der alle europäischen Normen empfangen kann.

1956

Der Deutsche Fernsehfunk (DFF) der DDR startet den Regelbetrieb.

 

Vorstellung der ersten analogen Magnetaufzeichnungs-Anlage mit sendetauglicher Schwarzweißqualität (Quadruplex-System der Firma Ampex).

1957

Der erste Farbvideorekorder der Firma Ampex kommt auf dem Markt.

1960

Echo 1 - der erste passive Kommunikationssatellit wird in eine Umlaufbahn um die Erde gebracht.

1961

ARD2 startet als zweites deutsches Fernsehprogramm, später startet Österreich sein zweites Fernsehprogramm FS2 (seit 1992 ORF2).

1962

Der erste aktive Fernmeldesatellit (Telstar) wird in seine Umlaufbahn gebracht, die erste Liveübertragung für die Eurovision startet aus den USA.

1963

Die europäische PAL-Fernsehnorm wird patentiert.

 

Walter Bruch stellt das PAL-Verfahren für das Farbfernsehen vor, ab 1964 wird in Farbe ausgestrahlt. Seither entwickelte sich das Fernsehen stetig zum Massenmedium.

 

Offizieller Sendestart des Zweiten Deutschen Fernsehens (ZDF) in Mainz mit dem Aktuellen Sportstudio, moderiert von Wim Thoelke.

 

Syncom2 wird als erster Kommunikationssatellit in eine geostationäre Umlaufbahn gebracht. Das Senden/Empfangen ununterbrochen Signale von einem festen Punkt auf der Erde ist jetzt möglich.

1966/ 1967

Die meisten westeuropäischen Staaten übernehmen das PAL-Farbfernsehverfahren.

1967

Am 25. August 1967 drückt Vizekanzler Willy Brandt auf der 25. Großen Deutschen Funkausstellung in Berlin den berühmten roten Farbfernsehen-Knopf.

1969

Erste Live-Übertragung vom Mond über die Raumfähre Apollo 11.

 

Sendestart des DFF 2 der DDR; nach dem französischen SECAM-Verfahren jetzt in Farbe.

1970

Das Bildseitenverhältnis wechselt von 5:4 auf 4:3.

1971

Die 28. Deutsche Funkausstellung wird umbenannt in Internationale Funkausstellung und findet seither in Berlin statt.

1972

ARD und ZDF übertragen die XX. Olympischen Sommerspiele an alle Fernsehanstalten der Welt.

1973

Als erste Frau moderiert Carmen Thomas das Aktuelle Sportstudio im ZDF. Ihr Versprecher „Schalke 05“ geht in die Geschichte ein. Bereits zwei Jahre zuvor sprach Wibke Bruhns die ZDF-Spätnachrichten und durchdrang damit die Männerdomäne.

1975

Die Fernbedienung wird serienmäßig angeboten. Die sogenannte „Kanaltreue“ wird vom Zapping abgelöst, was nicht zuletzt der Grund für die stetig wachsende Programmvielfalt war.

1977

Der Videotext wird eingeführt.

1979

Auf der IFA stellt Philips zwei Jahre vor der Serienreife den ersten CD-Player vor.

1980

Ted Turner gründet in den USA den Nachrichtensender CNN.

1981

MTV geht auf Sendung und wird über das Kabelnetz übertragen.

Anfang der 1980er wurde die Fernsehtechnik durch analogen Stereo-Ton (mittels zweier Tonunterträger) sowie Tele- bzw. Videotext ergänzt.

1983

Die Bundespost startet Bildschirmtext – den Vorläufer des Internets.

1984

RTL und SAT.1 (damals PKS) nehmen als erste bundesweite Privat-Fernsehsender ihren Betrieb in Deutschland auf. Aus ZDF2 wird 3Sat und der erste deutschsprachige Bezahlfernsehsender Teleclub startet sein Programm.

1985

Premiere des hochauflösenden Fernsehens HDTV auf der 35. IFA in Berlin. Erste Empfänger über Satellit, die D2MAC-Übertragungstechnik, RDS und Fernseher mit 84 und 95 cm Bild werden vorgestellt.

 

Die analoge D2-Mac-Technik wird als Übertragungsstandard der Zukunft mit höherer Bild- und Tonqualität sowie HDTV-Tauglichkeit vorgestellt. Man warb mit dem Slogan: "Herkömmliche TVs sind bald reif für den Mülleimer". Es sollte allerdings noch einige Jahre dauern.

 

Discovery Channel geht in den USA auf Sendung.

1986

Am 4. November werden terrestrische Frequenzen an private Anbieter vergeben. Basis dafür bildet das 4. Rundfunk-Urteil des Bundesverfassungsgerichts. Verwendet werden UKW-Frequenzen im Bereich von 100 bis 104 MHz aus dem Bereich des Flugnavigationsfunkdienstes, die zuvor durch das Genfer Abkommen von 1984 freigegeben worden waren.

1987

Auf der IFA wird der erste 100-Hertz-Fernseher von ITT Schaub Lorentz vorgestellt.

 

Eureka TV (später ProSieben) startet sein Programm.

1988

Österreich sendet in den programmfreien Zeiten das Testbild.

1989

ProSieben (bis dahin Eureka TV) startet sein Programm.

 

EuroSport geht auf Sendung.

1991

Die ersten Fernsehgeräte im 16:9-Breitbildformat werden vorgestellt.

 

Premiere startet seinen Betrieb, BBC World geht auf Sendung.

 

Das DDR-Fernsehen wird zum 31.12.1991 abgeschaltet.

 

Seither findet wieder eine gesamtdeutsche IFA statt. Messe-Highlights sind u.a. die digitale Compact Cassette (DCC), die MiniDisc sowie wiederbespielbare CDs.

1992

Der erste deutsche Kabelkanal startet sein Programm (damals exklusiv über das Netz der Deutschen Telekom).

 

Europapremiere für HDTV anlässlich der Olympischen Winterspiele.

 

Sharp stellt den ersten ernst zu nehmenden Serien-LCD-TV vor mit 21,7 Zentimeter Diagonale (bis dahin waren es nur rund 12 Zentimeter).

 

Der deutsch-französische Sender ARTE nimmt seinen Betrieb auf (gemäß Staatsvertrag).

 

Sendestart des ersten deutschen Nachrichtensenders n-tv.

1993

VOX, RTL2 und VIVA nehmen ihren Sendebetrieb auf.

1995

Super RTL, der erste Sender für Kinder und Jugendliche startet sein Programm, später folgt der Homeshopping-Kanal HSE24.

 

Auf der IFA Berlin werden 16:9/PALplus, TV-/PC-Kombinationen, Dolby-Surround-Anlagen sowie Flachbildschirme vorgestellt.

1996

DF1, der erste digitale Bezahlfernsehsender wird in Deutschland ausgestrahlt.

1997

Pioneer bringt das erste Fernsehgerät mit Plasmabildschirm auf den Markt.

 

KiKA und PHOENIX gehen auf Sendung (mit digitaler Technik).

1998

Das interaktive Programm NBC Giga startet den Sendebetrieb (Computer im Fernsehen).

 

Die USA startet die HDTV-Übertragung via Antenne und Kabel.

 

Die ersten Plasmafernseher für den Heimgebrauch kommen auf den Markt: z.B. von Philips mit einer Bilddiagonale von 102 Zentimeter (42 Zoll) und zu einem Preis von 30.000 DM.

 

Zum kommerziellen Durchbruch verhalfen hier die Olympischen Winterspiele in Nagano, da ein japanischer Fernsehsender seinerzeit große Flachbildschirme für das hauseigene HDTV-Angebot benötigte.

1999

Premiere World (bis dahin DF1) geht auf Sendung, später auch der 24-Kinder-Sender Disney Channel

 

Auf der IFA Berlin zählen zu den Messe-Highlights Plasma-Flachbildschirme, MP3-Player, Mobiltelefone mit Internet-Zugang sowie Home-Networks.

21. Jahrhundert

2000

Im Dezember startet in Japan das digitale Hi-Vision.

2001

Die ersten 50-Zoll-Plasmas (127 Zentimeter) gehen in Serie.

 

Australien beginnt mit der Ausstrahlung von terrestrischem HDTV.

 

Der erste deutsche Quizsender 9Live sowie der Homeshopping-Kanal RTL Shop gehen auf Sendung, später folgen der Musiksender MTV2 Pop sowie der Infotainmentkanal XXP (heute DMAX)

2002

In Deutschland startet die erste reguläre DVB-T-Ausstrahlung in Europa).

 

Der Standard MPEG-4-AVC/H.264 kommt auf den Markt.

 

In Deutschland verfügen 37,9 Mio. Haushalte über Fernsehgeräte, davon empfangen lediglich 4,14 Mio. Haushalte digitales Fernsehen über Kabel oder Satellit. In der gesamten EU sind in diesem Jahr 154,73 Mio. Fernsehgeräte verzeichnet, wovon 32,3 Mio. auf Digitalfernsehen zurückgreifen. In den USA konnten bereits knapp 45 Mio. von insgesamt 118 Mio. Haushalten digitales Fernsehen nutzen. Zum Jahresende waren in den Haushalten der USA bereits 5 Mio. HDTV-Bildschirme installiert.

2003

Auf der IFA Berlin werden die Multimedia Home Platform (MHP), Digitalradio und DVB-T vorgestellt. LCD-, Plasma-Bildschirme sowie Projektions-Geräte, Digitalkameras und Festplatten-Videorekorder erfreuen sich großer Beliebtheit.

 

Die Deutsche TV-Plattform richtet Ende des Jahres eine Arbeitsgruppe ein, die sich mit der weiteren Verbreitung von europäischem HDTV beschäftigt.

 

Im Dezember startet in Japan das von der Association of Radio Industries and Businesses (ARIB) entwickelte ISDB-T (Integrated Services Digital Broadcasting Terrestrial), um das analoge terrestrische Fernsehen abzulösen.

2004

DVB-T startet in Österreich, Kabel Deutschland das erste digitale Bezahlfernsehangebot mit über 30 Sendern.

 

Am 1. Januar startet das erste europäische HDTV-Projekte. Am 1. Februar zieht der deutsche Pay-TV Sender Premiere nach und zeigt den Super Bowl ebenfalls in HDTV-Qualität. Am 2. Juli gibt Mexiko die Annahme des Standards ATSC für digitales terrestrisches Fernsehen bekannt.

2005

Österreich stellt alle Grundnetzsender auf DVB-T um.

 

Die IFA soll ab 2006 jährlich stattfinden, um der rasanten Entwicklung im Multimediabereich gerecht zu werden. HDTV-Geräte, vernetzte Haushaltselektronik und Handy-TV werden vorgestellt.

 

Neben Japan geht auch China bei der Wahl des Systems für terrestrisches Digital-TV eigene Wege und startet offiziell den Betrieb des selbstentwickelten DMB-T (Digital Multimedia Broadcasting Terrestrial).

2006

Die 46. IFA wird in Berlin von Bundeskanzlerin Angela Merkel eröffnet. Zu den Exponaten zählen diverse Geräte der Unterhaltungs- und Telekommunikationsbranche, hierzu zählen u.a. neue Mobiltelefone von LG.

 

Alle 64 Spiele der Fußball-Weltmeisterschaft 2006 in Deutschland werden in HDTV-Qualität aufgezeichnet und in vielen Teilen der Welt im hochauflösenden Fernsehformat übertragen.

 

Die Deutsche Telekom beginnt als IPTV-Versorger mit der Bereitstellung der Triple-Play-Variante, also der Verknüpfung von Telefon, Internet und Fernsehen – jedoch (noch) mit geringer Bandbreite und mäßigem Absatz.

 

Das IPTV-Angebot „Alice homeTV“ (später Alice-TV) ist verfügbar, wird jedoch 2012 mit der Übernahme durch O2 eingestellt.

2007

Sony stellt den ersten OLED-Fernseher vor.

 

Die Blu-ray-Disc, DVDs in HD sowie HDTV-Geräte mit integrierter Festplatte erobern den Markt. Auf der IFA werden XXL-Flachbildschirme mit Diagonalen bis 2,62 Meter präsentiert.

 

Im Dezember präsentiert sich Arcor als IPTV-Anbieter und startet „Arcor TV“.

2008

Flachbildschirme dominieren den Markt. Sony stellt das erste Gerät mit Edge-LED-Backlight vor. Das größte Display misst gigantische 3,81 Meter in der Diagonale.

 

In Europa liegt die Zahl der IPTV-Abonnenten bei 11 Millionen.

2009

Full HD wird mit einer HD-Auflösung von 1920 × 1080 Pixeln eingeführt. Neben „HD ready“ mit einer niedrigeren Auflösung von 1280 × 720 Pixeln etabliert sich auch der Begriff „True HD“, mit dem sowohl die Full-HD-Eigenschaften im Videobereich als auch das Mehrkanal-Tonformat Dolby TrueHD beworben wird.

2010

3D feiert sein Comeback. Im Frühjahr werden erste Geräte mit Heim-3D-Technik vorgestellt. Am 3. September findet auf der IFA die erste 3D-Pressekonferenz (Telekom) statt. Darüber hinaus wird auf dem Messegelände in Berlin die Themenwelt „iZone“ geschaffen, die Produkte von Apple und Android sowie dazugehörige Apps umfasst.

 

Die digitalen Standards Digital Audio Broadcasting (DAB) sowie Digital Video Broadcasting-Terrestrial (DVB-T) sind in Deutschland flächendeckend verfügbar.

2011

Die IFA sendet weltweit in drei Sprachen via Internet, Kabel und Satellit und erreicht damit ein Millionenpublikum in 107 Ländern.

 

Vodafone bringt am 17. Februar sein erstes IPTV-Angebot auf den Markt. Im September zählt das britische Marktforschungsunternehmen „Point Topic“ für die EU-Mitgliedsstaaten zirka 20 Millionen IPTV-Anschlüsse.

 

Die Telekom startet „SAT-Entertain“ - ein Multimedia-Hybrid-Konzept, das aus Sat-TV und Internetzugang besteht, bei dem das Fernsehsignal per Satellit mit modernen IP-Zusatzdiensten kombiniert wird.

 

Internetfähige Fernsehgeräte und Set-Top-Boxen werden überwiegend mit der HbbTV-Technologie ausgestattet.

2012

Die OLED-Technik strebt die Nachfolge von LCD an.

 

Die Digitalisierung des Satellitenfernsehens ist abgeschlossen. Das Kabelfernsehen hinkt mit 48,2 Prozent hinterher (DVB-T ist bereits seit 2008 zu 100 Prozent verfügbar).

 

Die Internationale Fernmeldeunion (ITU) standardisiert das digitale Videoformat Ultra High Definition Television (UHD TV) mit zwei Bildauflösungen (4K und 8K) sowie einer definierten Bildwiederholungsrate von max. 120 Vollbildern und einer Farbraumerweiterung gemäß BT.2020. Die Bezeichnungen „4K“ oder „UHD“ oder „Ultra HD“ etablieren sich und stehen für eine HD-Auflösung von 3840 × 2160 Pixeln, die mit insgesamt 8 Millionen Pixeln vier Mal so hoch wie Full HD.

 

Am 18. Oktober 2012 beschließt die Consumer Electronics Association (CEA), dass Ultra HD die bislang propagierte Bezeichnung 4K ablöst, zumal sich diese eigentlich auf die Videoauflösung von 4096 × 2160 Pixeln im Cinema-Bereich bezieht.

 

In Deutschland wird der erste Kinofilm mit 48 Bildern pro Sekunde ausgestrahlt: „Der Hobbit“.

 

Der Mobilfunkanbieter O2 übernimmt den Provider Alice.

2013

Alle namhaften Hersteller nehmen Ultra HD-TVs in ihr Programm auf; Sky demonstriert auf der IFA, wie Ultra HD in der TV-Ausstrahlung wirkt.

 

Die Telekom startet „Entertain to go“ und damit den TV-Empfang auf Smartphone, Tablet und Notebook.

 

Der erste HFR-3D-Projektor mit 60 Bildern pro Sekunde wird im österreichischen Cinepoint in Tirol installiert.

 

Unter der Bezeichnung MPEG-? (HEVC/H.265) kommt der weiterentwickelte MPEG-4-Standard auf den Markt, der bei gleicher Qualität eine noch stärkere Videokompression für UHD/4K erlaubt. Hierzu wird auf der IFA die aktuelle HDMI-2.0-Version vorgestellt. Der Standard lässt 18 Gbits pro Sekunde zu und unterstützt die erweiterte UHD-Farbraum-Technologie gemäß Rec.2020, wodurch das visuelle Farbspektrum um bis zu 80 Prozent vergrößert werden kann.

2014

Die IFA wird 90 Jahre alt.

 

Vodafone übernimmt im April Kabel Deutschland und bringt das gemeinsame All-IP-Produkt „All-in-One“ auf den Markt, welches Mobilfunk, Festnetz, Internet und TV bündelt.

 

Netflix erwirtschaftet im ersten Quartal über eine Milliarde US-Dollar und verzeichnet mit knapp 50 Millionen Abonnenten im VoD-Markt der Vereinigten Staaten mehr Zuschauer als jeder herkömmliche US-amerikanische Fernsehsender.

 

Nach Angaben des Branchenverbandes BITKOM gibt in diesem Jahr jeder Einwohner der Bundesrepublik Deutschland durchschnittlich 1.476 Euro für Digitaltechnik (Computer, Smartphones etc.) aus.

 

In 14 Millionen deutsche Haushalte verfügen über mindestens ein aktiv vernetztes TV-Endgerät (Statista GmbH).

 

1&1 präsentiert zubuchbares IPTV in Kooperation mit der Telekom.

2015

Ab September wird der Markenname „Kabel Deutschland“ aus der Medienlandschaft verschwinden.

 

Curved-TVs und Displays mit Quantum-Dot- sowie OLED-Technologie erobern den Markt und sind die Stars auf der IFA in Berlin.

 

Ab 3. November bietet Amazon exklusiv seine Streaming-Box (Fire TV) mit UHD/4K-Auflösung an. Apple-TV wird es mit Version 4 nur in Full HD geben.

 

Die Firma BUROSCH präsentiert den Full HD-Testbildgenerator TPG-5 mit HDMI-Ausgang, der auch für alle gängigen UHD-beziehungsweise 4K-Displays oder -Beamer genutzt werden kann.

2016

Das neue Zauberwort in diesem Jahr heißt HDR - High Dynamic Range. Der große Dynamik-Umfang ermöglicht eine weitaus bessere Hell-Dunkel-Darstellung und damit bessere Kontraste, und Farben so natürlich und lebensecht wie noch nie.

 

Neben HDR10 setzt Studio-Ausstatter Dolby nunmehr auf Videodatenverarbeitung und bringt mit Dolby Vision eine Technologie auf den Markt, die HDR erst möglich macht.

 

Auf der IFA 2016 in Berlin stellte Samsung seine 10-Bit Quantum Dot-Technologie vor, mit der die Darstellung von bis zu einer Milliarde Farben möglich sein soll. Neue OLED- und Ambilight-Displays wurden u.a. von Philips präsentiert. Trend der Messe war das Thema „Virtual Reality“ inklusive 360-Grad-Kameras ... und 8K bleibt weiterhin Zukunftsmusik.

Weitere Informationen zur Geschichte des Fernsehens gibt es übrigens auch auf: www.fernsehmuseum.info.

Grundlagen der Wahrnehmung

Fakt ist: Selbst die beste Technik sucht seinesgleichen in der Natur. Das menschliche Auge ist in seiner Perfektion kaum zu übertreffen und arbeitet (sofern gesund) mit exakter Präzision und damit schärfer, schneller und sensibler als jedes vom Menschen geschaffene Gerät. Nicht umsonst wurden von jeher optische Apparate dem komplexesten aller Sinnesorgane nachempfunden. Wie in einem Uhrwerk sind alle Bestandteile akkurat aufeinander abgestimmt, damit im Bruchteil einer Sekunde aus reflektiertem Licht ein Bild entsteht. Auch die Fernsehtechnik baut auf diese geniale Technologie auf. Um zu verstehen, wie eine Bildröhre, hochauflösendes Fernsehen oder gar 3D funktioniert, sollte man sich zuvor mit dem menschlichen Auge, der Wahrnehmung generell und mit einigen im Zusammenhang stehenden physikalischen Gesetzmäßigkeiten der Optik näher befassen.

Das menschliche Auge

Grundsätzlich arbeitet das menschliche Auge wie ein Fotoapparat – oder vielmehr umgekehrt. Die Gemeinsamkeiten der „Bauteile“ sind in jedem Fall nicht von der Hand zu weisen. Ähnlich wie bei einer Kamera verfügt ihr natürliches Vorbild über ein Linsensystem (Objektiv), einen optischen Zoom, eine Blende und natürlich über einen leistungsstarken Prozessor: das menschliche Gehirn.

Aufbau

Zu den wichtigsten Bestandteilen des menschlichen Auges (vgl. Abbildung) gehören die Hornhaut (Kornea), Pupille, Iris, Linse, Netzhaut (Retina) sowie der Ziliarmuskel, Sehnerv und der Glaskörper (Corpus Vitreum). Dieser ist vielmehr ein Glaskörpergel beziehungsweise eine gelartige Substanz, die zu einem überwiegenden Teil aus Wasser sowie gleichmäßig verteilten Eiweißbestandteilen und feinsten Bindegewebsfasern besteht. Umgeben ist der Glaskörper von einer sehr dünnen Membran, die im vorderen Teil des Auges die Linse und seitlich die innerste Schicht der Augapfelwand (Netzhaut) unregelmäßig berührt. An der Netzhautmitte sowie im Bereich des Sehnervs und der äußeren Netzhautperipherie (Glaskörperbasis) bestehen hingegen regelmäßige Anheftungen zwischen dem Glaskörper und der Netzhaut.

Letztgenannte wird im Augenhintergrund von der Aderhaut (Chorioidea) umgeben, die für die Durchblutung des Auges und dessen Nährstoffversorgung zuständig ist.

Abbildung 3: Aufbau des menschlichen Auges

Photorezeptoren und Netzhaut

Die Netzhaut besteht aus Millionen lichtempfindlicher Sinneszellen (Zapfen und Stäbchen). Im Zentrum des sogenannten Gelben Flecks (Makula lutea) befindet sich eine Einsenkung, die in etwa 1,5 mm im Durchmesser beträgt und Fovea centralis (Sehgrube) genannt wird. An dieser Stelle des schärfsten Sehens in der Netzhautmitte konzentrieren sich die sogenannten Zapfen, die für das Scharfsehen zuständig sind und bei hohen Leuchtdichten (L > 10 cd/m²) als Rezeptoren zur Helligkeits- und Farbwahrnehmung dienen. Die Stäbchen sind dagegen mehr im Randbereich der Netzhaut zu finden. Aufgrund ihrer hohen Lichtempfindlichkeit übernehmen sie das Dämmerungssehen, da sie auch schwache Leuchtdichten (bis 0,08 cd/m²) registrieren können. Ab einer Leuchtdichte unter diesem Wert sind Farbunterscheidungen nicht mehr möglich (Nachtsehen). Die Netzhaut beziehungsweise ihre Rezeptoren sind insofern die Basis für unsere Sehfähigkeit und vergleichbar mit der Auflösungsqualität einer Digitalkamera.

Adaption

Im nicht-sichtbaren Teil des Auges wird selbiges durch die Lederhaut (Sklera) und im vorderen (sichtbaren) Teil durch die Hornhaut (Kornea) geschützt. Hier befindet sich die Pupille, durch die das Licht ins Auge fällt und die deshalb wie eine Blende wirkt. Je nach Intensität des Lichteinfalls kann sie sich verkleinern (hell) oder vergrößern (dunkel). Während dieses Anpassungsvorgangs, der als Adaption bezeichnet wird, kann sich der Pupillen-Durchmesser von 1,5 bis 8 Millimeter verändern.

Akkomodation

Den farblich individuellen Teil unseres Auges bildet die Iris, die umgangssprachlich auch Regenbogenhaut genannt wird. Direkt dahinter befindet sich die Augenlinse (Lens crystallina), die in ihrem Zentrum zirka vier Millimeter dick und im Durchmesser zwischen sechs und acht Millimeter groß ist. Die Linse ist nach außen (konkav) gewölbt und ebenfalls von einer feinen Membran umgeben sowie links und rechts jeweils mit dem Ziliarmuskel verbunden. Mithilfe dieses Muskels, der vom Gehirn gesteuert wird, kann die Linse ihre Form verändern. Dadurch ist sie in der Lage, das einfallende Licht unterschiedlich zu brechen. Je nachdem, wie weit der abzubildende Gegenstand entfernt ist, verformt sich die Linse, um das Abbild auf der Netzhaut „scharf“ zu stellen. Diese unterschiedliche Brechung beziehungsweise Bündelung des Lichtes (Akkomodation) macht die Augenlinse vergleichbar mit einem Kameraobjektiv.

Sehnerv

Abbildung 4: Funktionsweise des Auges (Zapfen/Stäbchen)

Fovea centralis

Von uns weder bewusst gesteuert noch wahrgenommen, erfassen wir unsere Umgebung durch permanentes Abtasten mithilfe der Fovea centralis. Wie auf dem Film in einer Kamera wird das in der Außenwelt reflektierte Licht durch Hornhaut, Pupille, Linse und Glaskörper geleitet und im Augeninneren auf der Netzhaut gebündelt. Die Lichtenergie wird anschließend in Nervenreize umgewandelt, die vom Gehirn zu einem Bild weiterverarbeitet werden. Für jede neue Blickrichtung akkommodiert oder adaptiert sich das Auge während des Abtastvorgangs jeweils neu. Das heißt, die natürliche Blende und das natürliche Objektiv im Auge regeln gemeinsam mit Millionen lichtempfindlicher Nervenzellen die Bildschärfe, die Farbe und den Kontrast. Allerdings läuft ohne Schaltzentrale gar nichts. Erst mithilfe unseres Gehirns sind wir in der Lage, aus der Flut von Lichtwellen und Reizen einen optischen Gesamteindruck zu bilden.

Das Licht: mehr als elektromagnetische Wellen

Und obwohl das menschliche Auge ein wahrer Meister seines Faches ist, kann es nur einen geringen Teil des elektromagnetischen Spektrums, nämlich ausschließlich das Lichtspektrum zwischen 380 und 780 Nanometern, visuell wahrnehmen. Die visuelle Wahrnehmung einiger Tiere ist hingegen besser ausgeprägt. So können beispielsweise Schlangen im Infrarotbereich und Insekten sogar ultraviolettes Licht erfassen (vgl. Abbildung). Dennoch ist es nur dem Menschen vergönnt, aufgrund seiner Gehirnkapazität aus dem vergleichbar minimalen Spektralbereich eine Vielfalt an Farben zu erkennen, zu verarbeiten und Großartiges zu schaffen – von zeitgenössischer Malerei bis hin zu ultrahochauflösender Videodarstellung.

Abbildung 5: Elektromagnetisches Spektrum (Wikimedia Commons)

Denn streng genommen ist Farbe nichts anders als Licht - und Licht wiederum eine elektromagnetische Welle. Wie stark das menschliche Auge Helligkeit empfindet, hängt insofern von der Wellenlänge ab. Der Nachweis hierzu wurde bereits im 19. Jahrhundert von den Physikern James Maxwell und Heinrich Hertz erbracht. Neben dem Licht gehören auch Radio- und Mikrowellen zu den Wellen eines elektromagnetischen Feldes, allerdings sind diese für das menschliche Auge nicht sichtbar (vgl. Abbildung). Dies liegt an den unterschiedlichen Wellenlängen beziehungsweise deren Frequenz. So können wir beispielsweise Radiofrequenzen im Bereich zwischen 87.5 und 108.0 Megahertz hören aber nicht sehen.

Abbildung 6: Schematische Darstellung der Lichtbrechung

Reflexion und Remission

In Zusammenhang mit der Beschreibung des Lichtes tauchen immer wieder Begriffe wie Reflexionsgrad und Remissionsgrad auf, welche gern verwechselt werden. Bei der regulären (gerichteten) Reflexion handelt es sich in der Physik um den Vorgang, bei dem eine Welle an eine Grenzfläche zurückgeworfen wird, sich also die Ausbreitung oder der Brechungsindex ändert. Der Reflexionsgrad beschreibt demnach das Verhältnis zwischen reflektierter und einfallender Intensität des Lichtstroms beziehungsweise in welcher Form die Ausbreitung der elektromagnetischen Welle gestört wird. Das einfachste Beispiel ist wohl der Spiegel: er lässt kein Licht durch, sondern wirft es zurück. Deshalb spielt im Wesentlichen die Oberflächenbeschaffenheit der Objekte, auf die das Licht trifft, eine Rolle.

Mit dem Wort „remittieren“ (lat. remittere) ist hingegen das Zurücksenden gemeint oder vielmehr eine diffuse (ungerichtete) Reflexion von Körpern, die nicht selbst leuchten. Dabei absorbiert ein Körper oder Objekt einen Teil des Lichtspektrums (Opazität). Insofern beschreibt der Remissionsgrad das Verhältnis zwischen remittiertem und eingestrahltem Licht. Der Prozentsatz gibt demnach an, wie viel des eingestrahlten Lichts tatsächlich „übrig“ bleibt. Diese Angabe nennt man auch Albedo-Wert1. Im Kapitel „Farbwahrnehmung“ wird hierauf noch einmal gesondert eingegangen. Einige Beispiele für verschiedene Materialien und ihre individuellen Remissionsgrade finden sich in der folgenden Tabelle:

Schnee (frisch)93 ... 97 %Normalgrau (Fotokarte)18 %weißes Hemd80 ... 90 %Mauerwerk10 ... 15 %weißes Papier60 ... 80 %schwarzes Papier5 ... 10 %helle Haut25 ... 35 %matte schwarze Farbe1 ... 5 %grüne Blätter15 ... 30 %schwarzer Samt0 %

Abbildung 7: Remissionsgrade verschiedener Materialien

Bei transparenten Körpern oder Medien wird das Licht hingegen transmittiert. Dabei findet für die sogenannte Durchlichtmessung der Transmissionsgrad τ(λ) Verwendung, bei dem der farbige lichtfilternde Effekt gegen einen nichtfilternden Effekt gemessen wird (Kolorimetrie). Auch diese Größe ist (ähnlich wie auch der Remissionsgrad) nach dem Bouguer-Lambert-Beerschen Gesetz2 wellenlängenabhängig. In diesem Zusammenhang ist die Leuchtdichte ein erwähnenswerter Aspekt, der allerdings im Kapitel über die fotometrischen Größen ausführlich dargestellt werden soll.

Abgesehen von der Physik bietet das Licht jedoch weitaus mehr als nur Schwarz oder Weiß, Hell und Dunkel. Es kann auch unser Empfinden in starkem Maße beeinflussen. Dabei spielen nicht nur die wärmende Sommersonne und die dadurch produzierten Glückshormone eine Rolle. Wahrnehmungsstörungen und sogar körperliche Symptome hängen unmittelbar mit dem Licht zusammen. So kann das Licht visuellen Stress hervorrufen. Streifen- oder Gittermuster, flackerndes Neonlicht, gleichmäßig bewegte Objekte oder auch dreidimensionale Projektionen können Wahrnehmungsstörungen, Übelkeit oder gar epileptische Anfälle verursachen.

Doch diese vermeintlichen Nachteile bergen auch die vielfältigen Möglichkeiten, die unser Sehvermögen bietet: Das Licht, das in unserer Umwelt von allen Objekten reflektiert, absorbiert oder transmittiert wird, nehmen wir in seiner Gesamtheit wahr. Damit ist es uns möglich, Oberflächen auch bei unterschiedlicher Leuchtkraft gleichmäßig zu erkennen. Unser Gehirn differenziert das Licht und wandelt es um in Bilder mit unterschiedlicher Intensität, Farbe und Schärfe.

Dabei spielt die tatsächliche physikalische Größe des Lichtes in unserer Wahrnehmung nur eine nachgeordnete Rolle. Ein gutes Beispiel dafür sind die Sterne. Sie verändern grundsätzlich nicht ihre Leuchtkraft, doch bei Tag sehen wir sie gar nicht, in einer „sternenklaren“ Nacht dafür umso deutlicher. Selbst wenn die Sichtverhältnisse am Himmel – etwa zur selben Uhrzeit bei ähnlichen Witterungsverhältnissen - identisch sind, können wir dieselben Sterne an einem dunklen Strand trotzdem um einiges besser wahrnehmen, als im Lichtkegel einer Großstadt. Insofern sind weder die Licht absorbierenden Objekte selbst noch die Funktionalität unserer Augen per se dafür verantwortlich, wie genau wir sehen können. Es sind Faktoren der Umwelt (z.B. Umfeldbeleuchtung), die erst eine exakte Wahrnehmung möglich machen.

Ob nun in tiefschwarzer Nacht oder im Licht eines 1000-Watt-Halogenstrahlers: unsere Augen können sich grundsätzlich an die verschiedensten Lichtintensitäten anpassen. Differenzen in den Lichtverhältnissen kompensiert die Pupille durch Verengung oder Erweiterung (Adaption) sowie die Veränderung der Sensitivität der weiter oben beschriebenen Rezeptoren. Im Allgemeinen können 500 verschiedene Helligkeitswerte unterschieden werden, bei einem klassischen TV-Bildschirm sind es immerhin noch 200. Trotz hochentwickelter Technologien sind die Unterschiede zwischen einem künstlichen Display und dem Original in der Natur nach wie vor erheblich – auch wenn die nativen 4K-Auflösungen und die aufblühenden HDR-Technologien dichter dran sind als je zuvor.

Polarisation

Ein weiteres Beispiel für die Vielfalt es Lichtes ist die Polarisation. Das Licht als elektromagnetische Welle ist gleichzeitig eine sogenannte Transversalwelle, deren Amplitude senkrecht zur Ausbreitungsrichtung steht (vgl. Abbildung).

Abbildung 8: Schematische Darstellung einer Transversalwelle

Dabei beschreibt die Polarisation die Richtung der Schwingung. Wenn aus einem Mix verschiedener Polarisationsrichtungen eine bestimmte Richtung herausgefiltert wird, entsteht polarisiertes Licht. In der Natur findet man ein solches Licht bei der Reflexion an metallischen Oberflächen oder bei doppelbrechenden Kristallen. In der Technik (Leinwandprojektoren, Displays) wird sich mit Polarisationsfolien oder -filtern beholfen, um die Intensität der Strahlteilung zu beeinflussen. Praktische Information hierzu finden sich in den Kapiteln „Räumliche Wahrnehmung“ und „Heimkinoprojektoren“.

Kontrast und Schärfe

Jeder Lichtstrahl, der auf das Auge trifft, führt zu einem neuronalen Reiz. Da hierfür mehr Rezeptoren als Neuronen zur Verfügung stehen, kann eine Nervenfaser im Sehnerv (Nervus Opticus) von mehreren Rezeptoren „erregt“ werden. Das heißt, dass jede Nervenzelle (Ganglienzelle) im Sehnerv beziehungsweise jedes Projektionsneuron der Netzhaut gebündelte Informationen aus ungleich vielen Rezeptoren als Impulse an das Gehirn weiterleiten kann (106 Mio. Rezeptoren, 1 Mio. Ganglienzellen). Dieser Vorgang wird als rezeptives Feld bezeichnet, es ist also der Bereich einer Nervenzelle, an die Photorezeptoren ihre Informationen senden.

Wie bereits beschrieben, befinden sich die lichtempfindlichen Stäbchen (Photorezeptoren) außerhalb des Bereiches für das Scharfsehen (Fovea centralis) also mehr im Randbereich der Netzhaut. Die Lichtempfindlichkeit der Stäbchen wird nunmehr durch das rezeptive Feld (Überzahl an Rezeptoren) begünstigt. Dies führt dazu, dass am Rand des menschlichen Sichtfeldes – also aus den Augenwinkeln - schwach beleuchtete aber auch schnell bewegte Objekte zwar relativ unscharf, dafür aber mit einer hohen Bewegungsauflösung wahrgenommen werden können. Ein Grund dafür, warum wir bei einem Röhrenfernseher das Bildflimmern stärker aus dem seitlichen Blickwinkel als bei frontaler Ansicht erkennen können. Die geschwungenen Bildschirme, die unter der Bezeichnung Curved-TV spätestens seit 2015 den Mainstream erobert haben, zielen auf diesen Umstand ab.

Kontrast

Das rezeptive Feld bewirkt allerdings noch weitere Phänomene. Es ist veränderlich und kann sich bei parallel auftretenden Reizen in einen Bereich der Erregung und in einen weiteren Bereich der lateralen Hemmung unterteilen (On-/Off-Zentrum). Das bekannte Hermann-Gitter3 (vgl. Abbildung) veranschaulicht, welche massive neuronale Informationsverarbeitung in unserem visuellen System beim bloßen Anblick eines solchen Gitters ausgelöst wird.

Abbildung 9: Hermann-Gitter

In den Zwischenräumen der schwarzen Quadrate werden weitere graue Vierecke wahrgenommen, die tatsächlich gar nicht vorhanden sind. Fixiert man einen Punkt, so verschwindet hier die Täuschung, bleibt allerdings im übrigen Bereich bestehen. Zu diesem Wahrnehmungseffekt kommt es durch ebenjene Wechselwirkung zwischen Erregung und Hemmung, die die „Feuerrate“ des jeweiligen Neurons erhöht.

Während die Peripherie des rezeptiven Feldes in den Bereich der schwarzen Quadrate fällt, wird diese nur schwach belichtet. Die sogenannte Hemmung ist also gering, die Zwischenräume erscheinen hell. An den Schnittpunkten der hellen Zwischenräume (Kreuzungsstellen) ist mehr Licht in der Peripherie, also eine größere Hemmung vorhanden. Die Kreuzungsstellen erscheinen dunkler und werden von ebenjenen (imaginären) grauen Vierecken überlagert.

Das menschliche Auge ist demnach damit befasst, zwei verschiedene Impulse aufzunehmen und zu verarbeiten. Nach dem französischen Physiker und Mathematiker Jean-Baptiste Joseph Fourier lässt sich ein zweidimensionales Abbild als Funktion der Helligkeit gegen den Ort interpretieren, der sogenannten räumlichen Frequenz oder auch Ortsfrequenz (Formelzeichen k oder R). Örtlich veränderliche Funktionen liefern die Grundlage für wissenschaftliche Erkenntnisse gemäß der Fourier-Optik und nicht zuletzt für die sogenannten Bildkompressionsalgorithmen (beispielsweise JPEG), die in der digitalen Technik unabdingbar sind.

Ortsfrequenz

Die Ortsfrequenz bezeichnet in der Wahrnehmungspsychologie die Anzahl der Kanten pro Grad Sehwinkel. Hierbei unterscheidet man die niedrige Ortsfrequenz, bei der Bilder unscharf und flächig wirken (Tiefpass), und Bilder mit hoher Ortsfrequenz (Hochpass), die detailreich und scharf konturiert sind. Dies ist der Grund, warum die in der folgenden Abbildung (links) dargestellten Graukanten an den Übergängen subjektiv schärfer wahrgenommen werden. Ebenso wirkt in der Abbildung (rechts) der graue Kreis vor dem dunklen Hintergrund schärfer beziehungsweise heller als der gleiche Kreis im hellgrauen Rechteck daneben.

Abbildung 10: Graukanten (links) und Simultankontrast (rechts)

Im visuellen System unseres Gehirns (visueller Cortex oder Sehrinde) sind bestimmte Neuronen darauf spezialisiert, die Ortsfrequenz eines Bildes zu analysieren. Das sogenannte „retinotope“ Areal 17 (Area striata) der menschlichen Großhirnrinde ist dafür zuständig, dass nebeneinander abgebildete Punkte auf der Retina (Netzhaut) auch tatsächlich parallel liegen. Die Fovea, als Zentrum des Scharfsehens, ist hier überproportional gefordert.

Abbildung 11: Vertikal verlaufende Streifenmuster

Bei einer optimalen Funktionalität des Auges kann eine Rasterung von bis zu neun Linienpaaren (vgl. Abbildung) pro Grad Sehwinkel erkannt werden. Steigt die Frequenz (also der Wechsel zwischen hellen und dunklen Linien), sinkt der empfundene Kontrast proportional. Bei 36 Linienpaaren pro Grad beträgt dieser nur noch zehn Prozent. Bei Beeinträchtigung der Sehschärfe verschwimmen die Konturen schneller, bei Bewegtbildern können sie ganz verschwinden - z.B. die Speichen bei einem sich drehenden Rad.

Abbildung 12: Siemensstern (www.burosch.de)

Der in obiger Abbildung dargestellte Siemensstern wurde mit einem Tiefpass gefiltert und verfügt über die maximale Ortsfrequenz von zirka 330 Linienpaaren pro Bildhöhe. Die Details in der Mitte des Bildes gehen dabei komplett verloren, während nach außen hin die Kanten breiter wirken.

Die