3,99 €
Wie viele Pferdestärken hat ein Pferd? Fliegt ein Fallschirm nach dem Öffnen tatsächlich nach oben? Warum sind Filme im Fernsehen etwas kürzer als im Kino? Wie groß ist eigentlich ein Quantensprung? Haben alle Elektroautos Automatikgetriebe? Muss man Polaroidfotos unbedingt schütteln? Und darf man wirklich keine Metallgegenstände in die Mikrowelle stecken? Unser Alltag ist voll von Fehlinformationen, Halbwahrheiten, Ungenauigkeiten und Missverständnissen zu technischen und naturwissenschaftlichen Fragen. Dieses Büchlein zählt über 160 interessante Beispiele auf und erklärt sie in knapper Form. Darunter sind große und kleine, banale und überraschende sowie aktuelle und historische Irrtümer.
Das E-Book können Sie in Legimi-Apps oder einer beliebigen App lesen, die das folgende Format unterstützen:
Veröffentlichungsjahr: 2023
Andreas Beitinger
Beliebte Technik-Irrtümer
Besserwisser-Erklärungen aus Alltagstechnik und Naturwissenschaft
Rechtliche Hinweise & Impressum
Dieses E-Book unterliegt dem Urheberrecht. Der Käufer bzw. die Käuferin darf das E-Book persönlich nutzen und hierzu auf seine/ihre eigenen Lesegeräte kopieren. Eine Weitergabe der E-Book-Datei an andere Personen ist nicht gestattet. Jegliches Kopieren von Inhalten (auch auszugsweise) bedarf der schriftlichen Zustimmung des Rechteinhabers. Rechteinhaber und für die Veröffentlichung verantwortlich im Sinne von Art. 7 (1) BayPrG ist der Autor (Andreas Beitinger, Sonnenstraße 8, 87665 Mauerstetten, Deutschland).
Bibliografische Information der Deutschen Nationalbibliothek: Die Deutsche Nationalbibliothek verzeichnet dieses Buch in der Deutschen Nationalbibliografie; detaillierte bibliografische Daten sind im Internet über https://dnb.de abrufbar.
Text und Layout: Andreas Beitinger
Testleserinnen: Birgit Lubanski, Maria Waldmann
Webseite zum Buch: beitinger.de/ti-buch
Kontakt-E-Mail: [email protected]
Vertrieb: Tolino Media
ISBN: 978-3-75792-643-4
Andreas Beitinger © 2023
Die offizielle Spannung des Stromnetzes in West- und Mitteleuropa beträgt 230 Volt. Früher waren es in Deutschland und einigen Nachbarländern mal 220 Volt, aber es gab auch Länder mit 240 Volt. Im Jahr 1987 trat dann eine Vereinbarung in Kraft, um die Spannung auf 230 Volt zu vereinheitlichen. In diesem Zusammenhang ist übrigens auch die Drehstrom-Spannung (»Starkstrom«) leicht angestiegen, nämlich von 380 auf 400 Volt.
Bei Erscheinen dieses Buches liegt die Umstellung über 35 Jahre zurück – 15 Jahre länger als die Einführung des Euro-Bargeldes. Trotzdem haben sich die veralteten Zahlen, also 220 bzw. 380 Volt, in den Köpfen vieler Menschen gehalten. Selbst auf den Typenschildern von neuen Elektrogeräten stehen manchmal noch die alten Zahlen drauf.
Relativierend kann man anmerken, dass es sich bei den 230 Volt nur um eine sogenannte Nennspannung handelt – also den angestrebten Sollwert. Die tatsächliche Spannung wird je nach Auslastung der Kraftwerke ein Stück nach oben oder unten schwanken. Typisch für Deutschland ist der Bereich von 225 bis 235 Volt. Theoretisch zulässig wäre sogar ein Spielraum von 207 bis 253 Volt, aber der wird in der Praxis nicht ausgeschöpft.
Unter einem E-Book versteht man einen Buchinhalt, den man sich kaufen und herunterladen kann. Ein E-Book kann man auf vorhandenen Smartphones oder Tablets lesen. Besser geeignet für entspanntes Lesen sind allerdings die speziellen Lesegeräte – auch E-Reader oder E-Book-Reader genannt. Sie zeichnen sich durch eine augenfreundliche, papierähnliche Anzeige und lange Akkulaufzeiten aus. Die bekanntesten Vertreter dieser Gattung sind die Tolino-Geräte des deutschen Buchhandels sowie die Kindle-Geräte von Amazon. Sie sind seit Jahren auch beliebte Geschenke für Leseratten.
Aus irgendeinem Grund verwechseln aber viele Leute die Begriffe und sprechen von einem E-Book, wenn sie eigentlich das Lesegerät meinen. Das ist so ähnlich, wie wenn man »Frankenstein« sagt, aber eigentlich Frankensteins Monster meint.
Früher wurde Teer als Bindemittel im Straßenbau verwendet. So hat sich das Verb »teeren« im allgemeinen Sprachgebrauch etabliert und wurde sogar in den Duden aufgenommen. Doch leider erwies sich Teer als krebserregend. Um die Bauarbeiter vor gesundheitlichen Nachteilen zu schützen und ein Vordringen giftiger Teerbestandteile ins Grundwasser zu vermeiden, wurde Teer im Straßenbau verboten. In Westdeutschland gilt dieses Verbot seit 1984, in Ostdeutschland kam es kurz nach der Wende. Seither wird als Bindemittel zum Asphaltieren von Straßen meist Bitumen eingesetzt. Der Fachmann erkennt den Unterschied bereits am Geruch. Auch die Farbe von Bitumen ist etwas anders als die von Teer.
Noch heute gibt es vielerorts in Deutschland alte Straßenbeläge, die Teer enthalten. Solange man sie in Ruhe lässt, gelten sie nicht als gefährlich. Werden sie aber aufgebrochen, muss das Material aufwendig als Sondermüll entsorgt werden.
Neue Straßen werden nicht mehr wortwörtlich geteert. In der Baubranche ist es inzwischen üblich, den Vorgang neutral als »Asphaltieren« zu bezeichnen.
Eine Nachricht, die man am Telefon hinterlässt, wird schon lange auf digitalen Speichermedien gespeichert und nicht mehr auf ein Tonband aufgenommen. Trotzdem ist die Ausdrucksweise »auf Band sprechen« noch erstaunlich beliebt.
Anrufbeantworter waren anfangs sehr komplexe mechanische Geräte, die zwei Tonbandgeräte in sich vereinten: Das erste spulte die Ansage ab, das zweite zeichnete die Nachricht des Anrufers auf. Ab den 1980er-Jahren wurden die großen Tonbandspulen durch Kassetten ersetzt. Ab der Jahrtausendwende hatten Anrufbeantworter genug digitale Speicherkapazität, um auf ein Tonband zu verzichten.
Fürs Festnetz kann man heute noch Anrufbeantworter als eigenständige Geräte kaufen. Manchmal sind sie fest integriert in Telefone oder Internetrouter. Ansonsten nutzt man heute meistens eine »Mailbox«, die sowohl Ansagen als auch Nachrichten irgendwo in einem Rechenzentrum des Telefonanbieters ablegt. Keines der aktuellen Verfahren benutzt mehr ein Tonband.
Man kann natürlich nicht ganz ausschließen, dass irgendwo noch jemand einen uralten Anrufbeantworter betreibt, der die Nachrichten tatsächlich »auf Band« aufnimmt. Aber das wäre heute exotischer als ein Wählscheibentelefon.
Dass man für eine Stereo-Wiedergabe immer zwei Lautsprecher braucht, dürfte allgemein bekannt sein. Der Umkehrschluss gilt allerdings nicht: Nur weil man zwei Lautsprecher verwendet, ist der Ton noch lange nicht stereo.
Wir Menschen haben ja zwei Ohren, die uns eine horizontale Ortung von Schallquellen erlauben. Dadurch nehmen wir z. B. die verschiedenen Instrumente eines Orchesters an unterschiedlichen Orten wahr oder können mit geschlossenen Augen erkennen, in welche Richtung sich ein vorbeifahrendes Auto bewegt.
Wenn man diese Räumlichkeit aufzeichnen will, bedient man sich einer Technik namens Stereofonie. Hierfür muss der Ton mit zwei Mikrofonen »stereofon« aufgenommen und auf zwei getrennten Kanälen gespeichert werden. Zur Wiedergabe muss man als Hörer mittig zwischen den beiden Lautsprechern sitzen oder wahlweise einen Stereo-Kopfhörer tragen, der jedem Ohr nur den zuständigen Tonkanal zuführt.
Wenn man einfach nur zwei Lautsprecher parallel an eine Mono-Tonquelle anschließt, kommt aus beiden Lautsprechern derselbe Ton und es stellt sich kein Stereoeffekt ein. Sind die Lautsprecher zu nah beisammen aufgestellt oder sitzt man an der falschen Stelle im Raum, merkt man vom Stereoeffekt ebenfalls nichts. Und solange man nur Mono-Aufzeichnungen wiedergibt, bleibt der Ton selbst auf der besten Stereoanlage und aus der besten Sitzposition nur mono.
Unsere Augen besitzen eine enorme Anpassungsfähigkeit an verschiedene Helligkeiten. Selbst beim Gang vom Freien ins Zimmer oder nach dem Aufsetzen einer starken Sonnenbrille bemerken wir die Verdunkelung nur kurz und sehen dann wieder alles wie vorher. Wir kriegen auch nicht richtig mit, wie die Helligkeit in der zweiten Tageshälfte nachlässt. Subjektiv mag man kaum glauben, dass das Sonnenlicht am frühen Abend schon um den Faktor 1000 dunkler sein kann als mittags. Wir merken es erst relativ spät – wenn nämlich der Regelbereich unserer Augen unterschritten wird. Erst dann empfinden wir, dass »es dunkel wird«. Wann genau dieser Moment kommt, ist von Mensch zu Mensch unterschiedlich. Tendenziell haben ältere Menschen eine schlechtere Nachtsicht und erkennen die Dämmerung früher als junge Menschen. Die Oma ruft »Es wird ja schon dunkel!« – und die Enkel verstehen überhaupt nicht, wovon die Oma redet. Eine Viertelstunde später merken die Enkel es dann auch.
Eine Kameraautomatik kennt solche abrupten Übergänge nicht. Sie stellt sich kontinuierlich auf unterschiedliche Helligkeiten ein und belichtet das Bild immer ungefähr gleich hell. Mag sein, dass bei sehr wenig Licht die Bildqualität schlechter wird. Es gibt aber keinen direkten Zusammenhang zwischen dem Dämmerungsempfinden eines Menschen und der Helligkeit eines fertigen Fotos.
Wenn das Foto dunkel aussieht, war einfach die Belichtung an der Kamera zu knapp eingestellt. Wenn z. B. eine sehr helle Lichtquelle oder Spiegelung irgendwo ins Bild kommt, täuscht sich die Kameraautomatik und belichtet zum Ausgleich knapper – wodurch auch der übrige Teil des Bildes zu dunkel rauskommt. Das kann im grellen Sonnenschein genauso passieren wie in der Dämmerung. Man kann aber auch in ganz düsterer Umgebung Fotos kriegen, die viel zu hell sind. Wer die Kameraautomatik abschaltet, kann jederzeit selber entscheiden, wie hell oder dunkel das Foto werden soll.
Hersteller bewerben ihre Produkte gern mit griffigen Aussagen. Wenn eine Taschenlampe »100 Meter weit leuchten« kann, klingt das beeindruckend – obwohl so eine Zahl ohne eine Referenz völlig nutzlos ist.
Wenn Licht aus einer künstlichen Lichtquelle wie z. B. einer Taschenlampe kommt, nimmt seine Helligkeit mit der Entfernung schnell ab: Verdoppelt sich die Entfernung, viertelt sich die Helligkeit. Warum das so ist, kann man sich leicht geometrisch herleiten: Der gleiche Lichtkegel muss in doppelter Entfernung die vierfache Fläche ausleuchten.
Allerdings bleibt auch in großer Entfernung immer noch eine gewisse Resthelligkeit übrig. Es gibt keinen Punkt, wo das Licht plötzlich ganz aufhört.
Man könnte eine Norm definieren und einen Lux-Wert festlegen, den man als Mindesthelligkeit von einer Taschenlampe erwartet. Dann könnte man messen, in welcher Entfernung diese Helligkeit gerade noch erreicht wird. Das wäre dann die Norm-Reichweite der Taschenlampe.
Aber so eine Norm gibt es nicht. Jeder Hersteller misst und bewertet nach Lust und Laune. Deswegen sind Reichweitenangaben zu Taschenlampen wertlos.
Wenn man seine Uhr sekundengenau einstellen wollte, war früher mal der Beginn der Tagesschau mit der eingeblendeten Uhr ein guter Anhaltspunkt. Das funktionierte sehr gut, solange wir analoges Fernsehen hatten.
Unsere Fernsehsender wurden aber längst auf digitale Technik umgestellt. Die digitale Ausstrahlung bringt technisch bedingte Verzögerungen mit sich. Wenn das Sendesignal via Satellit in unser Wohnzimmer kommt, bewegt sich die Verzögerung in der Größenordnung von ein paar Sekunden. Empfangen wir über Internet (IPTV), können es wegen der notwendigen Datenpufferung auch 20 Sekunden und mehr sein. Man sieht es, wenn man eine Funkuhr neben den Fernseher stellt und die Abweichung beobachtet.
Während großer Fußballspiele lässt sich anhand des verzögerten Torjubels sehr schön rausfinden, welchen Empfangsweg die jeweiligen Haushalte nutzen: Zuerst jubeln die Fans live im Stadion, dann nach wenigen Sekunden die Satellitenzuschauer, dann die Kabel- und Antennennutzer und zum Schluss die IPTV-Zuschauer.
Wenn man eine wirklich genaue Zeitanzeige als Referenz braucht, greift man am besten auf Funkuhren zurück. Die Uhren auf Computern und Smartphones, die sich täglich über einen Zeitserver automatisch einstellen, zeigen die Zeit ebenfalls sehr genau.
Als in der Nachkriegszeit in immer mehr Häusern Zentralheizungen eingebaut wurden, war die verwendete Technik noch simpel. Die Heizkörper hatten einen Drehknopf, der funktionierte wie ein Wasserhahn: Je weiter man aufdrehte, desto mehr Heizwasser floss durch den Heizkörper. Kam man nach Hause in eine kalte Wohnung, drehte man die Heizung erst mal ganz auf, damit viel Heizwasser fließen konnte und es schnell warm wurde. War es warm genug, konnte man den Knopf zurückdrehen. Wurde es kälter, drehte man wieder auf. Die Regelung der Raumtemperatur oblag also den Bewohnern.
Das änderte sich, als die simplen Drehknöpfe durch sogenannte Thermostatventile ersetzt wurden. Seither muss der Benutzer nur noch eine Soll-Temperatur einstellen. In einem kalten Raum lässt das Thermostatventil zunächst den maximalen Heizwasserfluss zu, um das schnelle Aufheizen zu erlauben. Wenn sich die Raumtemperatur dem Soll annähert, wird der Heizwasserfluss verlangsamt und schließlich gestoppt. Falls es im Lauf der Zeit abkühlt, erhöht das Thermostatventil wieder den Durchfluss. Es wird also stets dafür gesorgt, dass sich der Raum auf eine bestimmte Temperatur (innerhalb einer gewissen Toleranz) einpegelt. Das Einzige, was man noch manuell tun sollte: die Einstellung vorübergehend auf null herunterzudrehen, während man lüftet.
Es ist in den meisten Fällen nicht sinnvoll, das Thermostatventil anfangs auf einen höheren Wert als die gewünschte Raumtemperatur einzustellen. Der Raum wird dadurch nicht schneller warm. Man macht sich als Benutzer nur unnötig Arbeit.
Nur gelegentlich findet man Ausnahmen. Wenn der Heizkörper z. B. in einer Nische eingebaut ist und sich die warme Luft dort staut, kann das Thermostatventil verfrüht das Heizen beenden, obwohl der Rest des Raumes noch zu kalt ist. Dann muss man den Thermostat austricksen, indem man ihn doch ein bisschen höher aufdreht. Oder man baut einen elektronischen Thermostat mit externem Sensor ein.
Das Feuerverzinken von Stahlteilen stellt einen sehr wirksamen »aktiven« Korrosionsschutz dar. Verzinkte Stahlteile im Außenbereich sind sehr lange gegen Rost geschützt, während die Wirkung von konventionellem Rostschutzlack oft schon nach wenigen Jahren nachlässt.
Ganz so dauerhaft, wie es zunächst scheint, hilft aber auch das Verzinken nicht – denn die Zinkschicht verbraucht sich mit der Zeit. Man erkennt das gut an Stahlschrauben, die wegen ihrer feinen Gewinde nur hauchdünn verzinkt werden können: Werden sie der Witterung ausgesetzt, kann die Zinkschicht schon nach wenigen Monaten verbraucht sein und die Schrauben beginnen zu rosten.
Gröbere Stahlteile lassen sich wesentlich wirksamer verzinken. Hier sind Schichtdicken in der Größenordnung von 1/10 Millimeter üblich. Man schätzt die Haltbarkeit einer guten Feuerverzinkung auf ungefähr 40 bis 50 Jahre. Nach dieser Zeit wird die Schicht allerdings stellenweise zu dünn, sodass sich doch wieder Rost bilden kann.
Bevor Winterreifen in Deutschland zur Pflicht wurden, hörte man dieses Argument oft. Es beruhte jedoch auf zwei Denkfehlern.
Der Allradantrieb verbessert die Traktion zu allen Jahreszeiten und ist natürlich auch im Winter hilfreich. Besonders spürt man das im Moment des Anfahrens. Daraus zu folgern, der Allradantrieb könne die Winterreifen ersetzen, ist aber unlogisch. Selbst wenn der Allradantrieb so gut wäre, dass er im Winter mit Sommerreifen dieselbe Traktion bietet wie ein Heck- oder Fronttriebler mit Winterreifen, bliebe der Unterschied bestehen. Erst in der Kombination aus Winterreifen und Allradantrieb bekommt man den bestmöglichen Effekt. Es wäre doch absurd, die Vorteile des teuren Allradfahrzeugs im Winter nicht auszuschöpfen, nur weil man am Reifenwechsel spart.
Und bei dieser Argumentation geht es ohnehin nur ums Fahren und Anfahren. Sobald es ums Bremsen geht, das ja für die Sicherheit im Winter noch wichtiger ist, unterscheiden sich Front- und Hecktriebler überhaupt nicht von Allradfahrzeugen. Alle Autos haben Bremsen vorn und hinten. Und mit Sommerreifen bremsen sie auf der winterlichen Fahrbahn alle gleich schlecht.
Ungefähr seit der Jahrtausendwende wurde das bestehende Telefonnetz schrittweise umgebaut für die Internetversorgung. Inzwischen wird das ehemalige Telefon-Kupferkabel fast ausschließlich zur DSL-Übertragung genutzt. Alternativ zu DSL gibt es auch Internet über Fernsehkabel, Richtfunk, Satellit oder Glasfaser. Da an den heutigen »Komplettanschlüssen« eine separate Telefonverbindung fehlt, wird grundsätzlich mit Hilfe von VoIP-Technik (»Voice over Internet Protocol«) telefoniert: Der Ton wird digitalisiert und in kleinen Datenpaketen durchs Internet geschickt. Vielen Nutzern ist das gar nicht bewusst, weil man auch alte Telefongeräte am Router anschließen kann und sich in der praktischen Nutzung nichts ändert.
Inzwischen hat die Deutsche Telekom ihr herkömmliches Telefonnetz ganz abgebaut. Die Telefonleitungen der letzten Nicht-Internet-Kunden, die noch einen »analogen« Telefonanschluss gebucht haben, werden seither in der Vermittlungsstelle auf VoIP-Technik umgesetzt. Festnetztelefonie läuft jetzt in jedem Fall digital übers Internet – auch wenn der Kunde nie Internet bestellt hat.
Es gab und gibt im Haushalt viele Arten von aufladbaren Batterien. Die bekanntesten sind Bleiakkus, Nickel-Cadmium-Akkus, Nickel-Metall-Hydrid-Akkus und Lithium-Ionen-Akkus. Und von diesen gibt es dann jeweils noch etliche Untersorten.
Bis etwa zur Jahrtausendwende sehr gebräuchlich für Kleingeräte waren die Nickel-Cadmium-Akkus (NiCd). Zu Ihren Nachteilen gehörte der sogenannte Memoryeffekt: Lud man sie mehrfach im halb vollen Zustand wieder nach, »merkten« sie sich den letzten Ladezustand und reduzierten entsprechend ihre Kapazität. Deshalb wurde empfohlen, NiCd-Akkus vor jedem Ladevorgang zuerst bis zu einer gewissen Grenze zu entladen. Gute Ladegeräte machten das sogar automatisch.
Inzwischen ist der Verkauf von Nickel-Cadmium-Akkus in Europa verboten, weil der Verbrauch des seltenen Elements Cadmium reduziert werden soll. Sie wurden ersetzt durch die neueren Nickel-Metall-Hydrid-Akkus (NiMH), die ein bisschen anders funktionieren und kaum noch Memoryeffekt zeigen; sie müssen also vor dem Laden nicht mehr eigens entladen werden. Und in vielen modernen Geräten werden heute diverse Sorten von Lithium-Ionen-Akkus verwendet, deren Lade- und Entladeeigenschaften noch mal ganz andere sind. Das regelmäßige Entladen vor dem Laden wäre bei den meisten Lithium-Akkus sogar nachteilig für deren Lebensdauer.
Jede Sorte Akku hat also ihre besonderen Eigenschaften. Jede will ein bisschen anders behandelt werden. Wer seinen Akku optimal pflegen will, sollte immer auf die Bezeichnung achten und dann Informationen zu genau dieser Akkusorte einholen.
Mit Röhrenmonitoren gab es ein häufiges Problem: Zeigte der Computer über längere Zeit ein stehendes Bild mit harten Kontrastkanten (z. B. schwarzen Text auf weißem Grund), konnte sich dieses Bild in der Bildröhre »einbrennen«. Die Konturen waren dann auf diesem Monitor dauerhaft als transparentes Geisterbild zu sehen. Es gab dafür auch keine rentable Reparatur. Wer sich dran störte, musste den Monitor erneuern.
Eine Automatik sollte Abhilfe schaffen: Wenn für einige Minuten keine Taste gedrückt und die Maus nicht bewegt wurde, schaltete der Computer auf einen schwarzen Bildschirm. Als hübschere Alternative zum ganz schwarzen Bildschirm gab es bald auch kleine Animationen oder Abfolgen von Bildern. Das Gestalten von solchen »Bildschirmschonern« wurde zeitweise zu einer eigenen Kunstform.
Die erste Generation der LCD-Flachbildschirme konnte noch ähnliche Probleme haben. Das änderte sich aber mit der Weiterentwicklung. Es kam der Punkt, wo sich Computerbesitzer für die Benutzung von Bildschirmschonern sogar auslachen lassen mussten, weil der Bildschirmschoner als Relikt aus vergangenen Zeiten galt.
Doch vor ein paar Jahren kam mit den OLED-Displays wieder eine neue Art von Flachbildschirmen auf den Markt. Die zeigen leider wieder eine gewisse Tendenz zum Einbrennen. Wer schon einen OLED-Monitor besitzt, sollte also lieber den guten alten Bildschirmschoner reaktivieren.
Eine plötzliche Änderung des Energieniveaus von Atomen wird in der Physik als Quantenübergang oder auch Quantensprung bezeichnet. Ein einzelner Quantensprung ist ein winzig kleiner Vorgang, dessen Auftreten nur sehr schwer im Experiment nachzuweisen ist. Dennoch wird das Wort heute als Metapher für einen großen Fortschritt benutzt.
Im Deutschen sind »Quanten« eigentlich ein Begriff aus der Physik, den man mit nichts verwechseln kann. Vermutlich passierte der Irrtum zunächst im Englischen, wo das Wort »quantum« auch die Bedeutung »Menge« hat. So konnte der zusammengesetzte Fachbegriff »quantum leap« (Quantensprung) als »großer Sprung« missverstanden werden. Vielleicht dachten manche sogar an den »giant leap for mankind« (großer Sprung für die Menschheit), mit dem Neil Armstrong sein Betreten des Mondes beschrieb.
Die falsche Quantensprung-Metapher hat sich inzwischen so verbreitet, dass sie Teil unserer Sprache geworden ist und auch von Leuten verwendet wird, die es eigentlich besser wissen müssten. Etwa die frühere Bundeskanzlerin Angela Merkel, bekanntlich eine promovierte Physikerin, hat in ihren Reden davon Gebrauch gemacht.
Die Motoren der meisten E-Autos sind so dynamisch, dass sie ohne Getriebeübersetzung auskommen. Man kann sie vom Stillstand bis zur Höchstgeschwindigkeit beschleunigen, ohne einen Gang wechseln zu müssen. Da Elektromotoren keinen Leerlauf benötigen, muss auch zum Anfahren und Anhalten nicht gekuppelt werden. Das Schalten auf »Rückwärtsgang« ist im Prinzip nur ein elektrisches Umpolen und braucht keine mechanische Umstellung.
Diese Eigenschaften machen das Fahren von Elektroautos eigentlich kinderleicht. Trotzdem glauben die etablierten Autohersteller, ihre Kunden könnten mit der Umstellung überfordert sein. Da die Bedienung einem Benzin-Auto mit Automatikgetriebe ähnlich ist, wird einfach an diese Benutzererfahrung angeknüpft und so getan, als hätte auch das E-Auto Automatik. Ein paar Hersteller treiben es auf die Spitze und bauen in die Mittelkonsole einen großen Schalthebel, der dem mechanischen Automatik-Wahlhebel nachempfunden ist. Andere haben zumindest einen kleineren Schalter mit den bekannten Buchstabenstellungen P, D, N und R (wovon P und N im Grunde überflüssig sind). In Ausstattungstabellen findet sich der kuriose Begriff »1-Gang-Automatik«. Doch wozu sollte das Auto eine Automatik brauchen, wenn es nur einen einzigen Gang gibt und noch nicht mal zum Anfahren gekuppelt werden muss?
Vermutlich ist das nur ein Phänomen der Übergangszeit und wird verschwinden, sobald sich Elektroautos weiter etabliert haben. Technisch wäre es für ein E-Auto ja völlig ausreichend, per Tastendruck zwischen Vorwärts und Rückwärts umschalten zu können.
Das Recht am eigenen Bild hat im Zeitalter der sozialen Netzwerke an Bedeutung gewonnen. Manche Leute reagieren heute sehr empfindlich, wenn man sie oder ihre Kinder ungefragt fotografiert. Häufig kommt dann die Forderung, das Foto sofort zu löschen. Aber das normale Löschen eines Fotos auf dem Handy oder einer Digitalkamera kann ein Bild gar nicht mehr zuverlässig aus der Welt schaffen.
Handykameras und andere digitale Kameras speichern Bilder auf sogenanntem Flash-Speicher. Die Daten werden darin in freien Speicherzellen abgelegt. Beim Löschen werden die betroffenen Speicherzellen als »frei« gekennzeichnet, damit sie bei nächster Gelegenheit mit neuen Daten überschrieben werden können. Nachdem ein Foto gelöscht wurde, ist es also im Inneren des Speichers zunächst noch vorhanden. Endgültig unlesbar werden die Daten erst nach und nach, wenn neue Daten darübergeschrieben werden. Aber wann welche Teile des Speichers wieder beschrieben werden, ist schwer vorherzusagen.
Es gibt spezielle Recovery-Programme, die die verbliebenen Datenschnipsel wieder zu lesbaren Bilddateien zusammensetzen. Es besteht natürlich keine Garantie, dass das Wiederherstellen vollständig klappt. Manchmal fehlen bereits Teile eines Bildes. Und je mehr Zeit seit dem Löschen vergangen ist, desto geringer sind die Chancen. Aber es gibt eben auch umgekehrt keine Garantie, dass ein gelöschtes Foto wirklich komplett gelöscht ist.
Wollte man Bilddaten wirklich sicher verschwinden lassen, müsste ein Fachmann den gesamten Speicher des Gerätes lückenlos mit neuen Daten überschreiben. Dann würden natürlich auch gewollte Daten, Einstellungen etc. gelöscht. Das ist schon ziemlich radikal und erfordert eine sorgfältige Schaden-Nutzen-Abwägung.
Fernseher und viele andere Geräte der Unterhaltungselektronik werden im Alltag nicht komplett stromlos geschaltet, sondern gehen nur in einen Bereitschaftsmodus.
Anfangs nahmen die Hersteller den Stromverbrauch im Standby-Modus nicht besonders wichtig. Mit steigenden Strompreisen und steigender Zahl fernbedienbarer Geräte entstand ein echtes Problem: Wenn z. B. Fernseher, Stereoanlage und Videorekorder jeweils 15 Watt Standby-Leistung hatten, waren das übers Jahr gerechnet fast 400 Kilowattstunden sinnlos vergeudeten Stroms. Kein Wunder also, dass Umweltschützer gegen den Standby-Verbrauch von Geräten rebellierten und dringend empfahlen, sie bei Nichtgebrauch auszustecken.
Das ist aber zum Glück nicht mehr Stand der Technik, denn inzwischen wurden in der EU klare Grenzen gesetzt. Neu verkaufte Geräte dürfen im Standby nur noch maximal 0,5 Watt verbrauchen. Das entspricht weniger als 5 Kilowattstunden pro Jahr und ist damit eine vernachlässigbare Größenordnung. Geräte, die im Standby noch Zusatzfunktionen (z. B. Anzeige der Uhrzeit) haben, dürfen theoretisch bis 1 Watt verbrauchen – was immer noch vertretbar ist. Der maximale Verbrauch von Handy-Ladegeräten im Leerlauf darf laut EU noch 0,3 Watt betragen. Die meisten aktuellen Exemplare gehen sogar schon komplett auf null runter, wenn gerade kein Handy angeschlossen ist.
Normalerweise gibt es mit modernen Geräten also keinen guten Grund mehr, auf den Komfort des Standby-Betriebs zu verzichten oder sie gar auszustecken. Es gibt sogar konkrete Argumente dagegen: Moderne Geräte nutzen den Standby auch, um im Hintergrund Programmdaten zu aktualisieren oder Updates zu installieren. Diese Funktionalität würde behindert, wenn das Gerät jede Nacht ausgesteckt bliebe.