Erhalten Sie Zugang zu diesem und mehr als 300000 Büchern ab EUR 5,99 monatlich.
Im Zeitalter des GPS für jedermann ist Kybernetik am anschaulichsten als untrennbare Kombination von Fahrzeugführung und Navigation erklärbar. Im engeren Sinn umfasst die Kognitive Kybernetik die Planung, Ausführung, Erfolgskontrolle und Korrektur zielgerichteter Handlungen. Die Grundlage jeder Form von Kybernetik bilden die logischen Gesetze der Kommunikation, welche von einem kybernetischen System zur Außenwelt und zwischen den Teilsystemen stattfindet. Die intellektuellen und kulturellen Leistungen der Menschheit stehen nicht im Programmheft der Evolution. Sie sind Nebenwirkungen vieler, für die Bewältigung des Lebens günstige Entwicklungsschritte. Damit verbunden ist die funktionalistische Deutung der Welt und des Weltgeschehens. Die Weltfrage ist, wie aus den dummen Kräften der Physik intelligente Lebewesen hervorgehen können. Dieser Übergang von der Physikalischen zur Kognitiven Kybernetik ist ein wesentlicher Teil des Mysteriums des Lebens und soll als Inversion der Kybernetik im Brennpunkt dieser Kollektion und Kompilation von Überlegungen stehen. Wie ein Hamburger im Sandwich liegt die Kognitive Kybernetik zwischen der normativ-holistischen Sichtweise von Soziologie, Technologie und Psychologie als Kulturalismus einerseits und der deskriptiv-reduktionistischen Sichtweise von Biologie, Physiologie und Neurologie als Naturalismus andererseits.
Sie lesen das E-Book in den Legimi-Apps auf:
Seitenzahl: 323
Veröffentlichungsjahr: 2012
Das E-Book (TTS) können Sie hören im Abo „Legimi Premium” in Legimi-Apps auf:
Anton Reutlinger
Kognitive Kybernetik
Dieses ebook wurde erstellt bei
Inhaltsverzeichnis
Titel
Einführung
Physikalische Kybernetik
Technische Kybernetik
Kognition und Zeichen
Kognitive Kybernetik
Rückwirkung und Rückkopplung
Daten- und Signalvergleiche
Redundanz im Überfluss
Navigation zur Zielerreichung
Kybernetik, Psychologie und Rationalität
Körper und Geist
Über den Ursprung von Sprache
Gedanken zur Ethik
Kybernetischer Naturalismus
Natur- und Lebenswissenschaft
Nachwort
Zusammenfassung
Impressum neobooks
Der reine Verstand sondert sich nicht allein von allem Empirischen, sondern sogar von aller Sinnlichkeit völlig aus. Er ist also eine für sich selbst beständige, sich selbst genügsame, und durch keine äußerlich hinzukommenden Zusätze zu vermehrende Einheit.
I.Kant, Kritik der reinen Vernunft, 1781
Denken ist nicht das Suchen nach Sinn und Wahrheit, sondern Streben nach Bestätigung.
Computergesteuerte Geräte und Maschinen gehören heute zum Alltag jedes Menschen und schon Kinderspielzeug wird mit scheinbar intelligenten Funktionen ausgestattet. Zum Standardhaushalt des berufstätigen Single gehören die intelligente Waschmaschine und der intelligente Kaffeeautomat. Der Unterschied zwischen Mensch und Maschine hinsichtlich bestimmter Fähigkeiten zur Lebensbewältigung wird immer kleiner. Die Vision ist, dass Maschinen ausreichend Intelligenz bekommen, um Aufgaben von Menschen übernehmen und selbstständig operieren zu können. Der Gipfel wäre erreicht, wenn die Maschinen nicht nur die von den Konstrukteuren und Anwendern oder Bedienern vorgegebenen Befehle oder Programme ausführen würden, sondern eigenmächtig über vernünftig, nützlich und notwendig oder gar über gut und böse entscheiden und danach handeln könnten. Alles was dafür notwendig und wesentlich ist, lässt sich als Kybernetik zusammenfassen. Im Flugzeug, in Kernkraftwerken und auf der Intensivstation ist sie unverzichtbar, weil Menschenleben davon abhängen.
Der Begriff der Kybernetik stammt bekanntlich vom griechischen Wort für Steuermann, wurde Mitte des 19. Jahrhunderts von einem polnischen Philosophen geprägt und von dem Mathematiker Norbert Wiener (1896-1964), im Verlauf seiner Arbeiten an Rechenmaschinen und Waffensystemen sowie neurophysiologischen Studien, 1948 durch sein Aufsehen erregendes Werk "Cybernetics or the science of communication and control in the animal and machine" in Wissenschaft und Technik eingeführt. Während sich der Begriff selbst erst in letzter Zeit durchsetzen konnte, hat die Kybernetik als Steuerungs-, Regelungs- und Automatisierungstechnik die moderne Welt mit ihren technologischen Produkten des Verkehrs, der Raumfahrt, der Medizin, der Computer und der Kommunikation erst möglich gemacht und hat sie längst geprägt. Jedes Schulkind ist heute mit Computer und Roboter vertraut. Kybernetik ist ein abstraktes Konzept zur Leitung oder Lenkung von Systemen, mit dessen Hilfe viele Erscheinungen der technischen wie auch der lebenden Welt erklärbar und beschreibbar werden, das aber nicht selbst ein Naturgesetz ist. Im Zeitalter des Global Positioning Systems für jedermann ist Kybernetik am anschaulichsten als untrennbare Kombination von Fahrzeugführung und Navigation mit Ortsbestimmung erklärbar. Charakteristikum für kybernetische Systeme ist die funktionale Kommunikation mit ihrer Umwelt und die autonome Entscheidungsfähigkeit.
Was soll nun der Begriff "Kognitive Kybernetik" bedeuten? - Es soll hier zunächst ein Arbeitsbegriff sein für eine bestimmte Überlegung. Diese geht aus von der Definition und Beschreibung von drei grundsätzlich verschiedenen Formen der Systemkybernetik: das sind die gesetzmäßigen Ursache-Wirkungs-Beziehungen in der unbelebten Natur als Physikalische Kybernetik, die klassische Steuerungs- und Regelungstechnik, oder zusammenfassend die Leittechnik, neuerdings noch mehr die Automatisierungstechnik und die Robotik, als Technische Kybernetik und schließlich charakteristische Fähigkeiten höherer Lebewesen, insbesondere der Geist des Menschen mit Wahrnehmungen, Gedanken, Erwartungen, Intentionen, Plänen und Zielen, eben als Kognitive Kybernetik. Im engeren Sinn umfasst die Kognitive Kybernetik die Planung, Ausführung, Erfolgskontrolle und Korrektur zielgerichteter Handlungen. Die Grundlage jeder Form von Kybernetik bilden die logischen Gesetze der Kommunikation, welche von einem kybernetischen System zur Außenwelt und zwischen den Teilsystemen stattfindet, sowie die Formen der zugehörigen Übertragungswege. Die Kommunikationsprozesse bilden Schnittstellen zwischen Systemen.
Das grundlegende Werk für die Kommunikations- und Informationstheorie stammt aus dem Umfeld und der Zusammenarbeit der Gründer der Kybernetik, von dem vielseitigen Mathematiker Claude Shannon (1916-2001) und Warren Weaver (1894-1978): A Mathematical Theory of Communication, 1949. Zu diesem Kreis wichtiger Köpfe gehörten außerdem die Physiologen W.S. McCulloch und Arturo Rosenblueth, der Ingenieur Julian Bigelow, die Mathematiker John von Neumann und Walter Pitts, der Wissenschaftsmanager Vannevar Bush, der Genetiker John B.S. Haldane. Eine einflussreiche Rolle für die Entwicklung der Kybernetik spielte der sogenannte "Wien-Zirkel im Exil", eine lockere Zusammenkunft von Forschern verschiedener Disziplinen, großenteils als Emigranten aus Europa.
Der struggle for life zwingt jedes Individuum zur Kommunikation mit seiner Lebenswelt. Die in technischen wie in biologischen Systemen notwendige Kooperation, Koordination und Synchronisation von Prozessen ist Zweck der Kommunikation und Gegenstand der Kybernetik. Es muss ausdrücklich betont werden, dass biologische Organismen nicht wirklich als Systeme im Sinne der Technischen Kybernetik betrachtet werden dürfen, sondern dass Organismen vielmehr eine eigene Kategorie von Strukturalität, Komplexität und Funktionalität bilden. Die ersten Vorbereiter der Kybernetik in der Biologie waren die Physiologen Claude Bernard (1813-1878), von dem der Begriff des "milieu intérieure" stammt, und der Begründer der Homöostase Walter Cannon (1871-1945). Klassische kybernetische Prozesse unterscheiden sich von homöostatischen Prozessen nur dadurch, dass erstere nach Erreichen des Zieles oder aus anderen Gründen beendet werden. Nach der Veröffentlichung von Wieners Werk wurden die Konzepte der Kybernetik in die Molekularbiologie aufgenommen unter anderen von Jacques Monod (1910-1976) mit seinem Werk "Zufall und Notwendigkeit" und in die Verhaltensforschung von dem Anthropologen Gregory Bateson (1904-1980). In der amerikanischen Psychologie ist von William T. Powers (*1926) die Perceptual Control Theory entwickelt worden, die im Kern besagt, dass Verhalten und Wahrnehmungen in einer zirkulären Kausalität stehen. Seine Hauptthese ist, dass die Sinnesaktivitäten des Organismus (perceptions) vom Verhalten gesteuert werden im Hinblick auf die Erhaltung der Lebensfähigkeit und umgekehrt die sensorischen Meldungen das Verhalten hinsichtlich der Sinnesaktivitäten steuern. Das Verhalten ist demnach eine Funktion der angestrebten und der tatsächlichen sensorischen Meldungen.
Zu den Ursprüngen und Grundlagen der Kognitiven Kybernetik im weiteren Umfeld gehören die Instinkttheorien, sowie die Motivations- und die Emotionspsychologie. Frühe Beiträge dazu sind die Principles of Psychology von William James (1842-1940), die Educational Psychology von dessen Schüler und Lerntheoretiker Edward Thorndike (1874-1949) und An Introduction to Social Psychology von William McDougall (1871-1938), der mit diesem Werk zu den Begründern der modernen Evolutionären Psychologie gehört. Den Gegensatz dazu bildete die inzwischen in den Hintergrund verdrängte Lehre des Behaviorismus, die Lebewesen einschließlich des Menschen generell als Verhaltens-Lern-Automaten bzw. als Blackbox nach dem Prinzip Stimulus-Response betrachtete. Ein Jahr nach James vollendete der amerikanische Psychologe E.B.Delabarre seine Dissertation "Über Bewegungsempfinden", in der er die Bedeutung der Körperbewegungen für die Wahrnehmung der Welt untersuchte.
Ein fast vergessener Vorläufer der Kognitionswissenschaften ist der in Auschwitz ermordete Psychologe und Philosoph Otto Selz (1881-1943), der sowohl auf die Wissenschaftstheorie und evolutionäre Erkenntnistheorie von Karl Popper (1902-1994) als auch auf Pioniere der Künstlichen Intelligenz wie Newell&Simon gewirkt hat. Da Selz das Denken als problemlösende Operation oder Handlung auffasste und ihm eine Zielsetzung unterstellte, muss man ihn als Denkpsychologen auch zu den Vorläufern der Kybernetik zählen. Ebenso wie Selz entstammt der Kommunikationspsychologe Karl Bühler (1879-1963) der Würzburger Schule, dessen Sprachtheorie von 1934 zu den Gründungspfeilern der Kognitiven Kybernetik zu zählen ist und als Vorläufer für L.Wittgensteins (1889-1951) Sprachspiele und J.L.Austins (1911-1960) Sprechakttheorie bis zur Theorie des kommunikativen Handelns von Jürgen Habermas (*1929) reicht. Naturwissenschaftliche Grundlagen zur Erkenntnistheorie lieferte der Entwicklungspsychologe und Philosoph Jean Piaget (1896-1980), der damit als Vorläufer des Konstruktivismus gilt. Den vorläufig letzten Schritt der Entwicklung in der Psychologie bildete das Werk Cognitive Psychology (1967) von Ulrich Neisser, indem er die Einzelperspektiven Behaviorismus, Psychoanalyse und Informationsverarbeitung zu einem funktionalen System integrierte.
In Gruppen, Populationen, Schwärmen und Gesellschaften mit autonomen Individuen gibt es Mechanismen des kollektiven Verhaltens, die man in Abgrenzung zur Systemkybernetik als Soziokybernetik bezeichnen kann. Eine ihrer wichtigsten Formen ist die der biologischen Evolution nach Darwin (1809-1882) mit Variation und Selektion und einer ihrer terminologischen Begründer ist der Biologe Jakob von Uexküll (1864-1944) mit seinem Konzept der subjektiven Umwelt und des Funktionskreises mit Merkwelt und Wirkwelt, was in moderner Wortschöpfung als "niche construction" bezeichnet wird. Bedeutende Beiträge lieferten auch der Entdecker der Gruppendynamik Kurt Lewin (1890-1947), der Biologe Ludwig von Bertalanffy (1901-1972) mit seiner allgemeinen Systemtheorie und dem Begriff des Fließgleichgewichts offener Systeme, sowie Anatol Rapoport (1911-2007) zur Lösung sozialer Konflikte, ausgehend von biomathematischen und spieltheoretischen Überlegungen. In neuerer Zeit haben sowohl systemtheoretische als auch sprachkritische Theorien an Bekanntheit gewonnen, die in der Theorie sozialer Systeme von Niklas Luhmann (1927-1998) und dem symbolischen Interaktionismus von George Herbert Mead (1863-1931) und Herbert Blumer (1900-1987) ihren Ausdruck fanden. Letzterer sieht die Begründungen für Verhaltensformen der Menschen in den Bedeutungen der Dinge, die ihr Leben berühren. Die Bedeutungen entstehen durch soziale Interaktion und können im Umgang mit den Dingen modifiziert werden. Jürgen Habermas hat die Überlegungen Meads aufgenommen und in seiner Theorie des kommunikativen Handelns weiterentwickelt. Dass es Systemkybernetik innerhalb der Soziokybernetik wie umgekehrt Soziokybernetik innerhalb der Systemkybernetik geben kann, bedarf keines besonderen Nachweises, denn ihre Vernetzung ist geradezu eine pragmatische Notwendigkeit. In jüngster Zeit findet der soziale Anteil zunehmende Beachtung, die sich in der Etablierung der "sozialen Neurowissenschaft" ausdrückt.
Die Einteilung macht nur Sinn, wenn von Differenzen und Gegensätzen zwischen den drei Formen der Systemkybernetik ausgegangen wird. Die Differenzen manifestieren sich in der Zielstrebigkeit technischer und kognitiver Systeme im Gegensatz zur Balancestrebigkeit - als Tendenz zu einem Gleichgewichtszustand - natürlicher Systeme bzw. dem Streben zur Homöostase biologischer Systeme. Das Leben erscheint an seinen Oberflächen als ein geordnetes, ununterbrochenes und beobachtbares Nacheinander funktionaler, zweckhafter Ereignisse, während die sichtbare physikalische Wirklichkeit von einem stur gesetzmäßigen, manchmal zufällig erscheinenden Nebeneinander und Übereinander von Wirkungen erzeugt wird.
Die intellektuellen und kulturellen Leistungen der Menschheit stehen nicht im Programmheft der Evolution. Sie sind Nebenwirkungen vieler, für die Bewältigung des Lebens günstiger Entwicklungsschritte. Damit verbunden ist die funktionalistische Deutung der Welt und des Weltgeschehens. Die Weltfrage ist, wie aus den dummen Kräften der Physik intelligente Lebewesen hervorgehen können, oder in welchem Verhältnis die Kausalität des Naturgeschehens und die Finalität des menschlichen Bewusstseins zueinander stehen. Dieser Übergang von der Physikalischen zur Kognitiven Kybernetik ist ein wesentlicher Teil des Mysteriums des Lebens und soll als Inversion der Kybernetik im Brennpunkt dieser Kollektion und Kompilation von Überlegungen stehen. Diese Inversion verläuft parallel zum Übergang von der Natur zur Kultur. Es sollen nicht die Ergebnisse der Gehirnforschung dazu präsentiert werden, zumal sie noch keine Antwort hat auf diese Frage, sondern es sollen einige grundsätzliche Erkenntnisse und Ideen skizziert werden, die ihrerseits Implikationen für die Erforschung des Gehirns als Werkstatt der Kognition haben können. Es geht auch nicht darum, Bewusstsein zu erklären, denn das ist gerade eines der Phänomene als Konsequenzen der Inversion. Das Verständnis der Kognition an sich wird zweifelsfrei praktische Auswirkungen haben auf Technologien wie Mensch-Maschine-Interaktionen, auf sämtliche Humanwissenschaften, auf den Wissenschaftsbetrieb selbst und in fernerer Zukunft auch auf Medien, Weltanschauung und Kultur überall auf dem Globus.
Eine Tatsache ist, dass die reflexive Betrachtungsweise des menschlichen Geistes hochgradig irreführend ist, was die Geschichte der Philosophie und der Psychologie bis heute deutlich zeigen. Die Gewohnheit, vom Gebrauchszweck eines technischen Systems auf sein Konstruktionsziel zu schließen, also zu glauben, dass ein System für das konstruiert ist, wozu es benutzt wird, ist für die natürliche Evolution jedoch unzulässig, aber neben Theologen auch für Biologen und andere Welterklärer verführerisch naheliegend. Die Natur operiert nicht mit den Begriffen der Menschen und sie funktioniert keineswegs so wunderbar und rationell, wie oft behauptet wird, weil die Selektion im Verlauf der Evolution nicht notwendig zur besten aller Möglichkeiten führen muss. Multifunktionalität von Organen und Gliedern - zuallererst der Mund des Menschen zum essen, trinken, atmen, schmecken, sprechen, küssen - ist ein eklatantes Kennzeichen der biologischen Evolution komplexer Organismen und steht in krassem und logischem Widerspruch zu den Prinzipien von Design, Optimierung, Perfektion und Entelechie. Die Genese des individuellen Lebens wie auch des individuellen Bewusstseins ist ein Bootstrapping-Prozess mit einem natürlichen Anfang und mit Entwicklungsschritten, die von jeder erreichten Stufe die jeweils nächste Stufe aus sich selbst heraus generieren. Um Leben, Geist und Bewusstsein verstehen zu können, muss man sich daher zuerst vom historischen Sprachgebrauch, von vorurteilsbeladenen oder zweckbestimmten Denkweisen und von Metaphern aus Kultur und Technik gründlich lösen - um sie dann durch andere zu ersetzen.
Man darf davon ausgehen, dass der Geist anders funktioniert, als es ihm selbst an seiner Oberfläche erscheint und dass er irdischer ist, als manchem Geist lieb ist. Obwohl er offensichtlich eine immanente Möglichkeit der Natur ist, gibt es gute Gründe zu der Annahme, dass er eine äußerst zufällige, willkürliche und fragile Laune der Evolution ist. Daher ist es verwunderlich, dass es immer noch Philosophen, Geistes- und sogar Naturwissenschaftler gibt, die dem Geist mystische, metaphysische oder spirituelle Eigenschaften zuschreiben und seine Ursprünge im Göttlichen, Geheimnisvollen oder Übernatürlichen suchen.
Die Auflösung des dualistischen Problems von Körper und Geist oder Leib und Seele liegt einzig in der Extension des Naturbegriffes zur umfassenden Integration des Menschwesens. Geist ist in seinen funktionalen Grundlagen und Bedingungen Teil der Natur. Zur Bestätigung sind naturwissenschaftliche, integrative, die verschiedenen Ebenen der Phänomene menschlichen Lebens verbindende Begriffe, Beschreibungen und Erklärungen notwendig. Wie ein Hamburger im Sandwich liegt die Kognitive Kybernetik zwischen der normativ-holistischen Sichtweise von Theologie, Soziologie, Technologie und Psychologie als Kulturalismus einerseits und der deskriptiv-reduktionistischen Sichtweise von Biologie, Physiologie und Neurologie als Naturalismus andererseits.
Von den Bewegungsformen der Vögel zum Beispiel ist der Begriff des natürlichen Fliegens abgeschaut. Das Fliegen des Menschen mit Fluggeräten beruht auf den physikalisch-technischen Funktionen Auftrieb und Antrieb. Die Abstraktion davon hat dem Begriff des Fliegens eigene Konnotationen verliehen wie "Freiheit über den Wolken", "die Zeit vergeht wie im Flug" oder psychische Phänomene wie den "Jetlag", ohne dass dadurch ein physikalisch-psychischer Dualismus des Fliegens begründet würde. So frei und kunstvoll sich der Flieger im Flug bewegen kann, so kann er den Bezug zur umgebenden Luft und zum Erdboden doch nie verlieren. Es muss daran gearbeitet werden, die gedankliche und begriffliche Kluft zwischen den Beschreibungsebenen von Körper und Geist oder Natur und Kultur ebenso zu überwinden.
Ich glaube, die Kybernetik ist der größte Bissen aus der Frucht vom Baum der Erkenntnis, den die Menschheit in den letzten zweitausend Jahren zu sich genommen hat.
Gregory Bateson, Anthropologe und Kybernetiker
Die Funktionsweise der Natur hat ihren Ursprung in den bekannten Kräften der Physik, also der Gravitation, der elektromagnetischen Wechselwirkung und der im 20.Jhdt. entdeckten starken und schwachen Kernkräfte. Sie alle sind dadurch gekennzeichnet, dass sie keine Ziele verfolgen oder vorbestimmten Zwecken unterliegen, denn sie wirken immer und überall ohne Unterschied in derselben Weise und sie sind weder veränderbar noch beeinflussbar. Sie können nicht ausgeschaltet und sie müssen nicht eingeschaltet werden. Die Vielfältigkeiten und Variabilitäten ihrer Erscheinung, mithin die Kontingenzen der beobachtbaren und erlebbaren Welt, beruhen auf der Überlagerung der verschiedenen Kräfte mit antagonistischer Wirkung sowie unterschiedlicher Stärke und Reichweite und auf der unermesslichen Anzahl der Kraftträger. Sie können dadurch Strukturen und Muster bilden und auf dieser Grundlage Leben hervorbringen - und sie können und sie werden es wieder vernichten. Ihre Wirkung erfolgt entlang von Kraftlinien, Gradienten, Potentialgefällen, Spannungsfeldern, Konzentrationsdifferenzen und ähnlichen. Im Zentrum stehen die Gesetze der Bewegungen, die Erhaltungssätze der Thermodynamik und die Atom- und Quantenphysik. Aber auch Elektrostatik, Trägheit, Reibung u.a. - gewissermaßen Primitive der Physik - sind omnipräsente und bestimmende Mechanismen der Physikalischen Kybernetik. Charakteristikum ist einmal, dass der Wechsel von einem Ausgangszustand in einen Folgezustand nur vom Ausgangszustand abhängig ist und eine asynchrone Kommunikation realisiert; desweiteren, dass die Funktionsweise des Großen bereits in der Funktionsweise der kleinsten Teilchen begründet ist (Bottom-up-Konstruktion).
Jedes Kind schon macht Erfahrungen mit der feindseligen Spannung zwischen Fett und Wasser. In der Schule dann lernt man die Ursachen dafür kennen, die in den elektrophysikalischen Eigenschaften der beteiligten Stoffe liegen. Diese sind es, auf denen alles Leben gegründet ist, indem sie beständige Grenzflächen zwischen Wasser und hydrophoben Kohlenstoffverbindungen wie Fette, Lipide und Proteine schaffen, so dass Zellmembrane und Zellstrukturen als Fabrikhallen des Lebens entstehen können. Aus diesem Grund ist Leben höchstwahrscheinlich im Meer entstanden, von wo es sich über die Welt ausbreiten konnte. In physikalischen Naturprinzipien der Diskrimination wie hydrophob/hydrophil oder attraktiv/repulsiv, unter dem universalen Dach der attraktiven Gravitation, steckt das Grundprinzip der biologischen Selbstorganisation. Es war die Physikalische Kybernetik, die das ursprüngliche Leben auf natürliche Weise hat entstehen lassen. Vermutlich waren es regelmäßig und periodisch aktive Erscheinungen wie Gezeiten, Geysire oder sogenannte black smokers der Tiefsee, die Kohlendioxid, Methan und Stickstoff der damaligen Atmosphäre mit Schwefel, Phosphor, Calcium, Eisen u.a., den lebenswichtigen Substanzen aus dem Erdinneren, in Wasser an der Erdoberfläche in Verbindung gebracht haben. Sogar in Meteoriten, die der damaligen Erde gleichen, wurden verschiedene Aminosäuren sowie Ammoniak gefunden. Damit wären die substanziellen Voraussetzungen für die Entstehung von Leben erfüllt gewesen. Darüber hinaus müssen die inneren Möglichkeiten zur Biogenese, d.h. die physikalisch-chemischen Gesetzmäßigkeiten als Bedingungen, sowie die äußeren Möglichkeiten, d.h. geeignete geophysikalische Bedingungen wie die Sonneneinstrahlung mit hohem und energiereichem UV-Anteil mangels Ozonschicht, als realistisch nachgewiesen werden. Dann muss man mangels besser begründeter Alternativen die natürliche Entstehung des tatsächlich entstandenen Lebens als logisch erwiesen akzeptieren.
Weder ist das Leben rein zufällig, noch notwendig entstanden, sondern mit einer unbestimmten Wahrscheinlichkeit. Auffallend ist, dass das Leben aus relativ wenigen Familien chemischer Substanzen mit vielen repetitiven Bauteilen aufgebaut ist, die sich ineinander transformieren lassen und dadurch nicht nur eine gigantische Vielfalt an verschiedenen Substanzen erzeugen können, sondern obendrein komplexe Wirkungskreise als kybernetische Prozesse bilden. So wie heute bekannt ist, dass Samen mit dem Wind von Kontinent zu Kontinent getragen werden, so muss angenommen werden, dass organische Moleküle von Beginn des Lebens an durch Atmosphäre und Meere rund um den Erdball getragen wurden. Sicher ist das erste Leben nicht schlagartig durch ein zufälliges Einzelereignis entstanden, sondern allmählich durch zahllose Variationen lang andauernder Prozesse mit Rückwirkungen auf Grund endloser Wiederholungen. Grundlegende Bedingung des Lebens, ob auf der Erde oder anderswo, sind periodische Energieschwankungen als "Energiepumpe", wie sie von der Sonne oder auch von den Gezeiten geliefert werden. Entscheidend dabei ist das hohe thermodynamische Niveau an der Erdoberfläche von etwa 300 Kelvin und die Mischung aus Regelmäßigkeit und Unregelmäßigkeit oder Instabilitäten und Chaos seiner Veränderungen, so dass Systeme entstehen können, die sich immer in Fluktuationen fern vom thermodynamischen Gleichgewichtszustand befinden, diesen aber nie erreichen, außer im Zustand des Todes.
Der Chemiker und Philosoph Ilya Prigogine (1917-2003) bezeichnete solche offenen Systeme als dissipative Systeme, die Ordnung schaffen können aus Unordnung durch Zufuhr und Zerstreuung von Energie oder Materie, im scheinbaren Gegensatz zum zweiten Hauptsatz der Thermodynamik von Rudolf Clausius (1822-1888), dem sogenannten Entropiesatz. Diese von manchen Menschen als naturwissenschaftlicher Widerspruch empfundene Vorbedingung des Lebens gehört zu den großen Fragen der Menschheit, weil sie das Fundament des Schöpfungsglaubens ist.
Die autonome Entstehung von Ordnung und Komplexität aus Unordnung, oder Selbstorganisation, genauso wie ihr Zerfall, ist bereits im Zusammenwirken und Wechselspiel der Grundkräfte der Physik angelegt, die in Form der Naturgesetze beschrieben werden. Deren räumlich variantes und zeitlich vermutlich invariantes Wirken reflektiert die Existenz und die Möglichkeit von Ordnung und Struktur im energetischen Chaos unmittelbar nach dem Urknall, indem lokal scheinbar und temporär stationäre Zustände der Balance erzeugt werden, von Atomen und Molekülen über unser Sonnensystem bis zu Galaxien. Die Naturgesetze bilden somit den Gegenpol zur Entropie als Tendenz zur Unordnung. So ist die Schöpfung keine Schöpfung, sondern eine fortlaufende Selektion und Verwirklichung von Ereignissen aus einer quasi unendlichen Zahl immanenter Möglichkeiten, also eine kosmologische Evolution.
Die Welt besteht offensichtlich aus Gegenständen, die zueinander in scheinbarer Ruhe sind oder sich bewegen, manche linear von Ort zu Ort, manche in dauernden Schwingungen oder Oszillationen um einen Ort. Jedes Kind weiß, dass ein Luftballon eine Kugelform bildet, jeder Mensch der höheren Breiten kennt Schneekristalle und jede Frau liebt funkelnde Edelsteine. Die Gemeinsamkeiten sind die jeweils speziellen Formen, die ohne menschliche Eingriffe auf natürliche Weise entstehen. Es gibt also zusätzlich zu den Bewegungsgesetzen der Physik Formgesetze der Natur. Solche Formen sind mehr oder weniger dauerhaft, von augenblicklicher Flüchtigkeit bis Jahrmilliarden. Die Formen sind gekennzeichnet durch ihre scheinbare Unveränderlichkeit und relative Unbeweglichkeit ihrer Teile zueinander, wobei allerdings die meisten Veränderungen und Bewegungen für das bloße Auge nicht wahrnehmbar sind. Die Formen sind Produkte der unterschiedlichen Wirkungen der physikalischen Kräfte, wenn sie die Gravitationskraft übersteigen und als atomare und molekulare Kräfte in schwingenden oder oszillierenden Bewegungen zur Geltung kommen. Organismen sind Erscheinungsformen der Natur, gekennzeichnet durch die ungeheure Vielfalt und die Bestimmtheit der beteiligten Substanzen und ihrer charakteristischen Formgesetze.
Wenn die Physikalische Kybernetik nicht so gesetzestreu wäre, wie sie zu sein scheint, dann gäbe es keine Logik - jedenfalls keine Erkenntnis der Logik -, keine Mathematik und erst recht kein Leben, das sich darüber logische Gedanken machen könnte. Streng genommen ist der teleonome Begriff Kybernetik für die physikalische Welt nicht zutreffend, weil natürliche Systeme immer einem Gleichgewichtszustand zustreben und dadurch eigenen kybernetischen, jedoch zweckfreien Gesetzmäßigkeiten unterliegen. Im Interesse vergleichender und einheitlicher Darstellungsformen ist die Verwendung der Bezeichnung trotzdem zweckmäßig. Da die Wirkungsweisen und Gesetzmäßigkeiten der Physik die Grundlagen liefern für die biologische und die kognitive Kybernetik, ist auch die Bezeichnung Physikalische Kybernetik begründet. Die elementaren Wechselwirkungskräfte der Physik realisieren eine Kommunikation zwischen den Kraftträgern, wogegen die für die Kybernetik charakteristische Auswahl- und Entscheidungsmöglichkeit in den Naturkonstanten festgelegt und eingefroren ist. Je komplexer eine natürliche Struktur ist, insbesondere bezüglich der Diversität der enthaltenen Substanzen, umso mehr Freiheiten oder Kontingenzen der Beziehungen und Wechselwirkungen sind damit verbunden und umso mehr Komplexität wird dadurch angehäuft. Dieses Prinzip der Chemie ist Grundlage der biotischen Evolution und der Funktionsweise eines Organismus und bildet somit den Hintergrund für die Zweckmäßigkeit der Kybernetik als wissenschaftliche Methodik zur Erklärung von Organismus und Leben.
Historisch ist die Physikalische Kybernetik so alt wie die Philosophie, so weit deren Geschichte bekannt ist. Die Naturphilosophen des antiken Griechenland ein halbes Jahrtausend vor Null versuchten die Ursachen und Wirkungsweisen des sichtbaren Weltgeschehens zu deuten, um daraus letztlich die zukünftige Entwicklung und mögliche Ziele abzuleiten. Höchst erstaunliche Erklärungen fanden schon damals die Atomisten um Demokrit, deren Thesen kleinster, unteilbarer Teilchen als Bausteine der Welt der Atomphysik verblüffend ähnlich sind. Zwei Jahrhunderte später hat der Philosoph Epikur das atomistische Weltmodell übernommen, weitere zweieinhalb Jahrhunderte später der römische Dichterphilosoph Lukrez und schließlich die englische Herzogin Margaret Cavendish (1623-1673) eine genauso eigenwillige wie scharfsinnige Version von Naturphilosophie, bevor John Dalton 1808 die Atomphysik im modernen Sinn begründete. Mit der Relativitätstheorie und der Quantenphysik wurde das mechanistische Weltbild und eine deterministisch vorausberechenbare Welt verabschiedet. Hätte die Welt oder die Natur einen zu vermutenden, höheren Zweck, dann müsste die Frage gestellt werden, ob derselbe Zweck nicht mit anderen Mitteln erreicht werden könnte, die mit höherer Zuverlässigkeit, höherer Effektivität oder geringerem Aufwand verbunden wären.
Die "Physikalische Kybernetik" von Lukrez (98-55 v.Null), ein Ausschnitt aus seinem Lehrgedicht "De rerum natura":
Denn gewiß haben nicht durch Vernunft die Atome sich aus sich selbst mit scharfsinnigem Geist in Ordnung plaziert, wahrlich auch nicht vereinbart, welche Bewegung sie machten, sondern weil auf vielfache Art viele Samen der Dinge seit endloser Zeit schon, gestoßen von Schlägen und durch eigenes Gewicht bewegt, zu eilen gewohnt und sich auf alle Art zu einen und alles zu prüfen, was sie zu schaffen unter sich sie wären vereinigt, darum geschieht es, daß, die mächtige Zeit hindurch sich verbreitend, jeder Art Verbindungen sie und Bewegung erproben und am Ende so die sie vereinen, die plötzlich geschleudert, häufig zum Anfang werden sodann gewaltiger Dinge, dieser Erde, des Meeres und des Himmels, des Stamms der Belebten.
Von Menschen konstruierte Systeme sind zielgerichtet und zweckbestimmt. Der Zweck und die Funktionsweise der Teilsysteme ist ausschließlich im Zweck des Gesamtsystems begründet, weshalb genau hier die Probleme der technisierten Welt beginnen, indem das Eigenleben der Teilsysteme und ihre Interaktionen untereinander und mit der Außenwelt nicht ausreichend berücksichtigt werden. Die typische Konstruktionsmethode ist Top-down, also das Zerlegen eines Problems in kleinere, leichter lösbare oder bereits gelöste Teilprobleme; eine Methode, die erstmals 1637 von Descartes beschrieben wurde und heute als "stepwise refinement" bekannt ist. Da man die Welt nicht immer wieder neu erfinden will, werden nach Möglichkeit bereits vorhandene, vorzugsweise standardisierte Bauelemente verwendet und zu Komponenten zusammengesetzt, so dass in der Praxis eine Kombination von Top-down und Bottom-up als Outside-in-Konstruktion am häufigsten anzutreffen ist. Diese Methode wird intuitiv auch in der naturwissenschaftlichen Forschung angewendet, indem beobachtete Phänomene zu den bereits bekannten Gesetzen von Physik und Chemie in Beziehung gesetzt werden.
Eines der Charakteristika der Technischen Kybernetik ist die vom Konstrukteur oder Betreiber vorgenommene, einmalige oder periodisch zu wiederholende Vorausberechnung des Systemverhaltens zur Zielerreichung. Die Grundlage dafür ist die in der Konstruktion implantierte Möglichkeit der deterministischen Einflussnahme auf das System als Steuerung oder Lenkung. Die Zielsetzung ist meist starr, wenngleich versucht wird, genau dies durch adaptive Systeme und mehr oder weniger "intelligente" Systeme, besonders Roboter, zu umgehen und sie dem Menschen immer ähnlicher zu machen. Andererseits ist es bisher eben nicht gelungen, die kognitiven Fähigkeiten des Menschen vollständig zu imitieren und trotz erstaunlicher und bewundernswerter Errungenschaften ist nicht sicher, ob es überhaupt machbar ist. Man hat es geschafft, Sonden auf winzigen Asteroiden im Weltraum landen zu lassen, aber man hat bis heute erfolglos versucht, ein Auto per Computer kollisionsfrei durch fließenden Straßenverkehr zu lenken. Die technologischen Prinzipien und Mechanismen dieser Systeme sind demzufolge bereits bekannt und bilden den Ausgangspunkt für die Kognitive Kybernetik.
Bei technischen Systemen als menschlichen Artefakten ist die Variabilität prinzipiell proportional zur Komplexität. Die Zweckbestimmtheit technischer Systeme bringt es mit sich, dass umso mehr Varianten möglich sind, je mehr Bauteile und Teilsysteme variiert werden können. Die Vielfalt der Bedürfnisse der Anwender sowie die Vielfalt der Eigenheiten der Umwelt macht die Variation notwendig zur Optimierung der Zweckmäßigkeit in Anpassung an die Bedürfnisse in den jeweiligen Umweltgegebenheiten. Bei Autos gibt es deutlich mehr Varianten als bei Tretrollern. Bei natürlichen Artefakten, also den Spezies im Spektrum des Lebens, ist es umgekehrt. Es gibt augenscheinlich bei den kleinsten Lebewesen sehr viel mehr Varianten als bei Elefanten oder Walen oder auch bei Hominiden. Das ist ein deutliches Argument für die Zweckfreiheit der Lebewesen und für die biologische Evolution des Lebens, weil beide nur dadurch vernünftig erklärbar sind.
Die Grundbausteine der Technischen Kybernetik sind Sensoren und Detektoren zur Gewinnung und Quantifizierung der notwendigen Information, Transformatoren und Prozessoren zur Interpretation, Verarbeitung und Umformung von Information und schließlich Aktoren zur Anwendung der Information (z.B. Schrittmotoren), letztlich der Systemzweck. Die Anordnung der Bausteine zu einem kybernetischen System ist auch bekannt als EVA-Schema, d.h. Eingang-Verarbeitung-Ausgang. Nicht zu vergessen sind Übertragungs- und Speicherungssysteme, die zusammen mit Sensor- und digitalen Computersystemen Schlüsselfunktionen einnehmen und einen enormen Innovationsschub erfahren haben. Die Teilsysteme oder Verarbeitungseinheiten bestehen selbst wieder aus Teilsystemen, z.B. elektronische Schaltnetze und Schaltwerke mit Gedächtnisfunktion, so dass sie eine rekursive oder verschachtelte Struktur bilden. Aus Zuverlässigkeits- und Kapazitätsgründen sind moderne Systeme meist redundant ausgelegt und verteilt angeordnet. Man unterscheidet Steuerungsketten und Regelkreise, realisiert als lineare Steuerungs- und rückgekoppelte Regelungssysteme mit festen Sollgrößen, bzw. adaptive Regelungssysteme mit variablen Sollgrößen. Die aufwendigere Regelung ist gegenüber der Steuerung notwendig, wenn unplanbare Ereignisse und Fremdeinwirkungen korrigiert und kompensiert werden müssen. In jedem Fall ist die Funktionsweise und damit die Abfolge der Zustandswechsel vom Konstrukteur durch Auswahl und Anordnung der Bausteine vorgegeben und folgt meist einer halbsynchronen Übertragung mit Steuerung durch Sender oder Empfänger, manchmal auch einer synchronen Übertragung mit Takt- oder Uhrsteuerung. Die Sensordaten werden entweder periodisch abgefragt - allgemein als Polling, als pull-Prinzip oder hier als halbsynchron-empfängergesteuert bezeichnet - oder die Sensoren schicken Daten, vornehmlich bei Alarmsystemen, in eigener Initiative - allgemein als Interrupt, als push-Prinzip oder hier als halbsynchron-sendergesteuert bezeichnet - an die zentrale Verarbeitungseinheit. Die vierte elementare Kommunikationsform ist die asynchrone Übertragung ohne Steuerung von außen. Sie findet in der Technischen Kybernetik weniger Verwendung, weil sie zusätzlich einen Puffer erfordert und weil ihr Ablauf weniger vorhersehbar und steuerbar ist. In der Transportlogistik dagegen ist sie sehr häufig und in verschiedenen Formen anzutreffen, mit einem Lager, Speicher, Tank, Behälter oder dergleichen als Puffer. Eine Sonderform asynchroner Übertragung ist möglich, wenn ein oder mehrere Empfänger immer bereit sind. Diese Übertragungsform ist in natürlichen Systemen die Regel, wie z.B. die Planeten als Empfänger der Sonnenstrahlung.
Jedes kybernetische System ist prinzipiell ein Kommunikationssystem. Es ist zusammengesetzt aus einem Signalerzeuger, der Signalstrecke, einem Signalfilter und dem Signalempfänger. Das Signal kann beispielsweise die Lufttemperatur sein wie bei einem Heizungssystem und der physische Signalträger ist dann Heißwasser oder Heißluft. Wenn variable Signalempfänger zu bedienen sind, dann ist ein Regelungssystem notwendig, vor allem auch dann, wenn Störungen auf der Signalstrecke eine unvorhersehbare Filterung des Signals bewirken. Ein aktiver, also steuerbarer Signalfilter als Regler, ermöglicht die Bedienung unterschiedlicher Signalempfänger bzw. unterschiedliche oder variable Bedürfnisse der Signalempfänger. Dazu muss beim Signalempfänger die Signalwirkung gemessen und gegebenenfalls mit dem Bedürfnis verglichen werden. Das besorgt beim Thermostat das Thermometer.
Die Architektur technischer Kommunikationssysteme, besonders Computernetzwerke, wird beschrieben durch das weltweit standardisierte, sogenannte 7-Schichtenmodell mit den drei Hauptschichten Transportschicht, Netzwerkschicht und Anwendungsschicht. Anwendungen in vernetzten Kommunikationssystemen, wie die menschliche Sprache, integrieren und erstrecken sich über alle Schichten, von der physischen Schicht der den Schall übertragenden Luft bis zu den Bedeutungen der sprachlichen Begriffe und den Deutungen der Aussagen. Eine umfassende Kommunikationstheorie ist daher nicht möglich, denn sie müsste annähernd eine "great unified theory" der Welt sein, da alles Geschehen der Welt Kommunikation ist, jeweils auf unterschiedlichen Betrachtungs- oder Aggregationsebenen, vom Menschen über technische Systeme, über Moleküle und Atome als Kommunikationssysteme bis zu den Elementarteilchen. An jeder Kommunikation zwischen Lebewesen sind alle niedrigeren Betrachtungsebenen beteiligt. Das Schichtenmodell ist eine starke Vereinfachung, weil sie sich jeweils nur auf eine bestimmte der Aggregations- oder Systemebenen bezieht und die übrigen ausblendet. Durch die Modularität des Schichtenmodells wird eine hohe Flexibilität in Form eines Baukastensystems erreicht, so dass Anwendungen auf verschiedenen Übertragungsmedien eingesetzt werden können, ohne dafür von Grund auf neu konstruiert werden zu müssen. Die Transportschicht beschreibt das physikalische Übertragungsmedium mit der passenden Kodierung der Signale, Datenorganisation, Paketierung und Steuerung der Übertragung zwischen zwei unmittelbar oder physisch verbundenen Punkten. Die Netzwerkschicht beschreibt die Funktionen und Protokolle für Verbindungsaufbau und -abbau, die notwendig sind zur Adressierung von Knoten, Vermittlung in strukturierten Netzen, Koordination, Steuerung, Sicherung und Kontrolle der anwendungsneutralen Übertragung von Datenpaketen zwischen den Punkten eines Netzwerkes. Die Anwendungsschicht schließlich beinhaltet die Kodierung, Darstellungsweise und Bedeutung der Zeichen sowie Konventionen der Kommunikationspartner zur Verständigung und einige typische Funktionen zur Datenübertragung zwischen Anwendungen auf verschiedenen Netzwerkknoten oder Kommunikations- und Rechnersystemen. Programme der Anwendungsschicht benutzen Funktionen der Netzwerkschicht, so wie deren Dienstprogramme die Funktionen der Transportschicht nutzen.
Für die Übertragung zwischen Sensoren und zentraler Verarbeitungseinheit bzw. zwischen Verarbeitungseinheit und Aktoren kommen verschiedene Strategien zur Anwendung: die fortlaufende Übertragung eines Zustandes mit festgelegten Übertragungsintervallen oder die bedarfsgesteuerte Übertragung aktueller Zustandsänderungen. Die Auswahl ist abhängig von den Voraussetzungen und Eigenschaften des Systems und der eingesetzten Technologien - z.B. "Eigenintelligenz" der Teilsysteme und Übertragungs- und Verarbeitungskapazitäten - sowie den Auswirkungen auf und Anforderungen an das System wie Wirksamkeit, Wirtschaftlichkeit, Zuverlässigkeit, Sicherheit. Die Auswirkungen der gewählten Strategie und ihrer Parameter auf die Kybernetik des Systems prägen sein dynamisches Verhalten und tragen zur Komplexität bei. Vor- und Nachteile sind in jedem Anwendungsfall zu bewerten.
Die Qualität eines Regelungssystems ist sehr stark von zwei Parametern abhängig: der Sensibilität bzw. Zeitdauer zur Erkennung einer Abweichung vom Sollwert und der Zeitdauer für die Reaktion des Stellgliedes bis zur Wirkung auf die Regelgröße. Beide Parameter sind entscheidend von der Anzahl der Messungen, mit andern Worten der Durchläufe der Rückkopplungsschleife, pro Zeitintervall abhängig. Zusammen bestimmen diese Parameter das dynamische Verhalten jedes Regelungssystems. Im ungünstigen Fall können Abweichung und Reaktion sich gegenseitig so aufschaukeln, dass es zu chaotischem Verhalten oder sogar zur Zerstörung des geregelten Systems kommt. Ursachen dafür sind Zeitverzögerungen im Regelkreis durch Laufzeiten und Speichereffekte. Um dies zu verhindern, kann die Reaktion des Reglers auf verschiedene Arten bestimmt werden: proportional zur gemessenen Abweichung, zur über ein Zeitintervall gemittelten Abweichung und schließlich zur Änderungsschnelligkeit der Regelgröße: Proportional-, Integral- und Differentialregelung. Noch effektiver als die nachlaufenden Formen der Regelung ist eine vorausschauende Regelung, was bei häufig wiederkehrenden, wie schwingenden und statistisch erfassbaren Ereignissen möglich ist. In Einzelfällen ist eine Übersteuerung der Fremdeinflüsse machbar, die allerdings sehr energieaufwendig sein kann, wenn die Sollgröße außerhalb des ungeregelten Schwankungsbereiches liegt. Diese kybernetisch interessante Strategie wird in technischen Systemen daher relativ selten eingesetzt, während sie in biologischen Systemen die Überlebenswahrscheinlichkeit beträchtlich erhöhen kann bei ausreichend vorhandenem Energieangebot. Das markanteste Beispiel dafür sind die von Temperaturschwankungen unabhängigen Warmblüter. Wenn die Sollgröße innerhalb des ungeregelten Schwankungsbereiches liegt, dann ist dagegen eine technisch aufwendigere Zwei-Wege-Regelung - z.B. Heizung-Kühlung oder beschleunigen-bremsen - erforderlich. In jedem Fall ist die Schnelligkeit der eingesetzten Teilsysteme von ausschlaggebender Bedeutung für eine Regelung in Echtzeit oder Nahzeit.
Roboterarme werden im allgemeinen von einem Computer gesteuert, der a priori nichts über den Roboter weiß. Er kennt weder die Eigenschaften des Materials, noch die der Struktur, noch die Möglichkeiten und Grenzen seiner Bewegungen. Der Vorteil ist die universelle Verwendbarkeit des Computers wie die des Roboters, der Nachteil ist die Notwendigkeit der spezifischen Anpassung, d.h. der Programmierung, die entsprechend umfangreich ist, sowohl in der Konstruktion als auch im Betrieb. Dagegen sind die Steuerung und die Motorik von Lebewesen in Koevolution, gemeinsam im Verlauf der Phylogenese durch millionenfache Variation und Selektion entstanden, so dass sie a priori aufeinander abgestimmt sind. Eine Fülle von Informationen, die dem Computer explizit und mühsam einprogrammiert werden müssen, sind hier implizit und versteckt fest eingebaut oder hardwired. So haben weder der Roboter noch der Computer ein "Gefühl" für die allgegenwärtige Schwerkraft. Charakteristikum des Computers ist die Trennung von Datenspeicher und Prozessor - die sogenannte Von-Neumann-Architektur - und die Invarianz der Menge seiner inneren Systemzustände, um die ökonomisch begründete Wiederverwendbarkeit und Mehrfachverwendbarkeit zu erreichen.
Technische Systeme unterscheiden sich von natürlichen Systemen unter anderem dadurch, dass sie ein- und ausgeschaltet werden können, dass ihr Zustand also jederzeit wieder auf einen bekannten Anfangszustand gesetzt werden kann. Beim Abschalten oder Abstürzen eines Computers sind außer den Daten auf Plattenspeichern nur die wenigen systemspezifischen und für den Start eines Computers notwendigen Daten, die in einem batteriegespeisten oder einem nichtflüchtigen Halbleiterspeicher aufbewahrt sind, nicht verloren. Daraus ergibt sich eine zwingende und fundamentale Konsequenz: das technische System muss gegen Unterbrechungen und Störungen gesichert werden und es muss den zweckgemäßen Betrieb nach einer Unterbrechung wieder aufnehmen können, indem es einen kontrollierten Zustand einnimmt. In der Regel muss es den Zustand einnehmen, den es vor der Unterbrechung hatte. Das bedeutet nichts anderes, als dass ein technisches System ein kontrollierendes Metasystem - das Objekt der Kybernetik - erfordert, das oftmals selbst wieder ein technisches System mit der Fähigkeit zu autonomen Entscheidungen oder das letztlich der Mensch ist. Das kontrollierende Metasystem dient einem weiteren Zweck, nämlich der Justierung, dem Tuning und der Kalibrierung sowohl in Steuerungs- als auch in Regelungssystemen und es erfordert eine eigene Rückkopplungsschleife. Die leicht erkennbare Konsequenz ist eine Endloskette von Metainstanzen, die nur vom Menschen abgeschlossen werden kann.
Nach und nach hat der Mensch Maschinen geschaffen, die mit Hilfe der Kybernetik seine Leistungen verbessern oder seine Mängel kompensieren: Kraft, Beweglichkeit, Wahrnehmungsvermögen, Organfunktionen und schließlich die mentalen Fähigkeiten werden verstärkt, ergänzt oder ersetzt. Sigmund Freud bezeichnete den Menschen als Prothesengott, Johann Gottfried von Herder als Mängelwesen, der Philosoph Helmuth Plessner schrieb "der Mensch ist von Natur aus künstlich". Arnold Gehlen sieht Technik als die entscheidende "Entlastungsinstanz des instinktarmen, unangepassten, unspezialisierten, weltoffenen Mängelwesens Mensch". Ist noch etwas übrig außer den Gefühlen und dem Leben an sich? Die nächste technische Revolution steht bereits vor der Tür mit der Steuerung und Manipulation neurologischer Funktionen mittels implantierter Sender und Empfänger, den sogenannten Brainchips oder "Stimoceiver" (Jose Delgado, Kevin Warwick) zur elektrischen Stimulation von Nervensignalen und Auslösung motorischer oder emotionaler Effekte. Daneben gibt es spekulative bis esoterische Entwicklungen wie Psychoakkustik oder Neurofeedback zur Leistungssteigerung des Gehirns, Beschleunigung des Lernens, Bewusstseinserweiterung und dergleichen mehr. Aus der Verbindung von Gehirn, Computer und drahtloser Übertragung soll die "Wunderbox" hervorgehen.
Bedauerlich und tragisch ist, dass die Menschheit ihre handwerklichen, künstlerischen und intellektuellen Höchstleistungen nicht zu ihrem eigenen Wohl erbracht hat, sondern allzu oft an Könige, Kirchen und Kriege verschwendet hat - von denen sie allerdings auch finanziert wurden. So ist auch die Technische Kybernetik als Kind des Krieges geboren worden, nicht zufällig und zeitgleich mit der Informations- und Kommunikationstheorie von Shannon & Weaver und den ersten Exemplaren der Computertechnik. Daher ist es nicht verwunderlich, dass die heutigen technischen Möglichkeiten Ängste und ethische Bedenken hervorrufen. Technikfolgenabschätzungen gehören daher zum unverzichtbaren Instrumentarium der modernen Gesellschaft und politischen Führung.
Alles was wir mit unseren Sinnen wahrnehmen, nehmen wir als Formen wahr. Die Sinnesorgane übersetzen die Welt der Wirklichkeit aus Sinnesreizen in die Form von Nervensignalen, mit denen das Gehirn intern arbeitet, um eine subjektive Welt der Vorstellungen zu erzeugen, um die Welt innerlich zu "repräsentieren". Somit sind quasi unendlich viele Formen möglich, die einfach sein können oder aus einfachen Formen zusammengesetzt sein können. Die unendliche Vielfalt der Formen wird reduziert durch Abstraktion, Aggregation und Approximation zu einer handhabbaren Menge von Zeichen, die dem Bewusstsein als Vorstellungen präsentiert werden. Zeichen sind erkennbare, identifizierbare und wiederkehrende Muster, Formen oder Gestalten der Wahrnehmung, denen auf Grund einer Funktion oder eines Zweckes des wahrnehmenden Subjekts eine Bedeutung zukommt oder beigemessen wird, wenn sie in regelmäßigen Zusammenhängen mit anderen Zeichen erscheinen. Unterschiedliche Kontextinformation wie Perspektiven, Formvarianten, Lichtverhältnisse oder andere Wahrnehmungsbesonderheiten können dabei eliminiert, substituiert oder an bekannte Formen approximiert werden. Solche Mechanismen sind aus der Wahrnehmungspsychologie bekannt. Ein eindrucksvolles Beispiel ist der sogenannte Ames-Raum, in dem eine markante Perspektivenverzerrung stattfindet.
Die Zeichen, in der Form von Chiffren, bilden das Material unseres Denkens. Die Gesetzmäßigkeiten und Zusammenhänge der Wahrnehmungen und Erfahrungen, die Identitäten und Ähnlichkeiten sowie die Unterschiede der Formen und Bewegungen resultieren in den Funktionen des Denkens wie Identifizieren, Klassifizieren, Generalisieren, Spezialisieren, Aggregieren, Segregieren. Das Denken findet seinen spiegelbildlichen und äußerlichen Ausdruck insbesondere in der Sprache, in den Bedeutungen ihrer Wörter als Begriffe, in ihren grammatischen Formen zur Bildung von Sätzen und Aussagen. In die Sprache eingebettet ist die Logik als Ausdruck einer speziellen Form, des abstrahierenden, verbindenden, ordnenden, urteilenden und schlussfolgernden Denkens. Die materiale Logik, die mit den Bedeutungen von Wörtern operiert, ist nahe der Linguistik, die formale und symbolische Logik, die mit bedeutungslosen Formen, Zeichen oder Symbolen operiert, ist näher zur Mathematik. So ist die Logik über das Denken und die Sinne mit der Natur des Geistes und mit der Natur der Welt verknüpft.
Das bedeutet auch, dass Logik oder Mathematik und Natur kommensurabel sein müssen, wenn man davon ausgeht, dass die Natur nicht ausschließlich chaotisch oder zufällig funktioniert. Die Ursprünge dieses logischen Denkens zeigen sich bei Kleinkindern im Alter von wenigen Monaten, wenn sie erkennen, dass Objekte, die zeitweise verdeckt waren, nicht verschiedene oder neue Objekte sind, sondern dass es dasselbe Objekt ist. Das heißt, es erkennt, dass Objekte nicht plötzlich im Nichts verschwinden und neue Objekte nicht plötzlich aus dem Nichts auftauchen. Die Erkenntnis von Persistenz und Identität von Objekten und folglich die Erkenntnis von Verschiedenheit und Veränderung bildet die Grundlage des logischen und rationalen Denkens.
