Lochmann Information und der Entropie-Irrtum
Berichte aus der Philosophie Dietmar Lochmann Information und der Entropie-Irrtum Shaker Verlag Aachen 2012
Die Deutsche Nationalbibliothek verzeichnet diese Publikation in der Deutschen Copyright Shaker Verlag 2012 Alle Rechte, auch das des auszugsweisen Nachdruckes, der auszugsweisen oder vollständigen Wiedergabe, der Speicherung in Datenverarbeitungsanlagen und der Übersetzung, vorbehalten. Printed in Germany. ISBN 978-3-8440-0983-5 ISSN 1610-9406
5 Vorwort Seit der Begründung der Informationstheorie im Jahre 1948 haben die Arbeiten, die Erkenntnisse und die Veröffentlichungen zum Thema Information einen beachtlichen Umfang erreicht. Heute finden wir davon eine unübersehbare Fülle. Aber bei genauerem Hinschauen stellt man fest, dass seit dieser Zeit von über 60 Jahren bis heute noch immer keine einheitliche Meinung darüber besteht, was Information wirklich ist. So seltsam es klingen mag, die Verwirrung begann eben gerade mit der Informationstheorie. In dieser Theorie, die eine geniale Nachrichtenübertragungstheorie ist, und die sehr große Fortschritte im Verständnis um das Wesen der Nachricht gebracht hat, wird die Bedeutung einer Information für den Empfänger ausdrücklich nicht betrachtet. Nur die mathematisch-statistischen und quantitativen Eigenschaften der in dieser Theorie besonders definierten Information sind für sie von Bedeutung. In den Jahren nach 1948 stellte sich dann heraus, dass alle Versuche, den Informationsbegriff und die quantitativen Methoden der Informationstheorie auch auf andere Wissenschaftsgebiete anzuwenden, nicht zum Erfolg führten. Es konnten praktisch keine brauchbaren Ergebnisse erzielt werden, wenn man die Bedeutung einer Information für den Empfänger ignoriert. Es wurde klar, dass die Informationsdefinition der Informationstheorie nicht geeignet ist, die bekannten und beobachtbaren Phänomene um die Information in Natur und Gesellschaft verständlich zu beschreiben. Man muss für jede Anwendung außerhalb der Informationstheorie die Bedeutung der Information für den Empfänger mit einbeziehen. Das ist der Grundgedanke dieses Buches. Information wird dann zu einer geistigen Größe. Aber die Bedeutung ist keine statistische Größe. Sie ist sehr stark subjektiv beladen, wenn wir nur die Information in der menschlichen Kommunikation betrachten. Und das gilt sinngemäß auch für die Erforschung des Verhaltens und der Informationsübertragung im Tierreich. Denn keine menschliche oder tierische Gemeinschaft kann ohne Informationsaustausch existieren. Dabei spielen die bei den Kommunikationspartnern vorhandenen angeborenen und erworbenen Vorstellungen eine wichtige Rolle, denn sie repräsentieren gerade die Bedeutung einer Information.
6 Es ergibt sich weiterhin, dass Information auch in Befehlssituationen auftritt, die für Verhältnisse in Staat, Militärwesen und Wirtschaft, aber auch bei Bauvorschriften und Bedienungsanleitungen charakteristisch sind. Und überraschenderweise lässt sich sogar die genetische Information ebenfalls in das Konzept der so definierten bedeutungsbehafteten Befehlsinformation einordnen. Das alles ist das Ergebnis der Evolution, in der die Lebewesen und die Gesellschaft von Information begleitet wird, und in der der Selektionsdruck selbst ein Informationsprozess ist. Es ergibt sich, dass das Leben dort beginnt, wo die Information beginnt. Aber es gab und gibt auch Irrwege. Die größte Verwirrung wurde und wird gestiftet durch die Gleichsetzung der Informationsgröße Entropie mit der thermodynamischen Entropie und daraus resultierend die Annahme eines Zusammenhangs von Entropie mit Wissen. Entropie aber ist eine physikalische Größe und Information ist eine geistige Größe. Beide sind grundverschieden und unvereinbar. Ich habe mich seit über 40 Jahren mit diesen faszinierenden Problemen um den Begriff Information beschäftigt. Dabei ergab sich, dass es einen signifikanten Zusammenhang gibt zwischen Information und einer Entscheidung. Eine Entscheidung nach einer Strategie ist ein Auswahlprozess, der ohne Information zu einer Zufallsentscheidung führt. So wird deutlich, was Information ist und wozu sie benötigt wird. Die Entscheidungssituationen sind somit der rote Faden bei unseren Betrachtungen; denn alle Entscheidungsprozesse sind Informationsprozesse. Die Materie, um die es hier geht, ist vielschichtig und nicht immer leicht verständlich. Ich hielt es deshalb für zweckmäßig, wichtige Erkenntnisse und Voraussetzungen in den einzelnen Abschnitten zu wiederholen. Sie sollten für den Leser nützlich sein. Meiner Lebensgefährtin Ilse Gruner danke ich für das sorgfältige Korrekturlesen. Dietmar Lochmann
7 Inhaltsverzeichnis 1 Information in der menschlichen Gesellschaft...9 1.1 Was ist Information?...9 1.2 Der Begriff der Information in der Literatur...14 1.3 Information in unserem Leben...23 1.4 Information und Vorstellungen...28 1.5 Nachricht und Signal...43 1.6 Bedürfnisse, Erkennen und Verstehen...48 1.7 Information, Wissen und Erfahrungen...54 1.8 Information und Kommunikation...58 1.9 Nichtsprachliche Kommunikation...67 2 Information in der Informationstheorie...80 2.1 Informationsgehalt, Entropie, Redundanz...80 2.2 Die wichtigsten Shannonschen Theoreme...90 3 Information und thermodynamische Entropie...94 3.1 Eine verhängnisvolle Fehldeutung...94 3.2 Physikalische Theorien über Information...96 3.3 Der Maxwellsche Dämon...101 3.4 Wie kommt ein Dämon zu Information?...109 3.5 Information und Entropie in lebenden Systemen...113 4 Entscheidungsprozesse...118 4.1 Entscheidungssituationen...118 4.2 Entscheidungen im gesellschaftlichen Leben...127 4.3 Entscheidungen und Befehle...134 4.4 Information und Wirkung durch Strategien und Befehle...135 4.5 Informationsbedarf im Entscheidungsprozess...142 5 Information und Evolution...147 5.1 Mutation...148 5.2 Selektion und Selektionsdruck...149 5.3 Selektionsdruck, Strategie und Information...154 5.4 Selektion und Genom...160
8 6 Information und Kommunikation im Tierreich... 163 6.1 Informationssituationen im Tierreich... 163 6.2 Vorstellungen, Instinkte und Bedürfnisse im Tierreich... 168 6.3 Voraussetzungen für Tierische Kommunikation... 175 6.4 Beispiele für tierische Kommunikation... 179 6.5 Kommunikation zwischen Mensch und Tier... 189 6.6 Signale als Träger der Information im Tierreich... 193 7 Informationsübertragung in der Zelle... 196 7.1 Funktionsmechanismen der Zelle... 196 7.2 Der genetische Code... 200 7.3 Das zentrale Dogma der Molekularbiologie... 205 7.4 Einordnung der genetischen Information in das Modell der Befehlsinformation... 207 7.5 Der Hintergrund-Entscheidungsprozess... 211 8 Information in technischen Systemen... 216 Anlage 1... 222 Die wichtigsten Aussagen der Informationstheorie in Formeln Anlage 2... 225 Beweis des 1. Shannonschen Theorems Anlage 3... 231 Ableitung der Shannon-Entropie mit Hilfe der Kombinatorik Literaturverzeichnis... 236 Namensregister... 243 Indexregister... 245