15.5 Welche Information steckt im Bit?

Ähnliche Dokumente
John R. Searle: Das syntaktische Argument und die Irreduzibilität des Bewusstseins. Institut für Physik und Astronomie Universität Potsdam

4. Veranstaltung. 16. November 2012

2.2.4 Logische Äquivalenz

U. Rausch, 2010 Ganze Zahlen 1

LÖSUNGEN ZU AUFGABE (41)

1 Mengen und Aussagen

Einführung Grundbegriffe

Informatik I Information & Daten Repräsentation von Daten

10 Minuten Vortrag 25 Minuten Ausarbeitung 15 Minuten Vorstellung 10 Minuten Puffer. Gute Quelle:

Wavelets made easy Yves Nievergelt

Systemanalyse und Modellbildung

SYSTEMANALYSE 2 Kapitel 8: Thermodynamik und Informationstheorie in der Systemanalyse

Kapitel 1. Aussagenlogik

Grundlagen der Technischen Informatik. Informationsgehalt. Kapitel 4.1

Mathe <> Deutsch. Die 7 verwirrendsten Mathe-Floskeln einfach erklärt! Math-Intuition.de

Grundlagen der Informationstheorie. Hanna Rademaker und Fynn Feldpausch

Physik eine empirische Wissenschaft

Interdisziplinäre fachdidaktische Übung: Sprache und Modelle. SS 2015: Grossmann, Jenko

Die Prädikatenlogik erster Stufe: Syntax und Semantik

2.1.3 Interpretation von aussagenlogischen Formeln. 1) Intensionale Interpretation

Teilbarkeit und Teilbarkeitsregeln: Wiederholung

Lösungsmenge L I = {x R 3x + 5 = 9} = L II = {x R 3x = 4} = L III = { }

Lösungsmenge L I = {x R 3x + 5 = 9} = L II = {x R 3x = 4} = L III = { }

33. Mathematik Olympiade 3. Stufe (Landesrunde) Klasse 6 Saison 1993/1994 Aufgaben und Lösungen

Theoretische Biologie

Freie Bäume und Wälder

Grundbegriffe der Mengenlehre

Logik I. Symbole, Terme, Formeln

Prof. Dr. Alfred Toth. Etikettenschwindel und Mogelpackung

Kleine lateinische Buchstaben wie z. B. p, q, r, s t, usw.

Theoretische Biologie

Einige Beispiele zur Turingmaschine

Die Wahrnehmung von Durchsichtigkeit. Referentin: Carina Kogel Seminar: Visuelle Wahrnehmung Dozent: Dr. Alexander C. Schütz

Verfeinerungen des Bayesianischen Nash Gleichgewichts

Ziel und Struktur der physikalischen Theorien

Typ-1 Sprachen. Die Beispielgrammatik für die Sprache. L = {a n b n c n n 1} hat die folgende Regelmenge:

Unterrichtsmaterialien in digitaler und in gedruckter Form. Auszug aus: Lernwerkstatt: Die allgemeine Relativitätstheorie - einfach erklärt

Die neue Prädikatenlogik P2

Fehlgeschlagene Versuche zur Erklärung von Expansion des Universums und Urknall. Zchg. (a) Zchg. (b) Zchg. (c) Zchg. (d)

Einführung in die Informatik I (autip)

Über das Lesen mathematischer Texte Teil 2: Definition, Satz, Beweis

Musterlösung Grundbegriffe der Mathematik Frühlingssemester 2016, Aufgabenblatt 1

Grundlagen der Mathematik

Induktion und Rekursion

Atomphysik NWA Klasse 9

Übungen zur Analysis I

1. Gruppen. 1. Gruppen 7

Einführung in die moderne Logik

Seite 2 Information = Unsicherheit e Info (e) := - log p(e) Info ( A und B) = Info (A) + Info (B) Definition: = Info (nie eintretendes Ereignis) eines

Ben-Alexander Bohnke

Hinweis: Aus Definition 1 und 2 folgt, dass die Zahl 0 zu den geraden Zahlen zählt.

9. Polynom- und Potenzreihenringe

Die Mathematik in der CD

Physikalische Chemie Physikalische Chemie I SoSe 2009 Prof. Dr. Norbert Hampp 1/9 1. Das Ideale Gas. Thermodynamik

Es sind ausser Schreibzeug und Papier keinerlei Hilfsmittel erlaubt, das Pult ist abgeräumt oook, den Rechner dürfen Sie gebrauchen!

Donnerstag, 11. Dezember 03 Satz 2.2 Der Name Unterraum ist gerechtfertigt, denn jeder Unterraum U von V ist bzgl.

Kapitel 2: Multiplikative Funktionen. 3 Multiplikative Funktionen. Definition 2.1 (arithmetische Funktion, (vollständig) multiplikative Funktion)

technische universität dortmund Dortmund, im Dezember 2011 Fakultät für Mathematik Prof. Dr. H. M. Möller

Semantik II D-Operator & LF-movement

3.2.5 Dualität der linearen Optimierung I

Richtigkeitskriterium vs. Entscheidungsverfahren, tatsächlicher vs. erwarteter Nutzen (Zu Timmons, S )

Beispiel für die Minimierung von DEAs

Vergleich der Hard-Decision Decodierung mit der Soft Decision- Decodierungi (HD- mit SD-Decodierung)

31. Mathematik Olympiade 3. Stufe (Landesrunde) Klasse 7 Saison 1991/1992 Aufgaben und Lösungen

Logische Grundlagen der Mathematik, WS 2014/15

Kognitiver Fragebogen (ESS)

HM I Tutorium 1. Lucas Kunz. 27. Oktober 2016

Lineare Gleichungssysteme mit 2 Variablen

1 Mengen. 1.1 Elementare Definitionen. Einige mathematische Konzepte

3.6 Einführung in die Vektorrechnung

Harry gefangen in der Zeit Begleitmaterialien

Vor(schau)kurs für Studienanfänger Mathematik: Aussagen und Mengen

Zweite und dritte Sitzung

Vorkurs Mathematik Logik und Beweismethoden 1

sich die Schuhe zubinden können den Weg zum Bahnhof kennen die Quadratwurzel aus 169 kennen

Diagonalisierbarkeit symmetrischer Matrizen

Demo-Text für Modulo-Rechnungen. und. Restklassen. Höhere Algebra INTERNETBIBLIOTHEK FÜR SCHULMATHEMATIK.

4.2 Quotientenvektorräume

Hilary Putnam. The Meaning of 'Meaning'

Klimahysterie - was ist dran?: Der neue Nairobi- Report über Klimawandel, Klimaschwindel und Klimawahn (German Edition)

Paul Watzlawick. Fünf kommunikationspsychologische Axiome

Video zum I Don't Want To Know

$Id: folgen.tex,v /05/31 12:40:06 hk Exp $ an 1 2 n 1 ist gerade, 3a n 1 + 1, a n 1 ist ungerade.

7 Vektorräume und Körperweiterungen

Computational Neuroscience

Statistische Tests. Kapitel Grundbegriffe. Wir betrachten wieder ein parametrisches Modell {P θ : θ Θ} und eine zugehörige Zufallsstichprobe

Lineare Gleichungssysteme mit zwei Variablen

1. Wir gehen aus vom Anfang des Prologes des Johannes-Evangeliums:

1 Dreiecke. 1.6 Ähnliche Dreiecke. Mathematische Probleme, SS 2019 Donnerstag 2.5. $Id: dreieck.tex,v /05/03 14:05:29 hk Exp $

Bindungs-Theorie. Bindungs-Theorie. R-Ausdrücke. Anapher. Pronomen. Antezedens

1. Gruppen. 1. Gruppen 7

Wie beweise ich etwas? 9. Juli 2012

Logik (Teschl/Teschl 1.1 und 1.3)

Aufgabenformat Say it in English

Mengenlehre. Jörg Witte

5 Assoziationsmessung in Kontingenztafeln

Transkript:

15.5 Welche Information steckt im Bit? Das Bit gilt als Grundelement der Information. Welche Information steckt in diesem Grundelement? Welche Information steckt im Grundbaustein der Information? Paradoxerweise steckt überhaupt keine Information in diesem Baustein, denn das Ja oder Nein des Bits bedeutet nichts ohne die Frage, auf die das Ja oder Nein des Bits die Antwort ist. Erst zusammen mit der Frage bekommt das Bit seine Bedeutung. Das Bit ist ein Schalter, der auf ja oder nein gestellt sein kann. Was die Stellung des Schalters bedeutet, wissen wir, sobald wir die Frage kennen. Doch die Frage kann mit Sicherheit nicht im Bit enthalten sein, denn es ist die Idee des Bits, dass es ein reines Ja oder Nein ist, ohne irgend eine zusätzliche Information. Das Bit enthält also die Frage nicht und damit kann aus einem Bit allein auch keinerlei Information rekonstruiert werden. Ja oder Nein bedeuten isoliert nichts. Natürlich enthält auch die Frage die Information nicht, da sie ohne das zugehörige Bit die Antwort nicht kennt. Wo steckt nun die Information? in der Frage (ausserhalb Bit) in der Antwort (im Bit) in der Summe 0 Information 0 Information 1 Basis-Information Tab 10: Information im Bit (Versuch 1) Ich möchte vorschlagen, diese bemerkenswerte Addition (0+0=1) folgendermassen anzugehen: Es gibt zwei Arten von Information: eine, die im Bit steckt und eine, die nicht im Bit steckt. Die Information im Bit (0 oder 1, ja oder nein) ist rein quantitativ. Nicht enthalten im Bit ist die Information über die Qualität dieser Information, d.h. darüber, was das Bit bedeutet. Die "Addition" sieht dann folgendermassen aus: Seite 1/5

Qualitative Information Quantitative Information Vollständigkeit der Information in der Frage (ausserhalb Bit) in der Antwort (im Bit) 1 0 nein 0 1 nein in der Kombination 1 1 ja Tab 11: Information im Bit (Versuch 2) Die qualitative und die quantitative Information ergänzen sich zur vollständigen Information. 15.6 Das Bit und seine Bedeutung Das Bit kann gesehen werden als der radikale Endpunkt der Reduktion einer Antwort in ihre Einzelteile. Und am Endpunkt dieser Reduktion enthalten die Einzelteile (Bits) nichts mehr, was eine wirkliche, eigenständige Information ist (s. Kap. 15.5). Das ist bemerkenswerterweise nur beim Bit so. Denn sobald die Frage über eine mit "ja" oder "nein" beantwortbare Frage hinausgeht, steckt auch in der Antwort ein Teil der Bedeutung der Information. Ein Beispiel: Die spontane Antwort auf die Frage "Welcher Wochentag ist heute" macht meist klar, dass nach einem Wochentag gefragt war. Dies ist im Gegensatz zu "ja" oder "nein" eine konkrete Information. Sobald ein Teil der Frage aus der Antwort hervorgeht, enthält die Antwort mindestens einen Teil der konkreten Information. Sie enthält damit qualitative Anteile im Sinn der Tab. 11. Wenn die Antwort aber völlig abstrakt ist, ohne noch Bruchteile der Frage zu enthalten, dann lässt sich über die qualitativen Aspekte der Information nichts mehr aussagen. Die einzige völlig abstrakte Antwort ist das Bit. Die beiden Werte des Bits, ja und nein 1, sind die einzigen Antworten, die zwar vollständige 1 Man muss sich darüber klar sein, dass auch ja und nein nicht die wirklichen Werte des Bits sind, genauso wenig wie 0 und 1, Wahr und Falsch oder + und -. Alle diese Werte sind nur Annäherungen an die beiden völlig abstrakten Werte des Bits, die man mit "einer von zwei" und "der andere von zwei" bezeichnen könnte. Erst das Setting, d.h. der Kontext gibt diesem Wert eine Bedeutung wie 1, Wahr, Ja oder Positiv. Seite 2/5

Antworten sind, aber keinerlei Anteil der ursprünglichen Frage mehr mitführen. Das Bit ist der Grundstein der Information, aber paradoxerweise so, dass die gesamte Qualität der Information in seiner Umgebung steckt. Sobald das Bit isoliert wird, verbleibt im Bit keine rekonstruierbare Information mehr. Dafür steckt dann die vollständige Quantität der Information im Bit. Und zwar so, dass genau das kleinstmögliche Quantum an Information im Bit enthalten ist: 0 oder 1. Das Bit kann deshalb auch nicht mehr weiter geteilt, analysiert oder seziert werden. Es ist ein Atom im eigentlichen Sinn des Wortes. Um die Bedeutung, d.h. die Qualität des Bits zu erhalten, muss die Bewegung der Analyse umgekehrt und vom Bit nach aussen gelenkt werden, in seine Umgebung. Dort steckt die Bedeutung des Bits, und je genauer es verstanden werden soll, umso weiter muss die Umgebung gefasst werden. Deren Beschreibung ist das Gebiet der Semantik. Erst mit der Beschreibung der Umgebung ist die Information des Bits definiert. Für die Beschreibung reicht es aber nicht aus, andere Bits aufzuzählen. Eine solche Definition des Bits würde sich ja wieder auf Undefiniertes abstützen, da die Bits der Umgebung ohne die Beschreibung ihrer eigenen Umgebung ebenfalls nicht definiert sind. Bei der Semantik geht es somit nicht um eine blosse Aufzählung von Bits, sondern um die Darstellung von Bezügen, um die Beschreibung der Landschaften, in denen die Bits als Informationspunkte eingebettet sind. Eine semantische Beschreibung kann sich nicht auf eine Aufzählung von Bits abstützen, sondern hat ihre eigenen Strukturen. 15.7 Signal und Bedeutung sind komplementär D.M. MacKay [1969] unterscheidet zwischen selektivem und deskriptivem Informationsgehalt. Der selektive Gehalt ist die Information, die in einer Auswahl von vorgegebenen Wahlmöglichkeiten liegt. Der deskriptive Informationsgehalt liegt in der Beschreibung dieser Wahlmöglichkeiten. MacKays Unterscheidung entspricht m.e. genau der in Kap. 15.5 zwischen quantitativer und qualitativer Information gemachten. Seite 3/5

reines Bit (als Signal) Bedeutung, resp. Kontext des Bits enthält Information als (Basis)- Quantum Qualität Geometrisch Punkt Feld Logisch Antwort Frage Natur, Funktion als Signal Bedeutung Information content (nach MacKay 2 ) Wissensgebiet Enthalten in selective IT (information technology) Mitteilung (message) descriptive Semantik interpretierendem System (IS) Tab 12: Das Bit und seine Bedeutung Information kommt als Signal und als Bedeutung vor. Beides mischt sich, doch beim Bit als der Basiseinheit der Information sind Signal und Bedeutung genauso deutlich voneinander getrennt wie sie ebenso offensichtlich in der Natur untrennbar sind. Dieses paradoxe Verhältnis erinnert an komplementäre Verhältnisse, wie sie in der Physik seit N. Bohr bekannt sind. Wenn man physikalische Objekte immer weiter reduziert, kommt man zu komplementären Beschreibungen, mit scheinbar paradoxen Effekten. Genau so ist es bei der Information. In ihrer kleinsten, nicht mehr weiter teilbaren Form, nämlich dem Bit, zeigt sich Information in einer komplementären Doppelnatur. Information existiert im Grundquantum sowohl als reines, isolierbares Signal wie auch als reine, vom Signal isolierbare Bedeutung. Je präziser man das Signal lokalisiert, umso weniger bedeutet es. Im reinen Signal (ja oder nein) steckt dann gar keine Bedeutung mehr. Je klarer hingegen seine Bedeutung erfasst wird, umso weniger ist sie an ein einzelnes Signal gebunden, sondern verteilt sich über ein immer grösseres Feld von Zusatzinformationen. Die gleiche Bedeutung kann dann mit sehr unterschiedlichen Signalen formuliert werden. Auffällig ist, dass sich die Doppelnatur der Information genau dort am deutlichsten ausdrückt, wo sich das kleinst mögliche Informations- Quantum manifestiert, nämlich beim Bit. Dies entspricht den 2 MacKay [1969]. Seite 4/5

Verhältnissen der physikalischen Komplementaritäten, die sich ebenfalls bei den kleinstmöglichen Quanten am deutlichsten manifestieren. Die konkrete Grösse des nicht mehr weiter teilbaren Grundquantums der Information braucht keinerlei zusätzliche Erklärung. Das Quantum Information in einem Bit, nämlich die Information über die Entscheidung zwischen zwei gleich wahrscheinlichen Zuständen, erscheint ohne weitere Erklärung als eine "logische", nicht mehr weiter teilbare Einheit. Bemerkenswert ist, dass bereits Warren Weaver 1949 die Komplementarität von Signal und Bedeutung benennt: "One has the vague feeling that information and meaning may prove to be something like a pair of canonically conjugate variables in quantum theory, they being subject to some joint restriction that condems a person to the sacrifice of the one as he insists on having much of the other." 3 Weaver spricht hier zwar von "Information", doch offensichtlich meint er damit das Signal, nämlich das Bit. Die Komplementarität von Signal und Bedeutung ist von Weaver bereits so klar angetönt, dass man sich wundert, weshalb er nicht näher auf seine Beobachtung eingeht. Später findet sich die Idee z.b. bei F. J. Zucker 4. Der Bezug der Komplementarität von Signal und Bedeutung zum interpretierenden System (IS) besteht darin, dass der Übergang vom Signal zur Bedeutung genau an der Grenze des IS stattfindet 5. Das IS interpretiert Signale (Worte, Sinneseindrücke von Objekten) und ordnet ihnen Begriffe, d.h. Bedeutungen zu 6. Der oben stehende Text ist ein Ausschnitt aus dem Buch "Das interpretierende System". Näheres siehe unter www.meditext.ch/texte/is/is.htm 3 4 5 6 Shannon und Weaver [1949], S. 28. Zucker erwähnt zwar das Paar Signal-Bedeutung nicht, zeigt aber komplementäre Phänomene um die Entropie auf [Zucker, 1974]. Zur Grenze siehe auch Abb. 49 bis 51, S 100ff sowie Abb. 59, S. 134.. Zu den komplementären Phänomenen an der Grenze siehe Tab. 6 auf S. 110 (Objekt Begriff) und Tab 7 auf S. 119 (Wort Begriff). Seite 5/5