Eine Formel verändert die Welt
|
|
- Herta Baumhauer
- vor 7 Jahren
- Abrufe
Transkript
1 Eine Formel verändert die Welt gewidmet Herrn Prof. Dr. Heinz Gerhäuser anlässlich seiner Verabschiedung in den Ruhestand Johannes Huber Lehrstuhl für Informationsübertragung Friedrich-Alexander-Universität Erlangen-Nürnberg 26. Oktober 2011
2 Eine Formel verändert die Welt gewidmet Herrn Prof. Dr. Heinz Gerhäuser anlässlich seiner Entpflichtung von Dienstaufgaben Johannes Huber Lehrstuhl für Informationsübertragung Friedrich-Alexander-Universität Erlangen-Nürnberg 26. Oktober 2011
3 Eine Formel verändert die Welt gewidmet Herrn Prof. Dr. Heinz Gerhäuser anlässlich der Verlagerung der Schwerpunkte seiner Aktivitäten Johannes Huber Lehrstuhl für Informationsübertragung Friedrich-Alexander-Universität Erlangen-Nürnberg 26. Oktober 2011
4 Eine Formel verändert die Welt gewidmet Herrn Prof. Dr. Heinz Gerhäuser anlässlich dessen, dass sich wohl nichts ändert in seinem Leben Johannes Huber Lehrstuhl für Informationsübertragung Friedrich-Alexander-Universität Erlangen-Nürnberg 26. Oktober 2011
5 Inhaltsübersicht Eine Formel verändert die Welt 1. Die Säulen des Informationszeitalters 2. Die Kapazitätsformel 3. Grundlagen der Informationstheorie A. Gesetz der großen Zahlen B. Kugeln im vieldimensionalen Raum 4. Information und Energie A. Minimale Energie pro bit Information bei thermischem Rauschen B. Information und der 2. Hauptsatz der Thermodynamik (Maxwellscher Dämon) 5
6 Eine Formel verändert die Welt 5. Folgerungen aus der Shannonschen Kapazitätsformel A. Leistungs- und Bandbreiteneffizienz bei der digitalen Übertragung B. Digitalisierung analoger Werte C. Austausch von Leistungs- und Bandbreiteneffizienz bei der Übertragung analoger Signale 6. Nicht-transparente Informationsübertragung: Quellencodierung A. Redundanzreduktion B. Irrelevanzreduktion C. Vergleich analoger und digitaler Übertragung beim Audio-Rundfunk 7. Formeln verändern die Welt 8. Persönliche Anmerkungen 6
7 Eine Formel verändert die Welt Äquivalenz von Masse und Energie: E = m c 2 7
8 1. Die Säulen des Informationszeitalters Radio des Jahres 1960 Quelle: Author: stevepamer 8
9 1. Die Säulen des Informationszeitalters Inneres des I-Phones 2010 Wodurch wurde diese Entwicklung innerhalb von 50 Jahren ermöglicht? 9
10 1. Die Säulen des Informationszeitalters Inneres des I-Phones 2010 Erlaubnis muss noch erfragt werden. Quelle: Wodurch wurde diese Entwicklung innerhalb von 50 Jahren ermöglicht? 10
11 1. Die Säulen des Informationszeitalters Erfindung des Transistors Bardeen, Brattain, Shockley, AT & T Bell Labs, Murray Hill, New Jersey, 1947/48 Entwicklung der Mikroelektronik Lösung des Problems: Wie können informationstechnische Systeme effizient implementiert werden? Entwicklung der Informationstheorie durch Claude E. Shannon ( ) AT & T Bell Labs, Murray Hill, New Jersey, 1948 (publiziert) Antwort auf die Frage: Was ist ein effizientes informationstechnisches System, aus welchen Komponenten soll es bestehen, welche Methoden sind anzuwenden? Einleitung des Wandels von der analogen zur digitalen Informationstechnik durch eine Mathematische Theorie 11
12 1. Die Säulen des Informationszeitalters Claude Elwood Shannon Quelle: 12
13 1. Die Säulen des Informationszeitalters The Father of Information Age Quelle: 13
14 1. Die Säulen des Informationszeitalters 14
15 1. Die Säulen des Informationszeitalters 15
16 Inhaltsübersicht Eine Formel verändert die Welt 1. Die Säulen des Informationszeitalters 2. Die Kapazitätsformel 3. Grundlagen der Informationstheorie A. Gesetz der großen Zahlen B. Kugeln im vieldimensionalen Raum 4. Information und Energie A. Minimale Energie pro bit Information bei thermischem Rauschen B. Information und der 2. Hauptsatz der Thermodynamik (Maxwellscher Dämon) 16
17 2. Die Kapazitätsformel Eine Formel hat die Welt grundlegend verändert: gestörte Nachrichtenübertragung X unabhängige Gauß sche Störvariable W 2 σw = N Y 2 σ X = S σ 2 Y = S + N C 1 log S = N bit Wert C: Informationsübertragungskapazität des zeitdiskreten Kanals bei additiver Gauß scher Störung S: Varianz des Nutzsignals (Nutzsignalleistung: Signal Power) N: Varianz der Störung (Störsignalleistung: Noise Power) 17
18 2. Die Kapazitätsformel Durch Anwendung des Abtasttheorems: Bei einem auf die Spektralbandbreite B bandbegrenztem Signal sind maximal 2 B Werte je Sekunde frei wählbar. folgt C T log S 1 S = B + = B log2 1 + N BN 2 0 bit Sekunde C T : Informationsübertragungskapazität des zeitkontinuierlichen, bandbegrenzten Übertragungskanals mit Störung durch weißes, Gauß sches Rauschen B: (einseitige) spektrale Signalbandbreite N 0 : (einseitige) spektrale Rauschleistungsdichte 18
19 Fundamentale Einsichten: 2. Die Kapazitätsformel Beim Vorhandensein von Störungen kann auch durch analoge, d.h. wertkontinuierliche Signalwerte nur eine begrenzte Anzahl unterschiedlicher Informationen repräsentiert und übertragen werden: Information ist in digitaler Form zu repräsentieren und zu übertragen Trotz Störungen kann aber Information zuverlässig, absolut fehlerfrei übertragen werden: eine effiziente Informationstechnik ist eine digitale Informationstechnik 19
20 2. Die Kapazitätsformel Fundamentaler Unterschied zwischen analoger und digitaler Informationstechnik: analog: Nutzsignal und Störung sind empfangsseitig nicht mehr trennbar digital: Nutzsignal und Störung sind prinzipiell wieder trennbar. Digitale Informationstechnik erlaubt Signalregeneration: Fehlerfreie Detektion der digitalen Symbolsequenzen und erneutes Senden des störungsfreien Sendesignals. Beispiele: Kopieren von CDs (im Vergleich zu analogen Audiokassetten) Telefonieren nach Australien 20
21 Inhaltsübersicht Eine Formel verändert die Welt 1. Die Säulen des Informationszeitalters 2. Die Kapazitätsformel 3. Grundlagen der Informationstheorie A. Gesetz der großen Zahlen B. Kugeln im vieldimensionalen Raum 4. Information und Energie A. Minimale Energie pro bit Information bei thermischem Rauschen B. Information und der 2. Hauptsatz der Thermodynamik (Maxwellscher Dämon) 21
22 3. Grundlagen der Informationstheorie A. Gesetz der großen Zahlen Wird ein Zufallsexperiment (statistisch unabhängig) sehr oft wiederholt, dann nähern sich relative Häufigkeiten Wahrscheinlichkeiten an, Mittelwerte streben gegen Erwartungswerte usw. Wiederholung reduziert die Zufälligkeit (vgl. Versicherungen) 22
23 3. Grundlagen der Informationstheorie Beispiel: Fairer Münzwurf, Zufallsereignis: Wappen (Kopf) oder Zahl Wahrscheinlichkeit für W Wappen bei n Würfen Pr (W) = ( ) 2 -n n W n = n n = =
24 3. Grundlagen der Informationstheorie Beispiel: Fairer Münzwurf, Zufallsereignis: Wappen (Kopf) oder Zahl Wahrscheinlichkeit für W Wappen bei n Würfen Pr (W) = ( ) 2 -n n W n = 100 n =
25 3. Grundlagen der Informationstheorie Beispiel: Fairer Münzwurf, Zufallsereignis: Wappen (Kopf) oder Zahl Wahrscheinlichkeit für W Wappen bei n Würfen Pr (W) = ( ) 2 -n n W n =
26 3. Grundlagen der Informationstheorie Beispiel: Fairer Münzwurf, Zufallsereignis: Wappen (Kopf) oder Zahl Wahrscheinlichkeit für W Wappen bei n Würfen Pr (W) = ( ) 2 -n n W n =
27 3. Grundlagen der Informationstheorie Beispiel: Fairer Münzwurf, Zufallsereignis: Wappen (Kopf) oder Zahl Wahrscheinlichkeit für W Wappen bei n Würfen Pr (W) = ( ) 2 -n n W n =
28 3. Grundlagen der Informationstheorie B. Kugeln in vieldimensionalen Euklidischen Räumen R n Ein Punkt x =, ( x x, x, ) 1, 2 3 Def.: Kugel mit Radius R: Menge aller Punkte x n im R n wird durch n Koordinaten spezifiziert. x mit n i= 1 2 x i = R 2 Beispiel n = 2 x 2 R. x x2 R x = Satz von Pythagoras! Volumen V einer Kugel mit Radius R im R n V = π n / 2 ( n / 2) R! n n = 2 V = π R 3/ 2 π n = 3 V = (3/ 2)! Für eine sehr große Zahl n von Dimension (n >> 1) gilt: Das Kugelvolumen wird im Wesentlichen durch oberflächennahe Punkte dominiert. 2 R 3 = 4 π R
29 3. Grundlagen der Informationstheorie (Mittelwertfreie) informationstragende Signalwerte x i : Zufallswerte mit Varianz σ 2 = E{ x 2 } S (mittlere Signalleistung) x = x i i Gesetz der großen Zahlen: 1 n 2 x i n i= 1 x strebt für n nach Für jede lange Folge von Signalwerten x i besitzt der zugehörige Vektor den Betrag n σ 2 x 1 n nσ 2 2 x = σ x = x S Alle informationstragenden langen Folgen liegen im R n auf der Oberfläche bzw. in einer Kugel mit dem Radius R = n S 29
30 3. Grundlagen der Informationstheorie x 2 x 1 x 3 30
31 3. Grundlagen der Informationstheorie Einfaches Übertragungsmodell Addition statistisch unabhängiger Störwerte X Y gesendeter Wert 2 mit Varianz σ S Übertragung langer Folgen von Werten (n >> 1) : Alle empfangenen Folgen y = ( y1, y2, y3,, yn ) bilden im R n Punkte auf, bzw. in einer Kugel mit dem Radius n ( S + N ) und dem Volumen V y. = nn x = Alle Störungen w ( w1, w2,, wn ) bilden im R n Punkte auf bzw. in einer Kugel mit dem Radius und dem Volumen V w. Um jeden gesendeten Punkt bildet die Störung eine Rauschkugel, innerhalb derer der empfangene Punkt für n zu finden ist. x W i Störung mit 2 Varianz σ y w = N empfangener Wert 2 mit Varianz σ = S y + N 31
32 3. Grundlagen der Informationstheorie Illustration n = 2 x 2 w x 2 w In einer großen Kugel mit dem Volumen V y haben maximal L = V y /V w kleine Kugeln mit dem Volumen V w Platz x 1 x 1 Damit können höchstens L V = V y w = n / 2 π ( n / 2)! n / 2 π ( n / 2)! ( n ( S + N) ) ( n N ) unterschiedliche Nachrichten trotz des Vorhandenseins von Störungen fehlerfrei unterscheidbar übertragen werden, wenn sich die zugehörigen Rauschkugeln für n nicht wechselseitig durchdringen. ( Sphere Hardening ). n / 2 n / 2 = 1 + S N n / 2 32
33 3. Grundlagen der Informationstheorie NB: Für die Bezeichnung (Adressierung) von L Elementen einer Menge benötigt man log 2 (L) Binärsymbole (Bits: High/Low oder 0/1 oder schwarz/weiß) Zahl der durch ein Wort der Länge n übertragbaren Bits log Zahl der je einzelnem Wert übertragbaren Bits 1 ( ) ( 1/ n Z ) n log 2 L = log 2 L n Z Z 2 1/ n ( L) n S log = 2 1+ log2 N 1+ S N Z 1 S log N bit Kanalbenutzung (Umkehrung des Kanalcodierungstheorems) 33
34 3. Grundlagen der Informationstheorie Methode zum Beweis des Kanalcodierungstheorems: Für Gauß-verteilte Zufallsvariablen x i erhält man im R n, n, auf der 2 Oberfläche einer Kugel mit dem Radius n σ x gleichmäßig verteilte Signalpunkte Eine Auswahl von L = (1 + S/N) n/2 Punkten ist damit so möglich, dass sich die zugehörigen Rauschkugeln nicht durchdringen und eine fehlerfreie Unterscheidung der L Nachrichten möglich wird. x C 1 log S = N bit Kanalbenutzung 34
35 Inhaltsübersicht Eine Formel verändert die Welt 1. Die Säulen des Informationszeitalters 2. Die Kapazitätsformel 3. Grundlagen der Informationstheorie A. Gesetz der großen Zahlen B. Kugeln im vieldimensionalen Raum 4. Information und Energie A. Minimale Energie pro bit Information bei thermischem Rauschen B. Information und der 2. Hauptsatz der Thermodynamik (Maxwellscher Dämon) 35
36 4. Information und Energie A. Minimale Energie pro bit bei thermischem Rauschen Störung: Störleistung N = N 0 B mit N 0 : (einseitige) Rauschleistungsdichte von thermischen Rauschen, B: Signalbandbreite klassische Physik: N 0 = k B T abs mit k B = 1, Konstante T abs = 292 K : N 0 = W Hz K Nutzsignal: E b : Energie pro bit Information; T b : Zeit pro bit: Spektrale Effizienz W Hz Datengeschwindigkeit (Datenrate) C T = B log 2 1+ Γ d Γ R T d ˆ E N = R = T B b 0 1/ T b [ bit/s] Hz Boltzmann- E b = S T b bit s 36
37 4. Information und Energie Ideales digitales Übertragungssystem R T =! C T E ( Γ ) d N b = 1 Γd Shannon-Grenze der digitalen Übertragung Minimum für Γ d 0 bzw. B 1 x 1 = ln x NR: ( ) ( ) ln( 2) 0, lim x = lim x 0 e x ln 2 x 2 lim x 0 e x ln 2 1 = = E b, min = ln(2) N 0 = ln(2) k B T abs Minimale Energie zur Repräsentation bzw. Übertragung von einem bit Information im Umfeld thermischen Rauschens 37
38 4. Information und Energie Materie Energie Masse m E = mc 2 Energie E Information T abs = 293 K: aber: E b,min = 2, J m b,min = 3, kg Quantenphysikalische Effekte berücksichtigen! 38
39 4. Information und Energie B. Information und der 2. Hauptsatz der Thermodynamik 2. Hauptsatz der Thermodynamik: In einem abgeschlossenen System kann die Entropie nur zunehmen, allenfalls gleichbleiben, nie abnehmen. Entropie: Maß für die Unordnung im System und somit Maß für den Aufwand zur Beschreibung des Systemzustandes Wärmeenergie ist weniger edel als Bewegungsenergie Gegenthese zum 2. Hauptsatz: Maxwellscher Dämon Glaszylinder reibungsfrei Gasmolekül in thermischer Bewegung beweglicher, aber dichter Kolben Beobachter (Maxwellscher Dämon) 39
40 4. Information und Energie 1 bit Information: Molekül momentan in linker Hälfte des Gefäßes rechter Falls links: Energieverlustfreies Einschieben des Kolbens bis zur Mitte möglich, da kein Gasgegendruck vorhanden ist Ladephase: 0 l/2 l Arbeitsphase: Austreibung des Kolbens nach rechts durch Stöße des thermisch bewegten Moleküls gegen den Kolben s l/2 Vollständige Umsetzung von thermischer Energie in Bewegungsenergie mit Hilfe von Information! Widerlegung des 2. Hauptsatzes der Thermodynamik? 40
41 4. Information und Energie Gegen den 2. Hauptsatz gewonnene Bewegungsenergie E MD E MD = l l / 2 F( s) ds Kraft mal Weg 41
42 4. Information und Energie Isotherme Expansion: Boyle-Mariottsches Gesetz (1662, 1676) für das ideale Gas und Maxwell-Boltzmann-Verteilung (1860) E p V = z k B T abs hier z = 1 (Energie je Molekül) Druck p = F(s)/A mit A: Querschnittsfläche des Zylinders Volumen V(s) = A s F(s) s = k B T abs MD l = l / 2 k B T s abs ds = k B T abs ln( s) l l / 2 = k B T abs F( s) = ln l l / 2 k = k B B T s T abs abs ln( 2) E MD = ln(2) k B T abs = ln(2) N 0 = E b,min 42
43 4. Information und Energie Es wird durch 1 bit Information genau die Energie im Widerspruch zum 2. Hauptsatz der Thermodynamik gewonnen, die zur Repräsentation, bzw. Übertragung von 1 bit Information minimal notwendig ist. Maxwellscher Dämon ist widerlegt. Fundamentaler Zusammenhang zwischen Energie und Information bestätigt! Beispiel zur Ästhetik der Wissenschaften 43
44 Eine Formel verändert die Welt 5. Folgerungen aus der Shannonschen Kapazitätsformel A. Leistungs- und Bandbreiteneffizienz bei der digitalen Übertragung B. Digitalisierung analoger Werte C. Austausch von Leistungs- und Bandbreiteneffizienz bei der Übertragung analoger Signale 6. Nicht-transparente Informationsübertragung: Quellencodierung A. Redundanzreduktion B. Irrelevanzreduktion C. Vergleich analoger und digitaler Übertragung beim Audio-Rundfunk 7. Formeln verändern die Welt 8. Persönliche Anmerkungen 44
45 5. Folgerungen aus der Shannonschen Kapazitätsformel A. Zusammenhang zwischen Leistungs- und Bandbreiteneffizienz bei der digitalen Übertragung E Shannon-Grenze: b 1 Γ ( 2 1) d N 0 Γ d 10log 10 (E b /N 0 ) [db] power efficiency 45
46 5. Folgerungen aus der Shannonschen Kapazitätsformel A. Zusammenhang zwischen Leistungs- und Bandbreiteneffizienz bei der digitalen Übertragung E Shannon-Grenze: b 1 Γ ( 2 1) d N 0 Γ d 10log 10 (E b /N 0 ) [db] power efficiency 46
47 5. Folgerungen aus der Shannonschen Kapazitätsformel A. Zusammenhang zwischen Leistungs- und Bandbreiteneffizienz bei der digitalen Übertragung E Shannon-Grenze: b 1 Γ ( 2 1) d N 0 Γ d 10log 10 (E b /N 0 ) [db] power efficiency 47
48 5. Folgerungen aus der Shannonschen Kapazitätsformel B. Optimale Digitalisierung Analogwerte Daten Diskrete Werte X Digitalisierung Rekonstruktion Y X R R bit/wert Y {y 1, y 2,..., y M } Kapazität für eine digitale Übertragung C = 1/2 log 2 (1 + S/N) 2 2 { } Signalleistung S = E X = σ x Störung W = Y X Störleistung N = E{(Y X) 2 } Signal-Stör-Leistungsverhältnis (Signal to Noise Ratio): S SNR = N Offensichtlich gilt: Je Wert X kann (im Mittel) nicht mehr Information von Ende zu Ende (X Y) übertragen werden, als Information in Form von Daten transportiert wird (Data Processing Theorem). R C = R 1/2 log 2 (1 + SNR) 48
49 5. Folgerungen aus der Shannonschen Kapazitätsformel B. Optimale Digitalisierung SNR 2 2R 1 Rate-Distortion Grenze für die Digitalisierung unabhängiger Zufallswerte! Weg zur optimalen Digitalisierung: Vektorquantisierung im R n mit n 49
50 5. Folgerungen aus der Shannonschen Kapazitätsformel C. Optimaler Austausch von Leistungs- und Bandbreiteneffizienz bei der Übertragung analoger Signale analoges Quellensignal x(t) Sender s(t) AWGN-Kanal Sendesignal Empfangssignal e(t) Empfänger Rekonstruiertes Quellensignal y(t) Bandbreite B NF Bandbreite B HF Störung C HF = B HF log 2 (1 + SNR HF ) C NF = B NF log 2 (1 + SNR NF ) SNR NF : Signal-Stör-Leistungsverhältnis für das niederfrequente Quellensignal SNR HF : Signal-Stör-Leistungsverhältnis für das hochfrequente Quellensignal Offensichtlich gilt: C NF C HF mit = für optimales Sender-Empfängerpaar BNF Def.: Bandbreiteneffizienz der analogen Übertragung: Γ = a B HF 50
51 5. Folgerungen aus der Shannonschen Kapazitätsformel C. Optimaler Austausch von Leistungs- und Bandbreiteneffizienz bei der Übertragung analoger Signale Shannon-Grenze der analogen Übertragung C NF = C HF SNR NF = (1 + SNR HF ) 1/Γ a 1 Das gleiche Resultat gilt für die Kombination Optimale Digitalisierung mit optimaler digitaler Übertragung : Theorem der Trennbarkeit von Quellencodierung und digitaler Übertragung 51
52 5. Folgerungen aus der Shannonschen Kapazitätsformel Leistungs-Bandbreiten-Diagramm für die Übertragung analoger Signale 52
53 5. Folgerungen aus der Shannonschen Kapazitätsformel Leistungs-Bandbreiten-Diagramm für die Übertragung analoger Signale 53
54 Eine Formel verändert die Welt 5. Folgerungen aus der Shannonschen Kapazitätsformel A. Leistungs- und Bandbreiteneffizienz bei der digitalen Übertragung B. Digitalisierung analoger Werte C. Austausch von Leistungs- und Bandbreiteneffizienz bei der Übertragung analoger Signale 6. Nicht-transparente Informationsübertragung: Quellencodierung A. Redundanzreduktion B. Irrelevanzreduktion C. Vergleich analoger und digitaler Übertragung beim Audio-Rundfunk 7. Formeln verändern die Welt 8. Persönliche Anmerkungen 54
55 6. Nicht-Transparente Übertragung Die Shannon-Grenze gilt für die transparente Übertragung analoger Signale, also für jedes Quellensignal mit einer Bandbreite B NF Einschränkung auf typische Signale, z.b. Audiosignale Nicht-transparente Verfahren 55
56 6. Nicht-Transparente Übertragung A. Quellencodierung zur Redundanz-Reduktion: Übertragung von typischen Symbolfolgen oder Signalen Repräsentation langer Folgen durch nh anstelle n log 2 (M) Binärsymbole Menge aller M n Folgen 56
57 6. Nicht-Transparente Übertragung A. Quellencodierung zur Redundanz-Reduktion: Übertragung von typischen Symbolfolgen oder Signalen Repräsentation langer Folgen durch nh anstelle n log 2 (M) Binärsymbole Menge aller M n Folgen Teilmenge der von der Quelle typischen 2 nh Folgen 57
58 6. Nicht-Transparente Übertragung B. Quellencodierung zur Irrelevanz-Reduktion: Der Empfänger ist nicht in der Lage, alle möglichen M n unterschiedlicher Folgen zu unterscheiden, sondern nur 2 nh irr Menge aller M n Folgen Redundanz + Irrelevanz-Reduktion: Es reichen im Mittel H (log 2 (M) H irr ) Binärsymbole je Quellensymbol 58
59 6. Nicht-Transparente Übertragung B. Quellencodierung zur Irrelevanz-Reduktion: Der Empfänger ist nicht in der Lage, alle möglichen M n unterschiedlicher Folgen zu unterscheiden, sondern nur 2 nh irr Menge aller M n Folgen Teilmenge der vom Empfänger unterscheidbaren 2 nh irr Folgen Redundanz + Irrelevanz-Reduktion: Es reichen im Mittel H (log 2 (M) H irr ) Binärsymbole je Quellensymbol 59
60 6. Nicht-Transparente Übertragung B. Quellencodierung zur Irrelevanz-Reduktion: Der Empfänger ist nicht in der Lage, alle möglichen M n unterschiedlicher Folgen zu unterscheiden, sondern nur 2 nh irr Menge aller M n Folgen Teilmenge der vom Empfänger unterscheidbaren 2 nh irr Folgen Teilmenge für die typischen vom Empfänger unterscheidbaren Folgen Redundanz + Irrelevanz-Reduktion: Es reichen im Mittel H (log 2 (M) H irr ) Binärsymbole je Quellensymbol 60
61 6. Nicht-Transparente Übertragung 61
62 6. Nicht-Transparente Übertragung 62
63 6. Nicht-Transparente Übertragung 63
64 6. Nicht-Transparente Übertragung 64
65 6. Nicht-Transparente Übertragung C. Vergleich: Für Rundfunk (Audio/Mono) Reduktion des erforderlichen HF-Störabstandes bei gleichem Versorgungsgebiet und gleicher Qualität 10log 10 (SNR NF ) = 60 db a. Vom AM-Radio zum Digitalradio (DRM), Γ a = 0,5, AM DSB transparent digital nicht-transparent 75 db 33 db 7,8 db 42 db 25 db Digitale Übertragung Quellencodierung Sendeleistung 500 kw 32 W 0,1 W 65
66 6. Nicht-Transparente Übertragung Vergleich: Für Rundfunk (Audio/Mono) Reduktion des erforderlichen HF-Störabstandes bei gleichem Versorgungsgebiet und gleicher Qualität 10log 10 (SNR NF ) = 60 db b. Vom FM-Radio zum Digitalradio (DAB), Γ a = 0,07, FM transparent digital nicht-transparent 54,3 db 13,7 db 4,9 db 40,6 db 8,8 db Digitale Übertragung Quellencodierung Sendeleistung 100 kw 8,7W 1,15 W Sender Dillberg Quelle: 66
67 Eine Formel verändert die Welt 5. Folgerungen aus der Shannonschen Kapazitätsformel A. Leistungs- und Bandbreiteneffizienz bei der digitalen Übertragung B. Digitalisierung analoger Werte C. Austausch von Leistungs- und Bandbreiteneffizienz bei der Übertragung analoger Signale 6. Nicht-transparente Informationsübertragung: Quellencodierung A. Redundanzreduktion B. Irrelevanzreduktion C. Vergleich analoger und digitaler Übertragung beim Audio-Rundfunk 7. Formeln verändern die Welt 8. Persönliche Anmerkungen 67
68 7. Formeln verändern die Welt Technische Revolutionen wurden und werden immer durch fundamentale theoretische Leistung erreicht, nicht durch Tüftler und Bastler etc. Thermodynamik (Carnotscher Kreisprozess): Elektrodynamik (Maxwellsche Gleichungen): Quantenmechanik (Festkörperphysik): Informationstheorie: effiziente Wärmekraftmaschinen Elektrotechnik Mikro-/Nano-Elektronik Digitale Informationstechnik Eine gute Theorie ist das praktischste, was es gibt (G. R. Kirchhoff, ) Shannon: I never in my life tried to do anything useful
69 7. Formeln verändern die Welt Nicht Produkte der Finanzwelt, nicht Ideologien, nicht Fußballstars und auch nicht andere Stars, verändern die Welt so sehr wie Formeln und die hieraus folgende Technik aber: Technik ist grundsätzlich ambivalent Naturwissenschaftler und Techniker haben keine Macht darüber, wozu Formeln und die hieraus entstehende Technik benutzt werden. Komplexere Technik erfordert zugleich eine höhere kulturelle Entwicklung der Gesellschaft. Die zentralen Aufgaben der Geisteswissenschaften: Wertedefinitionen, Wertevermittlung statt Werteverlust! 69
70 Eine Formel verändert die Welt 5. Folgerungen aus der Shannonschen Kapazitätsformel A. Leistungs- und Bandbreiteneffizienz bei der digitalen Übertragung B. Digitalisierung analoger Werte C. Austausch von Leistungs- und Bandbreiteneffizienz bei der Übertragung analoger Signale 6. Nicht-transparente Informationsübertragung: Quellencodierung A. Redundanzreduktion B. Irrelevanzreduktion C. Vergleich analoger und digitaler Übertragung beim Audio-Rundfunk 7. Formeln verändern die Welt 8. Persönliche Anmerkungen 70
71 8. Persönliche Anmerkungen Der wissenschaftliche Weg von Prof. Dr. Heinz Gerhäuser ist geprägt vom Übergang vom Industrie- zum Informationszeitalter, vom Basteln analoger AM- und FM-Radios zum digitalen Rundfunk DAB, World-Space, XM-Radio, Sirius, DRM und vieles andere mehr via MP3 auf den Säulen Mikroelektronik und digitale Informationstechnik 71
72 8. Persönliche Anmerkungen Heinz Gerhäuser Wissenschaftlicher Weg über Lehre, Polytechnikum zur Universität, Industrie: Verbindung zwischen Theorie und Praxis Wissenschaftsmanager und erfolgreicher Unternehmer offen, ehrlich, vermittelnd zwischen verschiedenen Interessen, stets dem Wohl von Institut, Lehrstuhl und deren Mitarbeitern verpflichtet handelnd Förderer seiner Mitarbeiter auf allen Ebenen Verbindungen zwischen Technik- und Geisteswissenschaften niemals vom Eigeninteresse geleitet Gesellschaftliches und soziales Engagement Förderung des ländlichen Raumes (z.b. Forschungscampus und Kolpinghaus in Waischenfeld) Engagement für Kunst und Kultur, Einsatz bei sozialen Notfällen 72
73 8. Persönliche Anmerkungen Heinz Gerhäuser bewundernswerte menschliche Qualitäten trotz vollem Terminplan immer für seine Mitmenschen da klar zielorientiert, aber dabei geduldig und ausgleichend sicher und kontrolliert Handeln auf der Basis klarer ethischer Grundsätze in allen Situationen ist das (offene) Geheimnis seines großen Erfolges Deshalb ein Vorbild für mich und viele andere. Herzlichen Dank! 73
Vortrag am Kai Sauer Nanostrukturphysik I
Vortrag am 29.02.2013 Kai Sauer Nanostrukturphysik I 1 Informationsfluss Informationstheorie Hartley-Information Shannon-Information Kanalkapazität und gestörte Kanäle Einfaches Übertragungsmodell Beispiele
Eine Formel verändert die Welt
Eine Formel verändert die Welt Johannes B. Huber Lehrstuhl für Informationsübertragung Friedrich Alexander Universität Erlangen Nürnberg 1 gewidmet Herrn Prof. Dr. Heinz Gerhäuser anlässlich seiner Verabschiedung
Eine Formel verändert die Welt
FRAUNHOFER-INSTITUT FÜR Integrierte Schaltungen IIS Eine Formel verändert die Welt Johannes B. Huber / Beilage zum Jahresbericht 2012 1 2 Eine Formel verändert die Welt Johannes B. Huber / Lehrstuhl für
Infrastruktur der Kommunikation: Von der Theorie zur Praxis
Infrastruktur der Kommunikation: Von der Theorie zur Praxis Johannes Huber Lehrstuhl für Informationsübertragung Friedrich Alexander Universität Erlangen Nürnberg 20. Juli 2012 FRIEDRICH-ALEXANDER UNIVERSITÄT
9. Vorlesung. Systemtheorie für Informatiker. Dr. Christoph Grimm. Professur Prof. Dr. K. Waldschmidt, Univ. Frankfurt/Main
9. Vorlesung Systemtheorie für Informatiker Dr. Christoph Grimm Professur Prof. Dr. K. Waldschmidt, Univ. Frankfurt/Main Letzte Woche: Abtastung und Rekonstruktion Abtastung: Wandelt bandbegrenzte kontinuierliche
Kanalkapazität. Gestörter Kanal. Grundlagen der Rechnernetze Physikalische Schicht 25
Kanalkapazität Gestörter Kanal Grundlagen der Rechnernetze Physikalische Schicht 25 Signalstärken und Dämpfung Spannung U, Strom I, Leistung P und Energie E: Dämpfung Signalstärke Distanz Grundlagen der
Aufgabe 1 - Pegelrechnung und LTI-Systeme
KLAUSUR Nachrichtentechnik 06.08.0 Prof. Dr.-Ing. Dr. h.c. G. Fettweis Dauer: 0 min. Aufgabe 3 4 Punkte 5 0 4 50 Aufgabe - Pegelrechnung und LTI-Systeme Hinweis: Die Teilaufgaben (a), (b) und (c) können
Kapitel 8: Zeitdiskrete Zufallssignale
ZHAW, DSV2, 2007, Rumc, 8-1 Kapitel 8: Zeitdiskrete Zufallssignale Inhaltsverzeichnis 1. STOCHASTISCHER PROZESS...1 2. STATISTISCHE EIGENSCHAFTEN EINER ZUFALLSVARIABLEN...2 3. STATISTISCHE EIGENSCHAFTEN
Musterlösung zur Aufgabe A1.1
Abschnitt: 1.1 Prinzip der Nachrichtenübertragung Musterlösung zur Aufgabe A1.1 a) Im markierten Bereich (20 Millisekunden) sind ca 10 Schwingungen zu erkennen. Daraus folgt für die Signalfrequenz näherungsweise
Signale und Codes Vorlesung 4
Signale und Codes Vorlesung 4 Nico Döttling December 6, 2013 1 / 18 2 / 18 Letztes Mal Allgemeine Hamming Codes als Beispiel linearer Codes Hamming Schranke: Obere Schranke für k bei gegebenem d bzw. für
13 Mehrdimensionale Zufallsvariablen Zufallsvektoren
3 Mehrdimensionale Zufallsvariablen Zufallsvektoren Bisher haben wir uns ausschließlich mit Zufallsexperimenten beschäftigt, bei denen die Beobachtung eines einzigen Merkmals im Vordergrund stand. In diesem
{w, e, o, 1, 2, 3, 4, 5, 6, 7, 8, 9, 10, 11, 12, 13}.
LEHRSTUHL FÜR INFORMATIONSÜBERTRAGUNG Laboratorium für Nachrichtentechnik μ Prof. Dr. Ing. J. Huber Friedrich Alexander Universität Erlangen Nürnberg D Schriftliche Prüfung im Fach Signalübertragung und
Klausur zur Vorlesung Informationstheorie
INSTITUT FÜR INFORMATIONSVERARBEITUNG UNIVERSITÄT HANNOVER Appelstraße 9A 0167 Hannover Klausur zur Vorlesung Informationstheorie Datum:.02.2006 Uhrzeit: 9:00 Uhr Zeitdauer: 2 Stunden Hilfsmittel: ausgeteilte
Einführung in die Nachrichtenübertragung
Klausur Einführung in die Nachrichtenübertragung Vorlesung und Rechenübung - Prof. Dr.-Ing. Thomas Sikora - Name:............................ Vorname:................................... Matr.Nr:..........................
Übungsaufgaben zur Vorlesung Quellencodierung
Übungsaufgaben zur Vorlesung Quellencodierung Aufgabe 1: Gegeben seien die Verbundwahrscheinlichkeiten zweier diskreter Zufallsvariablen x und y: P(x, y) x 1 = 1 x 2 = 2 x 3 = 3 y 1 = 1 0.1 0.1 0.1 y 2
Tutorübung zur Vorlesung Grundlagen Rechnernetze und Verteilte Systeme Übungsblatt 3 (6. Mai 10. Mai 2013)
Technische Universität München Lehrstuhl Informatik VIII Prof. Dr.-Ing. Georg Carle Dipl.-Ing. Stephan Günther, M.Sc. Nadine Herold, M.Sc. Dipl.-Inf. Stephan Posselt Tutorübung zur Vorlesung Grundlagen
Grundlagen der Informationstheorie. Hanna Rademaker und Fynn Feldpausch
Grundlagen der Informationstheorie Hanna Rademaker und Fynn Feldpausch . Thema Informationstheorie geht zurück auf Claude Shannon The Mathematical Theory of Communication beschäftigt sich mit Information
Thermodynamik (Wärmelehre) III kinetische Gastheorie
Physik A VL6 (07.1.01) Thermodynamik (Wärmelehre) III kinetische Gastheorie Thermische Bewegung Die kinetische Gastheorie Mikroskopische Betrachtung des Druckes Mawell sche Geschwindigkeitserteilung gdes
Kanalkapazität. Grundlagen der Rechnernetze Physikalische Schicht 25
Kanalkapazität Gestörter t Kanal Grundlagen der Rechnernetze Physikalische Schicht 25 Signalstärken und Dämpfung Spannung U, Strom I, Leistung P und Energie E: Dämpfung Signalstärk ke Distanz Grundlagen
Physik I TU Dortmund WS2017/18 Gudrun Hiller Shaukat Khan Kapitel 6
Physik I U Dortmund WS7/8 Gudrun Hiller Shaukat Khan Kapitel Carnotscher Kreisprozess Modell eines Kreisprozesses (Gedankenexperiment). Nicht nur von historischem Interesse (Carnot 84), sondern auch Prozess
1 Thermodynamik allgemein
Einführung in die Energietechnik Tutorium II: Thermodynamik Thermodynamik allgemein. offenes System: kann Materie und Energie mit der Umgebung austauschen. geschlossenes System: kann nur Energie mit der
22. Entropie; Zweiter Hauptsatz der Wärmelehre
22. Entropie; Zweiter Hauptsatz der Wärmelehre Nicht alle Prozesse, die dem Energiesatz genügen, finden auch wirklich statt Beispiel: Um alle Energieprobleme zu lösen, brauchte man keine Energie aus dem
Signalübertragung und -verarbeitung
ILehrstuhl für Informationsübertragung Schriftliche Prüfung im Fach Signalübertragung und -verarbeitung 6. Oktober 008 5Aufgaben 90 Punkte Hinweise: Beachten Sie die Hinweise zu den einzelnen Teilaufgaben.
2.4 Kinetische Gastheorie - Druck und Temperatur im Teilchenmodell
2.4 Kinetische Gastheorie - Druck und Temperatur im Teilchenmodell Mit den drei Zustandsgrößen Druck, Temperatur und Volumen konnte der Zustand von Gasen makroskopisch beschrieben werden. So kann zum Beispiel
Sinneswahrnehmungen des Menschen
Sinneswahrnehmungen des Menschen Tastsinn Gleichgewicht Geruch Sehen Gehör Sprache Aktion Multimedia - Kanäle des Menschen Techniken für Medien im Wandel Multimediale Kommunikation Text : Bücher, Zeitschriften
II. Wärmelehre. II.2. Die Hauptsätze der Wärmelehre. Physik für Mediziner 1
II. Wärmelehre II.2. Die auptsätze der Wärmelehre Physik für Mediziner 1 1. auptsatz der Wärmelehre Formulierung des Energieerhaltungssatzes unter Einschluss der Wärmenergie: die Zunahme der Inneren Energie
1 Stochastische Konvergenz 2. 2 Das Gesetz der grossen Zahlen 4. 3 Der Satz von Bernoulli 6
Wirtschaftswissenschaftliches Zentrum 0 Universität Basel Mathematik Dr. Thomas Zehrt Grenzwertsätze Benötigtes Vorwissen: Der Stoff der Vorlesung,,Statistik wird als bekannt vorausgesetzt, insbesondere
Übertragungstechnik. Übertragungstechnik. Copyright Chr. Schaffer, Fachhochschule Hagenberg, MTD 1
Übertragungstechnik Copyright Chr. Schaffer, Fachhochschule Hagenberg, MTD 1 Allgemeines Schema einer Nachrichtenübertragung Modulator Sender Störungen Strecke Nachrichtenquelle Nachrichtensenke Demodulator
Grundlagen der Wahrscheinlichkeitstheorie
Priv.-Doz. Dr. H. Steinacker Wintersemester 2013/2014 Grundlagen der Wahrscheinlichkeitstheorie betrachte Wiederholungen eines Experimentes, gleicher Vorbereitung (z.b. Würfeln, Dart werfen, Doppelspaltexperiment,...)
KAPITEL 5. Erwartungswert
KAPITEL 5 Erwartungswert Wir betrachten einen diskreten Wahrscheinlichkeitsraum (Ω, P) und eine Zufallsvariable X : Ω R auf diesem Wahrscheinlichkeitsraum. Die Grundmenge Ω hat also nur endlich oder abzählbar
Doz. Dr. H.P. Scheffler Sommer 2000 Klausur zur Vorlesung Stochastik I
Doz. Dr. H.P. Scheffler Sommer 2000 Klausur zur Vorlesung Stochastik I Wählen Sie aus den folgenden sechs Aufgaben fünf Aufgaben aus. Die maximal erreichbare Punktezahl finden Sie neben jeder Aufgabe.
Reelle Zufallsvariablen
Kapitel 3 eelle Zufallsvariablen 3. Verteilungsfunktionen esultat aus der Maßtheorie: Zwischen der Menge aller W-Maße auf B, nennen wir sie W B ), und der Menge aller Verteilungsfunktionen auf, nennen
0 für t < für 1 t < für 2 t < für 3 t < für 4 t < 5 1 für t 5
4 Verteilungen und ihre Kennzahlen 1 Kapitel 4: Verteilungen und ihre Kennzahlen A: Beispiele Beispiel 1: Eine diskrete Zufallsvariable X, die nur die Werte 1,, 3, 4, 5 mit positiver Wahrscheinlichkeit
3. Fourieranalyse und Amplitudenspektren
3.1 Fourieranalyse 3.1.1 Einleitung Laut dem französischen Mathematiker Fourier (1768-1830) kann jedes periodische Signal in eine Summe von sinusförmigen Signalen mit unterschiedlichen Amplituden, Frequenzen
Vorlesung 3a. Der Erwartungswert. von diskreten reellwertigen Zufallsvariablen
Vorlesung 3a Der Erwartungswert von diskreten reellwertigen Zufallsvariablen X sei eine Zufallsvariable, deren Zielbereich R (die Menge der reellen Zahlen) (oder eine Teilmenge davon) ist. Es existiere
Allgemeines Gasgesetz. PV = K o T
Allgemeines Gasgesetz Die Kombination der beiden Gesetze von Gay-Lussac mit dem Gesetz von Boyle-Mariotte gibt den Zusammenhang der drei Zustandsgrößen Druck, Volumen, und Temperatur eines idealen Gases,
dbw und dbm dbw und dbm zur logarithmischen Darstellung einer Leistungsgröße P [W]:
dbw und dbm dbw und dbm zur logarithmischen Darstellung einer Leistungsgröße P [W]: Beispiel: Leistungsgröße P out [dbw] bei Leistungsgröße P in [dbw] und Dämpfung L [db] Leistungsgröße P out [W] Grundlagen
Spektrum und Bandbreite
Spektrum und Bandbreite 0.0 0 1f 2f 3f 4f 5f 6f Spektrum: Bandbreite: Grundlagen der Rechnernetze Physikalische Schicht 12 Aperiodische Signale in der Frequenzdomäne Bildquelle: de.wikipedia.org/wiki/frequenzspektrum
Übungsblatt 2 ( )
Experimentalphysik für Naturwissenschaftler Universität Erlangen Nürnberg SS 01 Übungsblatt (11.05.01) 1) Geschwindigkeitsverteilung eines idealen Gases (a) Durch welche Verteilung lässt sich die Geschwindigkeitsverteilung
Anliegen: Beschreibung von Versuchsergebnissen mit Zahlen, um mit Zahlen bzw. bekannten Funktionen rechnen zu können.
2 Zufallsvariable 2.1 Einführung Anliegen: Beschreibung von Versuchsergebnissen mit Zahlen, um mit Zahlen bzw. bekannten Funktionen rechnen zu können. Eine Zufallsvariable X ordnet jedem elementaren Versuchsausgang
Signalübertragung und -verarbeitung
LEHRSTUHL FÜR INFORMATIONSÜBERTRAGUNG Laboratorium für Nachrichtentechnik Prof. Dr. Ing. J. Huber Friedrich Alexander Universität Erlangen Nürnberg D Schriftliche Prüfung im Fach Signalübertragung und
Thermodynamik Hauptsatz
Thermodynamik. Hauptsatz Inhalt Wärmekraftmaschinen / Kälteprozesse. Hauptsatz der Thermodynamik Reversibilität Carnot Prozess Thermodynamische Temperatur Entropie Entropiebilanzen Anergie und Exergie
Die innere Energie and die Entropie
Die innere Energie and die Entropie Aber fangen wir mit der Entropie an... Stellen Sie sich ein System vor, das durch die Entropie S, das Volumen V und die Stoffmenge n beschrieben wird. U ' U(S,V,n) Wir
Prof. Dr. Stefan Weinzierl SNR V = P signal P noise
Audiotechnik II Digitale Audiotechnik: 5. Tutorium Prof. Dr. Stefan Weinzierl 0.11.01 Musterlösung: 1. November 01, 15:50 1 Dither a) Leiten sie den SNR eines idealen, linearen -bit Wandlers her. Nehmen
Grundlagen der Statistischen Nachrichtentheorie
Grundlagen der Statistischen Nachrichtentheorie - Prof. Dr.-Ing. Thomas Sikora - Name:............................ Vorname:......................... Matr.Nr:........................... Ich bin mit der
4.1.1 Kelvin-Planck-Formulierung des 2. Hauptsatzes der Thermodynamik. Thermischer Wirkungsgrad einer Arbeitsmaschine:
4. Zweiter Hauptsatz der Thermodynamik 4.1. Klassische Formulierungen 4.1.1 Kelvin-Planck-Formulierung des 2. Hauptsatzes der Thermodynamik Thermischer Wirkungsgrad einer Arbeitsmaschine: Beispiel Ottomotor
Grundlagen der Statistischen Nachrichtentheorie
- Prof. Dr.-Ing. Thomas Sikora - Name:............................ Vorname:......................... Matr.Nr:........................... Ich bin mit der Veröffentlichung des Klausurergebnisses unter meiner
Übung zu Drahtlose Kommunikation. 1. Übung
Übung zu Drahtlose Kommunikation 1. Übung 22.10.2012 Termine Übungen wöchentlich, Montags 15 Uhr (s.t.), Raum B 016 Jede Woche 1 Übungsblatt http://userpages.uni-koblenz.de/~vnuml/drako/uebung/ Bearbeitung
1.3 Digitale Audiosignale
Seite 22 von 86 Abb. 1.2.12 - Wirkung der Schallverzögerung Effekte sind: Delay, Echo, Reverb, Flanger und Chorus Hört man ein akustisches Signal im Raum, dann werden die Signale von Wänden und anderen
Physikdepartment. Ferienkurs zur Experimentalphysik 4. Daniel Jost 10/09/15
Physikdepartment Ferienkurs zur Experimentalphysik 4 Daniel Jost 10/09/15 Inhaltsverzeichnis Technische Universität München 1 Kurze Einführung in die Thermodynamik 1 1.1 Hauptsätze der Thermodynamik.......................
Einführung in die MIMO-Technik: Räumliches Multiplexing. Luciano Sarperi,
Einführung in die MIMO-Technik: Räumliches Multiplexing Luciano Sarperi, 22.03.2017 Inhalt Überblick Multi-Antennen Systeme Was ist räumliches Multiplexing? Wann wird räumliches Multiplexing angewandt?
Discrete Probability - Übungen (SS5) Wahrscheinlichkeitstheorie. 1. KR, Abschnitt 6.1, Aufgabe 5: 2. KR, Abschnitt 6.1, Aufgabe 7:
Discrete Probability - Übungen (SS5) Felix Rohrer Wahrscheinlichkeitstheorie 1. KR, Abschnitt 6.1, Aufgabe 5: Bestimmen Sie die Wahrscheinlichkeit dafür, dass die Augensumme von zwei geworfenen Würfeln
70 Wichtige kontinuierliche Verteilungen
70 Wichtige kontinuierliche Verteilungen 70. Motivation Zufallsvariablen sind nicht immer diskret, sie können oft auch jede beliebige reelle Zahl in einem Intervall [c, d] einnehmen. Beispiele für solche
Modelle der Kommunikation. 1. Technisches Kommunikationsmodell Shannon&Weaver 2. Eisbergmodell Sigmund Freud 3. 4 Seiten Modell Schulz von Thun
Modelle der Kommunikation 1. Technisches Kommunikationsmodell Shannon&Weaver 2. Eisbergmodell Sigmund Freud 3. 4 Seiten Modell Schulz von Thun 1 Ein einfaches Modell der Kommunikation: Shannon & Weaver
Der Zustand eines Systems ist durch Zustandsgrößen charakterisiert.
Grundbegriffe der Thermodynamik Die Thermodynamik beschäftigt sich mit der Interpretation gegenseitiger Abhängigkeit von stofflichen und energetischen Phänomenen in der Natur. Die Thermodynamik kann voraussagen,
Informationstheorie und Codierung
Informationstheorie und Codierung 3. Codierung diskreter Quellen Gleichmäßiger Code Ungleichmäßiger Code Fano-, Huffman-Codierung Optimalcodierung von Markoff-Quellen Lauflängencodes nach Golomb und Rice
Winter-Semester 2017/18. Moderne Theoretische Physik IIIa. Statistische Physik
Winter-Semester 2017/18 Moderne Theoretische Physik IIIa Statistische Physik Dozent: Alexander Shnirman Institut für Theorie der Kondensierten Materie Do 11:30-13:00, Lehmann Raum 022, Geb 30.22 http://www.tkm.kit.edu/lehre/
73 Hypothesentests Motivation Parametertest am Beispiel eines Münzexperiments
73 Hypothesentests 73.1 Motivation Bei Hypothesentests will man eine gewisse Annahme über eine Zufallsvariable darauf hin überprüfen, ob sie korrekt ist. Beispiele: ( Ist eine Münze fair p = 1 )? 2 Sind
Molekulare Bioinformatik
Molekulare Bioinformatik Wintersemester 2013/2014 Prof. Thomas Martinetz Institut für Neuro- und Bioinformatik Universität zu Luebeck 14.01.2014 1 Molekulare Bioinformatik - Vorlesung 11 Wiederholung Wir
Campus Radio Test für digitales Lokalradio auf Mittel-/Kurzwelle in einer Großstadt
Campus Radio Test für digitales Lokalradio auf Mittel-/Kurzwelle in einer Großstadt Thomas Lauterbach Übersicht Motivation für das Projekt Campus-Radio DRM: Digital Radio Mondiale Inhalte des Projekts
Entscheidung zwischen zwei Möglichkeiten auf der Basis unsicherer (zufälliger) Daten
Prof. Dr. J. Franke Statistik II für Wirtschaftswissenschaftler 4.1 4. Statistische Entscheidungsverfahren Entscheidung zwischen zwei Möglichkeiten auf der Basis unsicherer (zufälliger) Daten Beispiel:
Kompressible Strömungen
Kompressible Strömungen Problemstellungen: - Wie lassen sich Überschallströmungen realisieren? - Welche Windkanalgeometrie ist notwendig? - Thermodynamische Beziehungen in Überschallströmungen? - Unterschall
Lösungen 4.1 Analoge Übertragung mit PCM
J. Lindner: Informationsübertragung Lösungen Kapitel 4 Lösungen 4. Analoge Übertragung mit PCM 4. a) Blockbild einer Übertragung mit PCM: q(t) A D 8 bit linear f Amin = 8kHz q(i) digitales ˆq(i) Übertragungs-
Begriffe aus der Informatik Nachrichten
Begriffe aus der Informatik Nachrichten Gerhard Goos definiert in Vorlesungen über Informatik, Band 1, 1995 Springer-Verlag Berlin Heidelberg: Die Darstellung einer Mitteilung durch die zeitliche Veränderung
Kapitel 9: Informationstheorie. 2. Entropie
ZHAW, NT, FS2008, Rumc, Kapitel 9: 2-1 Kapitel 9: Informationstheorie 2. Entropie Inhaltsverzeichnis 2.1. INFORATIONSQUELLEN...2 2.2. INFORATIONSGEHALT...3 2.3. INIALE ANZAHL BINÄRE FRAGEN...5 2.4. ENTROPIE
Elementare Einführung in die Wahrscheinlichkeitsrechnung, Informationstheorie und stochastische Prozesse mit Warteschlangentheorie
Berichte aus der Informationstechnik Klaus-Dieter Thies Elementare Einführung in die Wahrscheinlichkeitsrechnung, Informationstheorie und stochastische Prozesse mit Warteschlangentheorie für Computernetzwerke
Programm. Wiederholung. Gleichverteilung Diskrete Gleichverteilung Stetige Gleichverteilung. Binomialverteilung. Hypergeometrische Verteilung
Programm Wiederholung Gleichverteilung Diskrete Gleichverteilung Stetige Gleichverteilung Binomialverteilung Hypergeometrische Verteilung Wiederholung verschiedene Mittelwerte für verschiedene Skalenniveaus
Binomialverteilung. Statistik für SoziologInnen 1 Diskrete Verteilungsmodelle. Marcus Hudec
Binomialverteilung Jakob Bernoulli (1654-1705) Ars Conjectandi Klassisches Verteilungsmodell für die Berechnung der Wahrscheinlichkeit für die Häufigkeit des Eintretens von Ereignissen in bestimmten noch
Digital Signal Processing
- for Master Study by TFH Bochum - Analog Signal I OO O I I I O O O Digital Signal Seite 1 Zielsetzung der Signalverarbeitung Analyse: H(t), H(f) Modellieren y(t) {} Physikalische Größe und Prozesse Synthese
Wozu braucht man Vektorrechnung bei der Datenübertragung?
Wozu braucht man Vektorrechnung bei der Datenübertragung? Henrik Schulze Fachhochschule Südwestfalen Meschede Nürnberg, 2011-06-07 Überblick Eigenschaften von Vektoren Signale als Vektoren Projektion,
Auf und Ab im Mobilfunk
Auf und Ab im Mobilfunk Was die Übertragung von der Basisstation zu den Teilnehmern (Downlink) von der Gegenrichtung (Uplink) lernen kann Robert F.H. Fischer LEHRSTUHL FÜR INFORMATIONSÜBERTRAGUNG Laboratorium
ST Der Stirling-Motor als Wärmekraftmaschine
ST Der Stirling-Motor als Wärmekraftmaschine Blockpraktikum Herbst 2007 Gruppe 2b 24. Oktober 2007 Inhaltsverzeichnis 1 Grundlagen 2 1.1 Stirling-Kreisprozess............................. 2 1.2 Technische
1.5 Erwartungswert und Varianz
Ziel: Charakterisiere Verteilungen von Zufallsvariablen (Bildbereich also reelle Zahlen, metrische Skala) durch Kenngrößen (in Analogie zu Lage- und Streuungsmaßen der deskriptiven Statistik). Insbesondere:
Hochschule Düsseldorf University of Applied Sciences. 13. April 2016 HSD. Energiespeicher. Thermodynamik
13. April 2016 Energiespeicher Thermodynamik Prof. Dr. Alexander Braun // Energiespeicher // SS 2016 26. April 2017 Thermodynamik Grundbegriffe Prof. Dr. Alexander Braun // Energiespeicher // SS 2017 26.
Erwartungswert und Varianz von Zufallsvariablen
Kapitel 7 Erwartungswert und Varianz von Zufallsvariablen Im Folgenden sei (Ω, A, P ) ein Wahrscheinlichkeitsraum. Der Erwartungswert von X ist ein Lebesgue-Integral (allerdings allgemeiner als in Analysis
Grundlegende Eigenschaften von Punktschätzern
Grundlegende Eigenschaften von Punktschätzern Worum geht es in diesem Modul? Schätzer als Zufallsvariablen Vorbereitung einer Simulation Verteilung von P-Dach Empirische Lage- und Streuungsparameter zur
Thermodynamik un Statistische Mechanik
Theoretische Physik Band 9 Walter Greiner Ludwig Neise Horst Stöcker Thermodynamik un Statistische Mechanik Ein Lehr- und Übungsbuch Mit zahlreichen Abbildungen, Beispiele n und Aufgaben mit ausführlichen
Klausur Informationstheorie und Codierung
Klausur Informationstheorie und Codierung WS 2013/2014 23.01.2014 Name: Vorname: Matr.Nr: Ich fühle mich gesundheitlich in der Lage, die Klausur zu schreiben Unterschrift: Aufgabe A1 A2 A3 Summe Max. Punkte
Bild-Erfassung Digitalisierung Abtastung/Quantisierung
Multimediatechnik / Video Bild-Erfassung Digitalisierung Abtastung/Quantisierung Oliver Lietz Bild-Erfassung Abtastung / Digitalisierung Scanner: Zeilenweise Abtastung mit CCD Digitale Kamera: Flächenweise
Methoden zur Verbesserung des S/R-Verhältnisses
Methoden zur Verbesserung des S/R-Verhältnisses Vortrag zum Proseminar des Fortgeschrittenenpraktikums Daniel Kuhwald 20. November 2008 1 / 20 Gliederung: Definition des S/R-Verhältnisses Verbesserung
Allgemeine diskrete Wahrscheinlichkeitsräume II. Beispiel II. Beispiel I. Definition 6.3 (Diskreter Wahrscheinlichkeitsraum)
Allgemeine diskrete Wahrscheinlichkeitsräume I Allgemeine diskrete Wahrscheinlichkeitsräume II Verallgemeinerung von Laplaceschen Wahrscheinlichkeitsräumen: Diskrete Wahrscheinlichkeitsräume Ω endlich
2 Informationstheorie
2 Informationstheorie Formale Grundlagen der Informatik I Herbstsemester 2012 Robert Marti Vorlesung teilweise basierend auf Unterlagen von Prof. emer. Helmut Schauer Grundbegriffe Informatik (IT: Information
Systeme II 2. Woche Bitübertragungsschicht
Systeme II 2. Woche Bitübertragungsschicht Christian Schindelhauer Technische Fakultät Rechnernetze und Telematik Albert-Ludwigs-Universität Freiburg Bitübertragungsschicht Physical Layer ISO-Definition
Kapitel 4 Leitungscodierung
Kapitel 4 Leitungscodierung Prof. Dr. Dirk W. Hoffmann Hochschule Karlsruhe w University of Applied Sciences w Fakultät für Informatik Übersicht Quelle Senke Kompression Huffman-, Arithmetische-, Lempel-Ziv
4.3 OFDM (Variante mit Cyclic Prefix) Dr. Mike Wolf, Fachgebiet Nachrichtentechnik Drahtlose Nachrichtenübertragung 65
(Variante mit Cyclic Prefix) Dr. Mike Wolf, Fachgebiet Nachrichtentechnik Drahtlose Nachrichtenübertragung 65 (Variante mit Cyclic Prefix) zeitkontinuierliches Sendesignal ohne CP Bitrate: R b (Bitrate
Kapitel 2. Wahrscheinlichkeit (wird heute behandelt) Kapitel 2. Wahrscheinlichkeit
Teil I: Wahrscheinlichkeitstheorie 1 Kapitel 2. Wahrscheinlichkeit (wird heute behandelt) Kapitel 3: Bedingte Wahrscheinlichkeit Kapitel 4: Zufallsvariablen Kapitel 5: Erwartungswerte, Varianz, Kovarianz
Mathe III. Garance PARIS. Mathematische Grundlagen III. Informationstheorie. 20. Juni /1
Mathematische Grundlagen III Informationstheorie 20 Juni 20 / Informationstheorie Ein Gerüst, um über den Informationsgehalt von (linguistischen) Ereignissen nachzudenken Einige Beispiele für Anwendungen:
Nachtrag zu 11: 11.6.Statistische Physik: Entropie, Boltzmann-Verteilung
Nachtrag zu 11: 11.6.Statistische Physik: Entropie, Boltzmann-Verteilung Ludwig Boltzmann 1860: Maxwellsche Geschwindigkeitsverteilung 1865: Clausius, thermodynamische Entropie, 2. Hauptsatz: Entropie
1.5 Erwartungswert und Varianz
Ziel: Charakterisiere Verteilungen von Zufallsvariablen durch Kenngrößen (in Analogie zu Lage- und Streuungsmaßen der deskriptiven Statistik). Insbesondere: a) durchschnittlicher Wert Erwartungswert, z.b.
Seite 2 Information = Unsicherheit e Info (e) := - log p(e) Info ( A und B) = Info (A) + Info (B) Definition: = Info (nie eintretendes Ereignis) eines
Seite 1 Georg-August-Universität Göttingen Robert Schaback Zum Begriff der Information in Mathematik und Informatik Seite 2 Information = Unsicherheit e Info (e) := - log p(e) Info ( A und B) = Info (A)
4 Thermodynamik mikroskopisch: kinetische Gastheorie makroskopisch: System:
Theorie der Wärme kann auf zwei verschiedene Arten behandelt werden. mikroskopisch: Bewegung von Gasatomen oder -molekülen. Vielzahl von Teilchen ( 10 23 ) im Allgemeinen nicht vollständig beschreibbar
Thermodynamik und Statistische Mechanik
Theoretische Physik Band 9 Walter Greiner Ludwig Neise Horst Stöcker Thermodynamik und Statistische Mechanik Ein Lehr- und Übungsbuch Mit zahlreichen Abbildungen, Beispielen und Aufgaben mit ausführlichen
Kapitel 6. Irrfahrten und Bernoullischemata
Kapitel 6 Irrfahrten und Bernoullischemata Ausgangspunkt dieses Kapitels ist das in den Abschnitten 2.5 und 3.3 vorgestellte mathematische Modell des mehrmals Werfens einer Münze. Die dort definierten
Einführung in die medizinische Bildverarbeitung WS 12/13
Einführung in die medizinische Bildverarbeitung WS 12/13 Stephan Gimbel Kurze Wiederholung Landmarkenbasierte anhand anatomischer Punkte interaktiv algorithmisch z.b. zur Navigation im OP Markierung von
7.5 Erwartungswert, Varianz
7.5 Erwartungswert, Varianz Def. 7.5.: a) X sei eine diskrete ZV, die bei unendl. vielen Werten x k folgende Zusatzbedingung erfüllt: x k p k
Lochmann Information und der Entropie-Irrtum
Lochmann Information und der Entropie-Irrtum Berichte aus der Philosophie Dietmar Lochmann Information und der Entropie-Irrtum Shaker Verlag Aachen 2012 Die Deutsche Nationalbibliothek verzeichnet diese
HD-Radio und FMeXtra
HD-Radio und FMeXtra Vorstellung digitaler Systeme im UKW-Bereich Roland Kretzschmann Landesanstalt für Kommunikation 27. September 27 Überblick Rundfunk-Systeme für den UKW-Bereich Merkmale von HD-Radio
Thema: DAB. Ein Überblick
Thema: DAB Ein Überblick 1 Was ist DAB? Digital Audio Broadcast Ist ein digitaler Übertragungsstandard für terrestrischen Empfang von Digitalradio Frequenzbereich von 30 MHz bis 3 GHz geeignet Entwickelt
67 Zufallsvariable, Erwartungswert, Varianz
67 Zufallsvariable, Erwartungswert, Varianz 67.1 Motivation Oft möchte man dem Resultat eines Zufallsexperiments eine reelle Zahl zuordnen. Der Gewinn bei einem Glücksspiel ist ein Beispiel hierfür. In
Digitale Signalverarbeitung
Digitale Signalverarbeitung Mario Hlawitschka Wissenschaftliche Visualisierung, Universität Leipzig hlawit@informatik.uni-leipzig.de, http://www.informatik.uni-leipzig.de/ hlawit/ Mario Hlawitschka Digitale