Eine Formel verändert die Welt

Größe: px
Ab Seite anzeigen:

Download "Eine Formel verändert die Welt"

Transkript

1 Eine Formel verändert die Welt gewidmet Herrn Prof. Dr. Heinz Gerhäuser anlässlich seiner Verabschiedung in den Ruhestand Johannes Huber Lehrstuhl für Informationsübertragung Friedrich-Alexander-Universität Erlangen-Nürnberg 26. Oktober 2011

2 Eine Formel verändert die Welt gewidmet Herrn Prof. Dr. Heinz Gerhäuser anlässlich seiner Entpflichtung von Dienstaufgaben Johannes Huber Lehrstuhl für Informationsübertragung Friedrich-Alexander-Universität Erlangen-Nürnberg 26. Oktober 2011

3 Eine Formel verändert die Welt gewidmet Herrn Prof. Dr. Heinz Gerhäuser anlässlich der Verlagerung der Schwerpunkte seiner Aktivitäten Johannes Huber Lehrstuhl für Informationsübertragung Friedrich-Alexander-Universität Erlangen-Nürnberg 26. Oktober 2011

4 Eine Formel verändert die Welt gewidmet Herrn Prof. Dr. Heinz Gerhäuser anlässlich dessen, dass sich wohl nichts ändert in seinem Leben Johannes Huber Lehrstuhl für Informationsübertragung Friedrich-Alexander-Universität Erlangen-Nürnberg 26. Oktober 2011

5 Inhaltsübersicht Eine Formel verändert die Welt 1. Die Säulen des Informationszeitalters 2. Die Kapazitätsformel 3. Grundlagen der Informationstheorie A. Gesetz der großen Zahlen B. Kugeln im vieldimensionalen Raum 4. Information und Energie A. Minimale Energie pro bit Information bei thermischem Rauschen B. Information und der 2. Hauptsatz der Thermodynamik (Maxwellscher Dämon) 5

6 Eine Formel verändert die Welt 5. Folgerungen aus der Shannonschen Kapazitätsformel A. Leistungs- und Bandbreiteneffizienz bei der digitalen Übertragung B. Digitalisierung analoger Werte C. Austausch von Leistungs- und Bandbreiteneffizienz bei der Übertragung analoger Signale 6. Nicht-transparente Informationsübertragung: Quellencodierung A. Redundanzreduktion B. Irrelevanzreduktion C. Vergleich analoger und digitaler Übertragung beim Audio-Rundfunk 7. Formeln verändern die Welt 8. Persönliche Anmerkungen 6

7 Eine Formel verändert die Welt Äquivalenz von Masse und Energie: E = m c 2 7

8 1. Die Säulen des Informationszeitalters Radio des Jahres 1960 Quelle: Author: stevepamer 8

9 1. Die Säulen des Informationszeitalters Inneres des I-Phones 2010 Wodurch wurde diese Entwicklung innerhalb von 50 Jahren ermöglicht? 9

10 1. Die Säulen des Informationszeitalters Inneres des I-Phones 2010 Erlaubnis muss noch erfragt werden. Quelle: Wodurch wurde diese Entwicklung innerhalb von 50 Jahren ermöglicht? 10

11 1. Die Säulen des Informationszeitalters Erfindung des Transistors Bardeen, Brattain, Shockley, AT & T Bell Labs, Murray Hill, New Jersey, 1947/48 Entwicklung der Mikroelektronik Lösung des Problems: Wie können informationstechnische Systeme effizient implementiert werden? Entwicklung der Informationstheorie durch Claude E. Shannon ( ) AT & T Bell Labs, Murray Hill, New Jersey, 1948 (publiziert) Antwort auf die Frage: Was ist ein effizientes informationstechnisches System, aus welchen Komponenten soll es bestehen, welche Methoden sind anzuwenden? Einleitung des Wandels von der analogen zur digitalen Informationstechnik durch eine Mathematische Theorie 11

12 1. Die Säulen des Informationszeitalters Claude Elwood Shannon Quelle: 12

13 1. Die Säulen des Informationszeitalters The Father of Information Age Quelle: 13

14 1. Die Säulen des Informationszeitalters 14

15 1. Die Säulen des Informationszeitalters 15

16 Inhaltsübersicht Eine Formel verändert die Welt 1. Die Säulen des Informationszeitalters 2. Die Kapazitätsformel 3. Grundlagen der Informationstheorie A. Gesetz der großen Zahlen B. Kugeln im vieldimensionalen Raum 4. Information und Energie A. Minimale Energie pro bit Information bei thermischem Rauschen B. Information und der 2. Hauptsatz der Thermodynamik (Maxwellscher Dämon) 16

17 2. Die Kapazitätsformel Eine Formel hat die Welt grundlegend verändert: gestörte Nachrichtenübertragung X unabhängige Gauß sche Störvariable W 2 σw = N Y 2 σ X = S σ 2 Y = S + N C 1 log S = N bit Wert C: Informationsübertragungskapazität des zeitdiskreten Kanals bei additiver Gauß scher Störung S: Varianz des Nutzsignals (Nutzsignalleistung: Signal Power) N: Varianz der Störung (Störsignalleistung: Noise Power) 17

18 2. Die Kapazitätsformel Durch Anwendung des Abtasttheorems: Bei einem auf die Spektralbandbreite B bandbegrenztem Signal sind maximal 2 B Werte je Sekunde frei wählbar. folgt C T log S 1 S = B + = B log2 1 + N BN 2 0 bit Sekunde C T : Informationsübertragungskapazität des zeitkontinuierlichen, bandbegrenzten Übertragungskanals mit Störung durch weißes, Gauß sches Rauschen B: (einseitige) spektrale Signalbandbreite N 0 : (einseitige) spektrale Rauschleistungsdichte 18

19 Fundamentale Einsichten: 2. Die Kapazitätsformel Beim Vorhandensein von Störungen kann auch durch analoge, d.h. wertkontinuierliche Signalwerte nur eine begrenzte Anzahl unterschiedlicher Informationen repräsentiert und übertragen werden: Information ist in digitaler Form zu repräsentieren und zu übertragen Trotz Störungen kann aber Information zuverlässig, absolut fehlerfrei übertragen werden: eine effiziente Informationstechnik ist eine digitale Informationstechnik 19

20 2. Die Kapazitätsformel Fundamentaler Unterschied zwischen analoger und digitaler Informationstechnik: analog: Nutzsignal und Störung sind empfangsseitig nicht mehr trennbar digital: Nutzsignal und Störung sind prinzipiell wieder trennbar. Digitale Informationstechnik erlaubt Signalregeneration: Fehlerfreie Detektion der digitalen Symbolsequenzen und erneutes Senden des störungsfreien Sendesignals. Beispiele: Kopieren von CDs (im Vergleich zu analogen Audiokassetten) Telefonieren nach Australien 20

21 Inhaltsübersicht Eine Formel verändert die Welt 1. Die Säulen des Informationszeitalters 2. Die Kapazitätsformel 3. Grundlagen der Informationstheorie A. Gesetz der großen Zahlen B. Kugeln im vieldimensionalen Raum 4. Information und Energie A. Minimale Energie pro bit Information bei thermischem Rauschen B. Information und der 2. Hauptsatz der Thermodynamik (Maxwellscher Dämon) 21

22 3. Grundlagen der Informationstheorie A. Gesetz der großen Zahlen Wird ein Zufallsexperiment (statistisch unabhängig) sehr oft wiederholt, dann nähern sich relative Häufigkeiten Wahrscheinlichkeiten an, Mittelwerte streben gegen Erwartungswerte usw. Wiederholung reduziert die Zufälligkeit (vgl. Versicherungen) 22

23 3. Grundlagen der Informationstheorie Beispiel: Fairer Münzwurf, Zufallsereignis: Wappen (Kopf) oder Zahl Wahrscheinlichkeit für W Wappen bei n Würfen Pr (W) = ( ) 2 -n n W n = n n = =

24 3. Grundlagen der Informationstheorie Beispiel: Fairer Münzwurf, Zufallsereignis: Wappen (Kopf) oder Zahl Wahrscheinlichkeit für W Wappen bei n Würfen Pr (W) = ( ) 2 -n n W n = 100 n =

25 3. Grundlagen der Informationstheorie Beispiel: Fairer Münzwurf, Zufallsereignis: Wappen (Kopf) oder Zahl Wahrscheinlichkeit für W Wappen bei n Würfen Pr (W) = ( ) 2 -n n W n =

26 3. Grundlagen der Informationstheorie Beispiel: Fairer Münzwurf, Zufallsereignis: Wappen (Kopf) oder Zahl Wahrscheinlichkeit für W Wappen bei n Würfen Pr (W) = ( ) 2 -n n W n =

27 3. Grundlagen der Informationstheorie Beispiel: Fairer Münzwurf, Zufallsereignis: Wappen (Kopf) oder Zahl Wahrscheinlichkeit für W Wappen bei n Würfen Pr (W) = ( ) 2 -n n W n =

28 3. Grundlagen der Informationstheorie B. Kugeln in vieldimensionalen Euklidischen Räumen R n Ein Punkt x =, ( x x, x, ) 1, 2 3 Def.: Kugel mit Radius R: Menge aller Punkte x n im R n wird durch n Koordinaten spezifiziert. x mit n i= 1 2 x i = R 2 Beispiel n = 2 x 2 R. x x2 R x = Satz von Pythagoras! Volumen V einer Kugel mit Radius R im R n V = π n / 2 ( n / 2) R! n n = 2 V = π R 3/ 2 π n = 3 V = (3/ 2)! Für eine sehr große Zahl n von Dimension (n >> 1) gilt: Das Kugelvolumen wird im Wesentlichen durch oberflächennahe Punkte dominiert. 2 R 3 = 4 π R

29 3. Grundlagen der Informationstheorie (Mittelwertfreie) informationstragende Signalwerte x i : Zufallswerte mit Varianz σ 2 = E{ x 2 } S (mittlere Signalleistung) x = x i i Gesetz der großen Zahlen: 1 n 2 x i n i= 1 x strebt für n nach Für jede lange Folge von Signalwerten x i besitzt der zugehörige Vektor den Betrag n σ 2 x 1 n nσ 2 2 x = σ x = x S Alle informationstragenden langen Folgen liegen im R n auf der Oberfläche bzw. in einer Kugel mit dem Radius R = n S 29

30 3. Grundlagen der Informationstheorie x 2 x 1 x 3 30

31 3. Grundlagen der Informationstheorie Einfaches Übertragungsmodell Addition statistisch unabhängiger Störwerte X Y gesendeter Wert 2 mit Varianz σ S Übertragung langer Folgen von Werten (n >> 1) : Alle empfangenen Folgen y = ( y1, y2, y3,, yn ) bilden im R n Punkte auf, bzw. in einer Kugel mit dem Radius n ( S + N ) und dem Volumen V y. = nn x = Alle Störungen w ( w1, w2,, wn ) bilden im R n Punkte auf bzw. in einer Kugel mit dem Radius und dem Volumen V w. Um jeden gesendeten Punkt bildet die Störung eine Rauschkugel, innerhalb derer der empfangene Punkt für n zu finden ist. x W i Störung mit 2 Varianz σ y w = N empfangener Wert 2 mit Varianz σ = S y + N 31

32 3. Grundlagen der Informationstheorie Illustration n = 2 x 2 w x 2 w In einer großen Kugel mit dem Volumen V y haben maximal L = V y /V w kleine Kugeln mit dem Volumen V w Platz x 1 x 1 Damit können höchstens L V = V y w = n / 2 π ( n / 2)! n / 2 π ( n / 2)! ( n ( S + N) ) ( n N ) unterschiedliche Nachrichten trotz des Vorhandenseins von Störungen fehlerfrei unterscheidbar übertragen werden, wenn sich die zugehörigen Rauschkugeln für n nicht wechselseitig durchdringen. ( Sphere Hardening ). n / 2 n / 2 = 1 + S N n / 2 32

33 3. Grundlagen der Informationstheorie NB: Für die Bezeichnung (Adressierung) von L Elementen einer Menge benötigt man log 2 (L) Binärsymbole (Bits: High/Low oder 0/1 oder schwarz/weiß) Zahl der durch ein Wort der Länge n übertragbaren Bits log Zahl der je einzelnem Wert übertragbaren Bits 1 ( ) ( 1/ n Z ) n log 2 L = log 2 L n Z Z 2 1/ n ( L) n S log = 2 1+ log2 N 1+ S N Z 1 S log N bit Kanalbenutzung (Umkehrung des Kanalcodierungstheorems) 33

34 3. Grundlagen der Informationstheorie Methode zum Beweis des Kanalcodierungstheorems: Für Gauß-verteilte Zufallsvariablen x i erhält man im R n, n, auf der 2 Oberfläche einer Kugel mit dem Radius n σ x gleichmäßig verteilte Signalpunkte Eine Auswahl von L = (1 + S/N) n/2 Punkten ist damit so möglich, dass sich die zugehörigen Rauschkugeln nicht durchdringen und eine fehlerfreie Unterscheidung der L Nachrichten möglich wird. x C 1 log S = N bit Kanalbenutzung 34

35 Inhaltsübersicht Eine Formel verändert die Welt 1. Die Säulen des Informationszeitalters 2. Die Kapazitätsformel 3. Grundlagen der Informationstheorie A. Gesetz der großen Zahlen B. Kugeln im vieldimensionalen Raum 4. Information und Energie A. Minimale Energie pro bit Information bei thermischem Rauschen B. Information und der 2. Hauptsatz der Thermodynamik (Maxwellscher Dämon) 35

36 4. Information und Energie A. Minimale Energie pro bit bei thermischem Rauschen Störung: Störleistung N = N 0 B mit N 0 : (einseitige) Rauschleistungsdichte von thermischen Rauschen, B: Signalbandbreite klassische Physik: N 0 = k B T abs mit k B = 1, Konstante T abs = 292 K : N 0 = W Hz K Nutzsignal: E b : Energie pro bit Information; T b : Zeit pro bit: Spektrale Effizienz W Hz Datengeschwindigkeit (Datenrate) C T = B log 2 1+ Γ d Γ R T d ˆ E N = R = T B b 0 1/ T b [ bit/s] Hz Boltzmann- E b = S T b bit s 36

37 4. Information und Energie Ideales digitales Übertragungssystem R T =! C T E ( Γ ) d N b = 1 Γd Shannon-Grenze der digitalen Übertragung Minimum für Γ d 0 bzw. B 1 x 1 = ln x NR: ( ) ( ) ln( 2) 0, lim x = lim x 0 e x ln 2 x 2 lim x 0 e x ln 2 1 = = E b, min = ln(2) N 0 = ln(2) k B T abs Minimale Energie zur Repräsentation bzw. Übertragung von einem bit Information im Umfeld thermischen Rauschens 37

38 4. Information und Energie Materie Energie Masse m E = mc 2 Energie E Information T abs = 293 K: aber: E b,min = 2, J m b,min = 3, kg Quantenphysikalische Effekte berücksichtigen! 38

39 4. Information und Energie B. Information und der 2. Hauptsatz der Thermodynamik 2. Hauptsatz der Thermodynamik: In einem abgeschlossenen System kann die Entropie nur zunehmen, allenfalls gleichbleiben, nie abnehmen. Entropie: Maß für die Unordnung im System und somit Maß für den Aufwand zur Beschreibung des Systemzustandes Wärmeenergie ist weniger edel als Bewegungsenergie Gegenthese zum 2. Hauptsatz: Maxwellscher Dämon Glaszylinder reibungsfrei Gasmolekül in thermischer Bewegung beweglicher, aber dichter Kolben Beobachter (Maxwellscher Dämon) 39

40 4. Information und Energie 1 bit Information: Molekül momentan in linker Hälfte des Gefäßes rechter Falls links: Energieverlustfreies Einschieben des Kolbens bis zur Mitte möglich, da kein Gasgegendruck vorhanden ist Ladephase: 0 l/2 l Arbeitsphase: Austreibung des Kolbens nach rechts durch Stöße des thermisch bewegten Moleküls gegen den Kolben s l/2 Vollständige Umsetzung von thermischer Energie in Bewegungsenergie mit Hilfe von Information! Widerlegung des 2. Hauptsatzes der Thermodynamik? 40

41 4. Information und Energie Gegen den 2. Hauptsatz gewonnene Bewegungsenergie E MD E MD = l l / 2 F( s) ds Kraft mal Weg 41

42 4. Information und Energie Isotherme Expansion: Boyle-Mariottsches Gesetz (1662, 1676) für das ideale Gas und Maxwell-Boltzmann-Verteilung (1860) E p V = z k B T abs hier z = 1 (Energie je Molekül) Druck p = F(s)/A mit A: Querschnittsfläche des Zylinders Volumen V(s) = A s F(s) s = k B T abs MD l = l / 2 k B T s abs ds = k B T abs ln( s) l l / 2 = k B T abs F( s) = ln l l / 2 k = k B B T s T abs abs ln( 2) E MD = ln(2) k B T abs = ln(2) N 0 = E b,min 42

43 4. Information und Energie Es wird durch 1 bit Information genau die Energie im Widerspruch zum 2. Hauptsatz der Thermodynamik gewonnen, die zur Repräsentation, bzw. Übertragung von 1 bit Information minimal notwendig ist. Maxwellscher Dämon ist widerlegt. Fundamentaler Zusammenhang zwischen Energie und Information bestätigt! Beispiel zur Ästhetik der Wissenschaften 43

44 Eine Formel verändert die Welt 5. Folgerungen aus der Shannonschen Kapazitätsformel A. Leistungs- und Bandbreiteneffizienz bei der digitalen Übertragung B. Digitalisierung analoger Werte C. Austausch von Leistungs- und Bandbreiteneffizienz bei der Übertragung analoger Signale 6. Nicht-transparente Informationsübertragung: Quellencodierung A. Redundanzreduktion B. Irrelevanzreduktion C. Vergleich analoger und digitaler Übertragung beim Audio-Rundfunk 7. Formeln verändern die Welt 8. Persönliche Anmerkungen 44

45 5. Folgerungen aus der Shannonschen Kapazitätsformel A. Zusammenhang zwischen Leistungs- und Bandbreiteneffizienz bei der digitalen Übertragung E Shannon-Grenze: b 1 Γ ( 2 1) d N 0 Γ d 10log 10 (E b /N 0 ) [db] power efficiency 45

46 5. Folgerungen aus der Shannonschen Kapazitätsformel A. Zusammenhang zwischen Leistungs- und Bandbreiteneffizienz bei der digitalen Übertragung E Shannon-Grenze: b 1 Γ ( 2 1) d N 0 Γ d 10log 10 (E b /N 0 ) [db] power efficiency 46

47 5. Folgerungen aus der Shannonschen Kapazitätsformel A. Zusammenhang zwischen Leistungs- und Bandbreiteneffizienz bei der digitalen Übertragung E Shannon-Grenze: b 1 Γ ( 2 1) d N 0 Γ d 10log 10 (E b /N 0 ) [db] power efficiency 47

48 5. Folgerungen aus der Shannonschen Kapazitätsformel B. Optimale Digitalisierung Analogwerte Daten Diskrete Werte X Digitalisierung Rekonstruktion Y X R R bit/wert Y {y 1, y 2,..., y M } Kapazität für eine digitale Übertragung C = 1/2 log 2 (1 + S/N) 2 2 { } Signalleistung S = E X = σ x Störung W = Y X Störleistung N = E{(Y X) 2 } Signal-Stör-Leistungsverhältnis (Signal to Noise Ratio): S SNR = N Offensichtlich gilt: Je Wert X kann (im Mittel) nicht mehr Information von Ende zu Ende (X Y) übertragen werden, als Information in Form von Daten transportiert wird (Data Processing Theorem). R C = R 1/2 log 2 (1 + SNR) 48

49 5. Folgerungen aus der Shannonschen Kapazitätsformel B. Optimale Digitalisierung SNR 2 2R 1 Rate-Distortion Grenze für die Digitalisierung unabhängiger Zufallswerte! Weg zur optimalen Digitalisierung: Vektorquantisierung im R n mit n 49

50 5. Folgerungen aus der Shannonschen Kapazitätsformel C. Optimaler Austausch von Leistungs- und Bandbreiteneffizienz bei der Übertragung analoger Signale analoges Quellensignal x(t) Sender s(t) AWGN-Kanal Sendesignal Empfangssignal e(t) Empfänger Rekonstruiertes Quellensignal y(t) Bandbreite B NF Bandbreite B HF Störung C HF = B HF log 2 (1 + SNR HF ) C NF = B NF log 2 (1 + SNR NF ) SNR NF : Signal-Stör-Leistungsverhältnis für das niederfrequente Quellensignal SNR HF : Signal-Stör-Leistungsverhältnis für das hochfrequente Quellensignal Offensichtlich gilt: C NF C HF mit = für optimales Sender-Empfängerpaar BNF Def.: Bandbreiteneffizienz der analogen Übertragung: Γ = a B HF 50

51 5. Folgerungen aus der Shannonschen Kapazitätsformel C. Optimaler Austausch von Leistungs- und Bandbreiteneffizienz bei der Übertragung analoger Signale Shannon-Grenze der analogen Übertragung C NF = C HF SNR NF = (1 + SNR HF ) 1/Γ a 1 Das gleiche Resultat gilt für die Kombination Optimale Digitalisierung mit optimaler digitaler Übertragung : Theorem der Trennbarkeit von Quellencodierung und digitaler Übertragung 51

52 5. Folgerungen aus der Shannonschen Kapazitätsformel Leistungs-Bandbreiten-Diagramm für die Übertragung analoger Signale 52

53 5. Folgerungen aus der Shannonschen Kapazitätsformel Leistungs-Bandbreiten-Diagramm für die Übertragung analoger Signale 53

54 Eine Formel verändert die Welt 5. Folgerungen aus der Shannonschen Kapazitätsformel A. Leistungs- und Bandbreiteneffizienz bei der digitalen Übertragung B. Digitalisierung analoger Werte C. Austausch von Leistungs- und Bandbreiteneffizienz bei der Übertragung analoger Signale 6. Nicht-transparente Informationsübertragung: Quellencodierung A. Redundanzreduktion B. Irrelevanzreduktion C. Vergleich analoger und digitaler Übertragung beim Audio-Rundfunk 7. Formeln verändern die Welt 8. Persönliche Anmerkungen 54

55 6. Nicht-Transparente Übertragung Die Shannon-Grenze gilt für die transparente Übertragung analoger Signale, also für jedes Quellensignal mit einer Bandbreite B NF Einschränkung auf typische Signale, z.b. Audiosignale Nicht-transparente Verfahren 55

56 6. Nicht-Transparente Übertragung A. Quellencodierung zur Redundanz-Reduktion: Übertragung von typischen Symbolfolgen oder Signalen Repräsentation langer Folgen durch nh anstelle n log 2 (M) Binärsymbole Menge aller M n Folgen 56

57 6. Nicht-Transparente Übertragung A. Quellencodierung zur Redundanz-Reduktion: Übertragung von typischen Symbolfolgen oder Signalen Repräsentation langer Folgen durch nh anstelle n log 2 (M) Binärsymbole Menge aller M n Folgen Teilmenge der von der Quelle typischen 2 nh Folgen 57

58 6. Nicht-Transparente Übertragung B. Quellencodierung zur Irrelevanz-Reduktion: Der Empfänger ist nicht in der Lage, alle möglichen M n unterschiedlicher Folgen zu unterscheiden, sondern nur 2 nh irr Menge aller M n Folgen Redundanz + Irrelevanz-Reduktion: Es reichen im Mittel H (log 2 (M) H irr ) Binärsymbole je Quellensymbol 58

59 6. Nicht-Transparente Übertragung B. Quellencodierung zur Irrelevanz-Reduktion: Der Empfänger ist nicht in der Lage, alle möglichen M n unterschiedlicher Folgen zu unterscheiden, sondern nur 2 nh irr Menge aller M n Folgen Teilmenge der vom Empfänger unterscheidbaren 2 nh irr Folgen Redundanz + Irrelevanz-Reduktion: Es reichen im Mittel H (log 2 (M) H irr ) Binärsymbole je Quellensymbol 59

60 6. Nicht-Transparente Übertragung B. Quellencodierung zur Irrelevanz-Reduktion: Der Empfänger ist nicht in der Lage, alle möglichen M n unterschiedlicher Folgen zu unterscheiden, sondern nur 2 nh irr Menge aller M n Folgen Teilmenge der vom Empfänger unterscheidbaren 2 nh irr Folgen Teilmenge für die typischen vom Empfänger unterscheidbaren Folgen Redundanz + Irrelevanz-Reduktion: Es reichen im Mittel H (log 2 (M) H irr ) Binärsymbole je Quellensymbol 60

61 6. Nicht-Transparente Übertragung 61

62 6. Nicht-Transparente Übertragung 62

63 6. Nicht-Transparente Übertragung 63

64 6. Nicht-Transparente Übertragung 64

65 6. Nicht-Transparente Übertragung C. Vergleich: Für Rundfunk (Audio/Mono) Reduktion des erforderlichen HF-Störabstandes bei gleichem Versorgungsgebiet und gleicher Qualität 10log 10 (SNR NF ) = 60 db a. Vom AM-Radio zum Digitalradio (DRM), Γ a = 0,5, AM DSB transparent digital nicht-transparent 75 db 33 db 7,8 db 42 db 25 db Digitale Übertragung Quellencodierung Sendeleistung 500 kw 32 W 0,1 W 65

66 6. Nicht-Transparente Übertragung Vergleich: Für Rundfunk (Audio/Mono) Reduktion des erforderlichen HF-Störabstandes bei gleichem Versorgungsgebiet und gleicher Qualität 10log 10 (SNR NF ) = 60 db b. Vom FM-Radio zum Digitalradio (DAB), Γ a = 0,07, FM transparent digital nicht-transparent 54,3 db 13,7 db 4,9 db 40,6 db 8,8 db Digitale Übertragung Quellencodierung Sendeleistung 100 kw 8,7W 1,15 W Sender Dillberg Quelle: 66

67 Eine Formel verändert die Welt 5. Folgerungen aus der Shannonschen Kapazitätsformel A. Leistungs- und Bandbreiteneffizienz bei der digitalen Übertragung B. Digitalisierung analoger Werte C. Austausch von Leistungs- und Bandbreiteneffizienz bei der Übertragung analoger Signale 6. Nicht-transparente Informationsübertragung: Quellencodierung A. Redundanzreduktion B. Irrelevanzreduktion C. Vergleich analoger und digitaler Übertragung beim Audio-Rundfunk 7. Formeln verändern die Welt 8. Persönliche Anmerkungen 67

68 7. Formeln verändern die Welt Technische Revolutionen wurden und werden immer durch fundamentale theoretische Leistung erreicht, nicht durch Tüftler und Bastler etc. Thermodynamik (Carnotscher Kreisprozess): Elektrodynamik (Maxwellsche Gleichungen): Quantenmechanik (Festkörperphysik): Informationstheorie: effiziente Wärmekraftmaschinen Elektrotechnik Mikro-/Nano-Elektronik Digitale Informationstechnik Eine gute Theorie ist das praktischste, was es gibt (G. R. Kirchhoff, ) Shannon: I never in my life tried to do anything useful

69 7. Formeln verändern die Welt Nicht Produkte der Finanzwelt, nicht Ideologien, nicht Fußballstars und auch nicht andere Stars, verändern die Welt so sehr wie Formeln und die hieraus folgende Technik aber: Technik ist grundsätzlich ambivalent Naturwissenschaftler und Techniker haben keine Macht darüber, wozu Formeln und die hieraus entstehende Technik benutzt werden. Komplexere Technik erfordert zugleich eine höhere kulturelle Entwicklung der Gesellschaft. Die zentralen Aufgaben der Geisteswissenschaften: Wertedefinitionen, Wertevermittlung statt Werteverlust! 69

70 Eine Formel verändert die Welt 5. Folgerungen aus der Shannonschen Kapazitätsformel A. Leistungs- und Bandbreiteneffizienz bei der digitalen Übertragung B. Digitalisierung analoger Werte C. Austausch von Leistungs- und Bandbreiteneffizienz bei der Übertragung analoger Signale 6. Nicht-transparente Informationsübertragung: Quellencodierung A. Redundanzreduktion B. Irrelevanzreduktion C. Vergleich analoger und digitaler Übertragung beim Audio-Rundfunk 7. Formeln verändern die Welt 8. Persönliche Anmerkungen 70

71 8. Persönliche Anmerkungen Der wissenschaftliche Weg von Prof. Dr. Heinz Gerhäuser ist geprägt vom Übergang vom Industrie- zum Informationszeitalter, vom Basteln analoger AM- und FM-Radios zum digitalen Rundfunk DAB, World-Space, XM-Radio, Sirius, DRM und vieles andere mehr via MP3 auf den Säulen Mikroelektronik und digitale Informationstechnik 71

72 8. Persönliche Anmerkungen Heinz Gerhäuser Wissenschaftlicher Weg über Lehre, Polytechnikum zur Universität, Industrie: Verbindung zwischen Theorie und Praxis Wissenschaftsmanager und erfolgreicher Unternehmer offen, ehrlich, vermittelnd zwischen verschiedenen Interessen, stets dem Wohl von Institut, Lehrstuhl und deren Mitarbeitern verpflichtet handelnd Förderer seiner Mitarbeiter auf allen Ebenen Verbindungen zwischen Technik- und Geisteswissenschaften niemals vom Eigeninteresse geleitet Gesellschaftliches und soziales Engagement Förderung des ländlichen Raumes (z.b. Forschungscampus und Kolpinghaus in Waischenfeld) Engagement für Kunst und Kultur, Einsatz bei sozialen Notfällen 72

73 8. Persönliche Anmerkungen Heinz Gerhäuser bewundernswerte menschliche Qualitäten trotz vollem Terminplan immer für seine Mitmenschen da klar zielorientiert, aber dabei geduldig und ausgleichend sicher und kontrolliert Handeln auf der Basis klarer ethischer Grundsätze in allen Situationen ist das (offene) Geheimnis seines großen Erfolges Deshalb ein Vorbild für mich und viele andere. Herzlichen Dank! 73

Vortrag am Kai Sauer Nanostrukturphysik I

Vortrag am Kai Sauer Nanostrukturphysik I Vortrag am 29.02.2013 Kai Sauer Nanostrukturphysik I 1 Informationsfluss Informationstheorie Hartley-Information Shannon-Information Kanalkapazität und gestörte Kanäle Einfaches Übertragungsmodell Beispiele

Mehr

Eine Formel verändert die Welt

Eine Formel verändert die Welt Eine Formel verändert die Welt Johannes B. Huber Lehrstuhl für Informationsübertragung Friedrich Alexander Universität Erlangen Nürnberg 1 gewidmet Herrn Prof. Dr. Heinz Gerhäuser anlässlich seiner Verabschiedung

Mehr

Eine Formel verändert die Welt

Eine Formel verändert die Welt FRAUNHOFER-INSTITUT FÜR Integrierte Schaltungen IIS Eine Formel verändert die Welt Johannes B. Huber / Beilage zum Jahresbericht 2012 1 2 Eine Formel verändert die Welt Johannes B. Huber / Lehrstuhl für

Mehr

Infrastruktur der Kommunikation: Von der Theorie zur Praxis

Infrastruktur der Kommunikation: Von der Theorie zur Praxis Infrastruktur der Kommunikation: Von der Theorie zur Praxis Johannes Huber Lehrstuhl für Informationsübertragung Friedrich Alexander Universität Erlangen Nürnberg 20. Juli 2012 FRIEDRICH-ALEXANDER UNIVERSITÄT

Mehr

9. Vorlesung. Systemtheorie für Informatiker. Dr. Christoph Grimm. Professur Prof. Dr. K. Waldschmidt, Univ. Frankfurt/Main

9. Vorlesung. Systemtheorie für Informatiker. Dr. Christoph Grimm. Professur Prof. Dr. K. Waldschmidt, Univ. Frankfurt/Main 9. Vorlesung Systemtheorie für Informatiker Dr. Christoph Grimm Professur Prof. Dr. K. Waldschmidt, Univ. Frankfurt/Main Letzte Woche: Abtastung und Rekonstruktion Abtastung: Wandelt bandbegrenzte kontinuierliche

Mehr

Kanalkapazität. Gestörter Kanal. Grundlagen der Rechnernetze Physikalische Schicht 25

Kanalkapazität. Gestörter Kanal. Grundlagen der Rechnernetze Physikalische Schicht 25 Kanalkapazität Gestörter Kanal Grundlagen der Rechnernetze Physikalische Schicht 25 Signalstärken und Dämpfung Spannung U, Strom I, Leistung P und Energie E: Dämpfung Signalstärke Distanz Grundlagen der

Mehr

Aufgabe 1 - Pegelrechnung und LTI-Systeme

Aufgabe 1 - Pegelrechnung und LTI-Systeme KLAUSUR Nachrichtentechnik 06.08.0 Prof. Dr.-Ing. Dr. h.c. G. Fettweis Dauer: 0 min. Aufgabe 3 4 Punkte 5 0 4 50 Aufgabe - Pegelrechnung und LTI-Systeme Hinweis: Die Teilaufgaben (a), (b) und (c) können

Mehr

Kapitel 8: Zeitdiskrete Zufallssignale

Kapitel 8: Zeitdiskrete Zufallssignale ZHAW, DSV2, 2007, Rumc, 8-1 Kapitel 8: Zeitdiskrete Zufallssignale Inhaltsverzeichnis 1. STOCHASTISCHER PROZESS...1 2. STATISTISCHE EIGENSCHAFTEN EINER ZUFALLSVARIABLEN...2 3. STATISTISCHE EIGENSCHAFTEN

Mehr

Musterlösung zur Aufgabe A1.1

Musterlösung zur Aufgabe A1.1 Abschnitt: 1.1 Prinzip der Nachrichtenübertragung Musterlösung zur Aufgabe A1.1 a) Im markierten Bereich (20 Millisekunden) sind ca 10 Schwingungen zu erkennen. Daraus folgt für die Signalfrequenz näherungsweise

Mehr

Signale und Codes Vorlesung 4

Signale und Codes Vorlesung 4 Signale und Codes Vorlesung 4 Nico Döttling December 6, 2013 1 / 18 2 / 18 Letztes Mal Allgemeine Hamming Codes als Beispiel linearer Codes Hamming Schranke: Obere Schranke für k bei gegebenem d bzw. für

Mehr

13 Mehrdimensionale Zufallsvariablen Zufallsvektoren

13 Mehrdimensionale Zufallsvariablen Zufallsvektoren 3 Mehrdimensionale Zufallsvariablen Zufallsvektoren Bisher haben wir uns ausschließlich mit Zufallsexperimenten beschäftigt, bei denen die Beobachtung eines einzigen Merkmals im Vordergrund stand. In diesem

Mehr

{w, e, o, 1, 2, 3, 4, 5, 6, 7, 8, 9, 10, 11, 12, 13}.

{w, e, o, 1, 2, 3, 4, 5, 6, 7, 8, 9, 10, 11, 12, 13}. LEHRSTUHL FÜR INFORMATIONSÜBERTRAGUNG Laboratorium für Nachrichtentechnik μ Prof. Dr. Ing. J. Huber Friedrich Alexander Universität Erlangen Nürnberg D Schriftliche Prüfung im Fach Signalübertragung und

Mehr

Klausur zur Vorlesung Informationstheorie

Klausur zur Vorlesung Informationstheorie INSTITUT FÜR INFORMATIONSVERARBEITUNG UNIVERSITÄT HANNOVER Appelstraße 9A 0167 Hannover Klausur zur Vorlesung Informationstheorie Datum:.02.2006 Uhrzeit: 9:00 Uhr Zeitdauer: 2 Stunden Hilfsmittel: ausgeteilte

Mehr

Einführung in die Nachrichtenübertragung

Einführung in die Nachrichtenübertragung Klausur Einführung in die Nachrichtenübertragung Vorlesung und Rechenübung - Prof. Dr.-Ing. Thomas Sikora - Name:............................ Vorname:................................... Matr.Nr:..........................

Mehr

Übungsaufgaben zur Vorlesung Quellencodierung

Übungsaufgaben zur Vorlesung Quellencodierung Übungsaufgaben zur Vorlesung Quellencodierung Aufgabe 1: Gegeben seien die Verbundwahrscheinlichkeiten zweier diskreter Zufallsvariablen x und y: P(x, y) x 1 = 1 x 2 = 2 x 3 = 3 y 1 = 1 0.1 0.1 0.1 y 2

Mehr

Tutorübung zur Vorlesung Grundlagen Rechnernetze und Verteilte Systeme Übungsblatt 3 (6. Mai 10. Mai 2013)

Tutorübung zur Vorlesung Grundlagen Rechnernetze und Verteilte Systeme Übungsblatt 3 (6. Mai 10. Mai 2013) Technische Universität München Lehrstuhl Informatik VIII Prof. Dr.-Ing. Georg Carle Dipl.-Ing. Stephan Günther, M.Sc. Nadine Herold, M.Sc. Dipl.-Inf. Stephan Posselt Tutorübung zur Vorlesung Grundlagen

Mehr

Grundlagen der Informationstheorie. Hanna Rademaker und Fynn Feldpausch

Grundlagen der Informationstheorie. Hanna Rademaker und Fynn Feldpausch Grundlagen der Informationstheorie Hanna Rademaker und Fynn Feldpausch . Thema Informationstheorie geht zurück auf Claude Shannon The Mathematical Theory of Communication beschäftigt sich mit Information

Mehr

Thermodynamik (Wärmelehre) III kinetische Gastheorie

Thermodynamik (Wärmelehre) III kinetische Gastheorie Physik A VL6 (07.1.01) Thermodynamik (Wärmelehre) III kinetische Gastheorie Thermische Bewegung Die kinetische Gastheorie Mikroskopische Betrachtung des Druckes Mawell sche Geschwindigkeitserteilung gdes

Mehr

Kanalkapazität. Grundlagen der Rechnernetze Physikalische Schicht 25

Kanalkapazität. Grundlagen der Rechnernetze Physikalische Schicht 25 Kanalkapazität Gestörter t Kanal Grundlagen der Rechnernetze Physikalische Schicht 25 Signalstärken und Dämpfung Spannung U, Strom I, Leistung P und Energie E: Dämpfung Signalstärk ke Distanz Grundlagen

Mehr

Physik I TU Dortmund WS2017/18 Gudrun Hiller Shaukat Khan Kapitel 6

Physik I TU Dortmund WS2017/18 Gudrun Hiller Shaukat Khan Kapitel 6 Physik I U Dortmund WS7/8 Gudrun Hiller Shaukat Khan Kapitel Carnotscher Kreisprozess Modell eines Kreisprozesses (Gedankenexperiment). Nicht nur von historischem Interesse (Carnot 84), sondern auch Prozess

Mehr

1 Thermodynamik allgemein

1 Thermodynamik allgemein Einführung in die Energietechnik Tutorium II: Thermodynamik Thermodynamik allgemein. offenes System: kann Materie und Energie mit der Umgebung austauschen. geschlossenes System: kann nur Energie mit der

Mehr

22. Entropie; Zweiter Hauptsatz der Wärmelehre

22. Entropie; Zweiter Hauptsatz der Wärmelehre 22. Entropie; Zweiter Hauptsatz der Wärmelehre Nicht alle Prozesse, die dem Energiesatz genügen, finden auch wirklich statt Beispiel: Um alle Energieprobleme zu lösen, brauchte man keine Energie aus dem

Mehr

Signalübertragung und -verarbeitung

Signalübertragung und -verarbeitung ILehrstuhl für Informationsübertragung Schriftliche Prüfung im Fach Signalübertragung und -verarbeitung 6. Oktober 008 5Aufgaben 90 Punkte Hinweise: Beachten Sie die Hinweise zu den einzelnen Teilaufgaben.

Mehr

2.4 Kinetische Gastheorie - Druck und Temperatur im Teilchenmodell

2.4 Kinetische Gastheorie - Druck und Temperatur im Teilchenmodell 2.4 Kinetische Gastheorie - Druck und Temperatur im Teilchenmodell Mit den drei Zustandsgrößen Druck, Temperatur und Volumen konnte der Zustand von Gasen makroskopisch beschrieben werden. So kann zum Beispiel

Mehr

Sinneswahrnehmungen des Menschen

Sinneswahrnehmungen des Menschen Sinneswahrnehmungen des Menschen Tastsinn Gleichgewicht Geruch Sehen Gehör Sprache Aktion Multimedia - Kanäle des Menschen Techniken für Medien im Wandel Multimediale Kommunikation Text : Bücher, Zeitschriften

Mehr

II. Wärmelehre. II.2. Die Hauptsätze der Wärmelehre. Physik für Mediziner 1

II. Wärmelehre. II.2. Die Hauptsätze der Wärmelehre. Physik für Mediziner 1 II. Wärmelehre II.2. Die auptsätze der Wärmelehre Physik für Mediziner 1 1. auptsatz der Wärmelehre Formulierung des Energieerhaltungssatzes unter Einschluss der Wärmenergie: die Zunahme der Inneren Energie

Mehr

1 Stochastische Konvergenz 2. 2 Das Gesetz der grossen Zahlen 4. 3 Der Satz von Bernoulli 6

1 Stochastische Konvergenz 2. 2 Das Gesetz der grossen Zahlen 4. 3 Der Satz von Bernoulli 6 Wirtschaftswissenschaftliches Zentrum 0 Universität Basel Mathematik Dr. Thomas Zehrt Grenzwertsätze Benötigtes Vorwissen: Der Stoff der Vorlesung,,Statistik wird als bekannt vorausgesetzt, insbesondere

Mehr

Übertragungstechnik. Übertragungstechnik. Copyright Chr. Schaffer, Fachhochschule Hagenberg, MTD 1

Übertragungstechnik. Übertragungstechnik. Copyright Chr. Schaffer, Fachhochschule Hagenberg, MTD 1 Übertragungstechnik Copyright Chr. Schaffer, Fachhochschule Hagenberg, MTD 1 Allgemeines Schema einer Nachrichtenübertragung Modulator Sender Störungen Strecke Nachrichtenquelle Nachrichtensenke Demodulator

Mehr

Grundlagen der Wahrscheinlichkeitstheorie

Grundlagen der Wahrscheinlichkeitstheorie Priv.-Doz. Dr. H. Steinacker Wintersemester 2013/2014 Grundlagen der Wahrscheinlichkeitstheorie betrachte Wiederholungen eines Experimentes, gleicher Vorbereitung (z.b. Würfeln, Dart werfen, Doppelspaltexperiment,...)

Mehr

KAPITEL 5. Erwartungswert

KAPITEL 5. Erwartungswert KAPITEL 5 Erwartungswert Wir betrachten einen diskreten Wahrscheinlichkeitsraum (Ω, P) und eine Zufallsvariable X : Ω R auf diesem Wahrscheinlichkeitsraum. Die Grundmenge Ω hat also nur endlich oder abzählbar

Mehr

Doz. Dr. H.P. Scheffler Sommer 2000 Klausur zur Vorlesung Stochastik I

Doz. Dr. H.P. Scheffler Sommer 2000 Klausur zur Vorlesung Stochastik I Doz. Dr. H.P. Scheffler Sommer 2000 Klausur zur Vorlesung Stochastik I Wählen Sie aus den folgenden sechs Aufgaben fünf Aufgaben aus. Die maximal erreichbare Punktezahl finden Sie neben jeder Aufgabe.

Mehr

Reelle Zufallsvariablen

Reelle Zufallsvariablen Kapitel 3 eelle Zufallsvariablen 3. Verteilungsfunktionen esultat aus der Maßtheorie: Zwischen der Menge aller W-Maße auf B, nennen wir sie W B ), und der Menge aller Verteilungsfunktionen auf, nennen

Mehr

0 für t < für 1 t < für 2 t < für 3 t < für 4 t < 5 1 für t 5

0 für t < für 1 t < für 2 t < für 3 t < für 4 t < 5 1 für t 5 4 Verteilungen und ihre Kennzahlen 1 Kapitel 4: Verteilungen und ihre Kennzahlen A: Beispiele Beispiel 1: Eine diskrete Zufallsvariable X, die nur die Werte 1,, 3, 4, 5 mit positiver Wahrscheinlichkeit

Mehr

3. Fourieranalyse und Amplitudenspektren

3. Fourieranalyse und Amplitudenspektren 3.1 Fourieranalyse 3.1.1 Einleitung Laut dem französischen Mathematiker Fourier (1768-1830) kann jedes periodische Signal in eine Summe von sinusförmigen Signalen mit unterschiedlichen Amplituden, Frequenzen

Mehr

Vorlesung 3a. Der Erwartungswert. von diskreten reellwertigen Zufallsvariablen

Vorlesung 3a. Der Erwartungswert. von diskreten reellwertigen Zufallsvariablen Vorlesung 3a Der Erwartungswert von diskreten reellwertigen Zufallsvariablen X sei eine Zufallsvariable, deren Zielbereich R (die Menge der reellen Zahlen) (oder eine Teilmenge davon) ist. Es existiere

Mehr

Allgemeines Gasgesetz. PV = K o T

Allgemeines Gasgesetz. PV = K o T Allgemeines Gasgesetz Die Kombination der beiden Gesetze von Gay-Lussac mit dem Gesetz von Boyle-Mariotte gibt den Zusammenhang der drei Zustandsgrößen Druck, Volumen, und Temperatur eines idealen Gases,

Mehr

dbw und dbm dbw und dbm zur logarithmischen Darstellung einer Leistungsgröße P [W]:

dbw und dbm dbw und dbm zur logarithmischen Darstellung einer Leistungsgröße P [W]: dbw und dbm dbw und dbm zur logarithmischen Darstellung einer Leistungsgröße P [W]: Beispiel: Leistungsgröße P out [dbw] bei Leistungsgröße P in [dbw] und Dämpfung L [db] Leistungsgröße P out [W] Grundlagen

Mehr

Spektrum und Bandbreite

Spektrum und Bandbreite Spektrum und Bandbreite 0.0 0 1f 2f 3f 4f 5f 6f Spektrum: Bandbreite: Grundlagen der Rechnernetze Physikalische Schicht 12 Aperiodische Signale in der Frequenzdomäne Bildquelle: de.wikipedia.org/wiki/frequenzspektrum

Mehr

Übungsblatt 2 ( )

Übungsblatt 2 ( ) Experimentalphysik für Naturwissenschaftler Universität Erlangen Nürnberg SS 01 Übungsblatt (11.05.01) 1) Geschwindigkeitsverteilung eines idealen Gases (a) Durch welche Verteilung lässt sich die Geschwindigkeitsverteilung

Mehr

Anliegen: Beschreibung von Versuchsergebnissen mit Zahlen, um mit Zahlen bzw. bekannten Funktionen rechnen zu können.

Anliegen: Beschreibung von Versuchsergebnissen mit Zahlen, um mit Zahlen bzw. bekannten Funktionen rechnen zu können. 2 Zufallsvariable 2.1 Einführung Anliegen: Beschreibung von Versuchsergebnissen mit Zahlen, um mit Zahlen bzw. bekannten Funktionen rechnen zu können. Eine Zufallsvariable X ordnet jedem elementaren Versuchsausgang

Mehr

Signalübertragung und -verarbeitung

Signalübertragung und -verarbeitung LEHRSTUHL FÜR INFORMATIONSÜBERTRAGUNG Laboratorium für Nachrichtentechnik Prof. Dr. Ing. J. Huber Friedrich Alexander Universität Erlangen Nürnberg D Schriftliche Prüfung im Fach Signalübertragung und

Mehr

Thermodynamik Hauptsatz

Thermodynamik Hauptsatz Thermodynamik. Hauptsatz Inhalt Wärmekraftmaschinen / Kälteprozesse. Hauptsatz der Thermodynamik Reversibilität Carnot Prozess Thermodynamische Temperatur Entropie Entropiebilanzen Anergie und Exergie

Mehr

Die innere Energie and die Entropie

Die innere Energie and die Entropie Die innere Energie and die Entropie Aber fangen wir mit der Entropie an... Stellen Sie sich ein System vor, das durch die Entropie S, das Volumen V und die Stoffmenge n beschrieben wird. U ' U(S,V,n) Wir

Mehr

Prof. Dr. Stefan Weinzierl SNR V = P signal P noise

Prof. Dr. Stefan Weinzierl SNR V = P signal P noise Audiotechnik II Digitale Audiotechnik: 5. Tutorium Prof. Dr. Stefan Weinzierl 0.11.01 Musterlösung: 1. November 01, 15:50 1 Dither a) Leiten sie den SNR eines idealen, linearen -bit Wandlers her. Nehmen

Mehr

Grundlagen der Statistischen Nachrichtentheorie

Grundlagen der Statistischen Nachrichtentheorie Grundlagen der Statistischen Nachrichtentheorie - Prof. Dr.-Ing. Thomas Sikora - Name:............................ Vorname:......................... Matr.Nr:........................... Ich bin mit der

Mehr

4.1.1 Kelvin-Planck-Formulierung des 2. Hauptsatzes der Thermodynamik. Thermischer Wirkungsgrad einer Arbeitsmaschine:

4.1.1 Kelvin-Planck-Formulierung des 2. Hauptsatzes der Thermodynamik. Thermischer Wirkungsgrad einer Arbeitsmaschine: 4. Zweiter Hauptsatz der Thermodynamik 4.1. Klassische Formulierungen 4.1.1 Kelvin-Planck-Formulierung des 2. Hauptsatzes der Thermodynamik Thermischer Wirkungsgrad einer Arbeitsmaschine: Beispiel Ottomotor

Mehr

Grundlagen der Statistischen Nachrichtentheorie

Grundlagen der Statistischen Nachrichtentheorie - Prof. Dr.-Ing. Thomas Sikora - Name:............................ Vorname:......................... Matr.Nr:........................... Ich bin mit der Veröffentlichung des Klausurergebnisses unter meiner

Mehr

Übung zu Drahtlose Kommunikation. 1. Übung

Übung zu Drahtlose Kommunikation. 1. Übung Übung zu Drahtlose Kommunikation 1. Übung 22.10.2012 Termine Übungen wöchentlich, Montags 15 Uhr (s.t.), Raum B 016 Jede Woche 1 Übungsblatt http://userpages.uni-koblenz.de/~vnuml/drako/uebung/ Bearbeitung

Mehr

1.3 Digitale Audiosignale

1.3 Digitale Audiosignale Seite 22 von 86 Abb. 1.2.12 - Wirkung der Schallverzögerung Effekte sind: Delay, Echo, Reverb, Flanger und Chorus Hört man ein akustisches Signal im Raum, dann werden die Signale von Wänden und anderen

Mehr

Physikdepartment. Ferienkurs zur Experimentalphysik 4. Daniel Jost 10/09/15

Physikdepartment. Ferienkurs zur Experimentalphysik 4. Daniel Jost 10/09/15 Physikdepartment Ferienkurs zur Experimentalphysik 4 Daniel Jost 10/09/15 Inhaltsverzeichnis Technische Universität München 1 Kurze Einführung in die Thermodynamik 1 1.1 Hauptsätze der Thermodynamik.......................

Mehr

Einführung in die MIMO-Technik: Räumliches Multiplexing. Luciano Sarperi,

Einführung in die MIMO-Technik: Räumliches Multiplexing. Luciano Sarperi, Einführung in die MIMO-Technik: Räumliches Multiplexing Luciano Sarperi, 22.03.2017 Inhalt Überblick Multi-Antennen Systeme Was ist räumliches Multiplexing? Wann wird räumliches Multiplexing angewandt?

Mehr

Discrete Probability - Übungen (SS5) Wahrscheinlichkeitstheorie. 1. KR, Abschnitt 6.1, Aufgabe 5: 2. KR, Abschnitt 6.1, Aufgabe 7:

Discrete Probability - Übungen (SS5) Wahrscheinlichkeitstheorie. 1. KR, Abschnitt 6.1, Aufgabe 5: 2. KR, Abschnitt 6.1, Aufgabe 7: Discrete Probability - Übungen (SS5) Felix Rohrer Wahrscheinlichkeitstheorie 1. KR, Abschnitt 6.1, Aufgabe 5: Bestimmen Sie die Wahrscheinlichkeit dafür, dass die Augensumme von zwei geworfenen Würfeln

Mehr

70 Wichtige kontinuierliche Verteilungen

70 Wichtige kontinuierliche Verteilungen 70 Wichtige kontinuierliche Verteilungen 70. Motivation Zufallsvariablen sind nicht immer diskret, sie können oft auch jede beliebige reelle Zahl in einem Intervall [c, d] einnehmen. Beispiele für solche

Mehr

Modelle der Kommunikation. 1. Technisches Kommunikationsmodell Shannon&Weaver 2. Eisbergmodell Sigmund Freud 3. 4 Seiten Modell Schulz von Thun

Modelle der Kommunikation. 1. Technisches Kommunikationsmodell Shannon&Weaver 2. Eisbergmodell Sigmund Freud 3. 4 Seiten Modell Schulz von Thun Modelle der Kommunikation 1. Technisches Kommunikationsmodell Shannon&Weaver 2. Eisbergmodell Sigmund Freud 3. 4 Seiten Modell Schulz von Thun 1 Ein einfaches Modell der Kommunikation: Shannon & Weaver

Mehr

Der Zustand eines Systems ist durch Zustandsgrößen charakterisiert.

Der Zustand eines Systems ist durch Zustandsgrößen charakterisiert. Grundbegriffe der Thermodynamik Die Thermodynamik beschäftigt sich mit der Interpretation gegenseitiger Abhängigkeit von stofflichen und energetischen Phänomenen in der Natur. Die Thermodynamik kann voraussagen,

Mehr

Informationstheorie und Codierung

Informationstheorie und Codierung Informationstheorie und Codierung 3. Codierung diskreter Quellen Gleichmäßiger Code Ungleichmäßiger Code Fano-, Huffman-Codierung Optimalcodierung von Markoff-Quellen Lauflängencodes nach Golomb und Rice

Mehr

Winter-Semester 2017/18. Moderne Theoretische Physik IIIa. Statistische Physik

Winter-Semester 2017/18. Moderne Theoretische Physik IIIa. Statistische Physik Winter-Semester 2017/18 Moderne Theoretische Physik IIIa Statistische Physik Dozent: Alexander Shnirman Institut für Theorie der Kondensierten Materie Do 11:30-13:00, Lehmann Raum 022, Geb 30.22 http://www.tkm.kit.edu/lehre/

Mehr

73 Hypothesentests Motivation Parametertest am Beispiel eines Münzexperiments

73 Hypothesentests Motivation Parametertest am Beispiel eines Münzexperiments 73 Hypothesentests 73.1 Motivation Bei Hypothesentests will man eine gewisse Annahme über eine Zufallsvariable darauf hin überprüfen, ob sie korrekt ist. Beispiele: ( Ist eine Münze fair p = 1 )? 2 Sind

Mehr

Molekulare Bioinformatik

Molekulare Bioinformatik Molekulare Bioinformatik Wintersemester 2013/2014 Prof. Thomas Martinetz Institut für Neuro- und Bioinformatik Universität zu Luebeck 14.01.2014 1 Molekulare Bioinformatik - Vorlesung 11 Wiederholung Wir

Mehr

Campus Radio Test für digitales Lokalradio auf Mittel-/Kurzwelle in einer Großstadt

Campus Radio Test für digitales Lokalradio auf Mittel-/Kurzwelle in einer Großstadt Campus Radio Test für digitales Lokalradio auf Mittel-/Kurzwelle in einer Großstadt Thomas Lauterbach Übersicht Motivation für das Projekt Campus-Radio DRM: Digital Radio Mondiale Inhalte des Projekts

Mehr

Entscheidung zwischen zwei Möglichkeiten auf der Basis unsicherer (zufälliger) Daten

Entscheidung zwischen zwei Möglichkeiten auf der Basis unsicherer (zufälliger) Daten Prof. Dr. J. Franke Statistik II für Wirtschaftswissenschaftler 4.1 4. Statistische Entscheidungsverfahren Entscheidung zwischen zwei Möglichkeiten auf der Basis unsicherer (zufälliger) Daten Beispiel:

Mehr

Kompressible Strömungen

Kompressible Strömungen Kompressible Strömungen Problemstellungen: - Wie lassen sich Überschallströmungen realisieren? - Welche Windkanalgeometrie ist notwendig? - Thermodynamische Beziehungen in Überschallströmungen? - Unterschall

Mehr

Lösungen 4.1 Analoge Übertragung mit PCM

Lösungen 4.1 Analoge Übertragung mit PCM J. Lindner: Informationsübertragung Lösungen Kapitel 4 Lösungen 4. Analoge Übertragung mit PCM 4. a) Blockbild einer Übertragung mit PCM: q(t) A D 8 bit linear f Amin = 8kHz q(i) digitales ˆq(i) Übertragungs-

Mehr

Begriffe aus der Informatik Nachrichten

Begriffe aus der Informatik Nachrichten Begriffe aus der Informatik Nachrichten Gerhard Goos definiert in Vorlesungen über Informatik, Band 1, 1995 Springer-Verlag Berlin Heidelberg: Die Darstellung einer Mitteilung durch die zeitliche Veränderung

Mehr

Kapitel 9: Informationstheorie. 2. Entropie

Kapitel 9: Informationstheorie. 2. Entropie ZHAW, NT, FS2008, Rumc, Kapitel 9: 2-1 Kapitel 9: Informationstheorie 2. Entropie Inhaltsverzeichnis 2.1. INFORATIONSQUELLEN...2 2.2. INFORATIONSGEHALT...3 2.3. INIALE ANZAHL BINÄRE FRAGEN...5 2.4. ENTROPIE

Mehr

Elementare Einführung in die Wahrscheinlichkeitsrechnung, Informationstheorie und stochastische Prozesse mit Warteschlangentheorie

Elementare Einführung in die Wahrscheinlichkeitsrechnung, Informationstheorie und stochastische Prozesse mit Warteschlangentheorie Berichte aus der Informationstechnik Klaus-Dieter Thies Elementare Einführung in die Wahrscheinlichkeitsrechnung, Informationstheorie und stochastische Prozesse mit Warteschlangentheorie für Computernetzwerke

Mehr

Programm. Wiederholung. Gleichverteilung Diskrete Gleichverteilung Stetige Gleichverteilung. Binomialverteilung. Hypergeometrische Verteilung

Programm. Wiederholung. Gleichverteilung Diskrete Gleichverteilung Stetige Gleichverteilung. Binomialverteilung. Hypergeometrische Verteilung Programm Wiederholung Gleichverteilung Diskrete Gleichverteilung Stetige Gleichverteilung Binomialverteilung Hypergeometrische Verteilung Wiederholung verschiedene Mittelwerte für verschiedene Skalenniveaus

Mehr

Binomialverteilung. Statistik für SoziologInnen 1 Diskrete Verteilungsmodelle. Marcus Hudec

Binomialverteilung. Statistik für SoziologInnen 1 Diskrete Verteilungsmodelle. Marcus Hudec Binomialverteilung Jakob Bernoulli (1654-1705) Ars Conjectandi Klassisches Verteilungsmodell für die Berechnung der Wahrscheinlichkeit für die Häufigkeit des Eintretens von Ereignissen in bestimmten noch

Mehr

Digital Signal Processing

Digital Signal Processing - for Master Study by TFH Bochum - Analog Signal I OO O I I I O O O Digital Signal Seite 1 Zielsetzung der Signalverarbeitung Analyse: H(t), H(f) Modellieren y(t) {} Physikalische Größe und Prozesse Synthese

Mehr

Wozu braucht man Vektorrechnung bei der Datenübertragung?

Wozu braucht man Vektorrechnung bei der Datenübertragung? Wozu braucht man Vektorrechnung bei der Datenübertragung? Henrik Schulze Fachhochschule Südwestfalen Meschede Nürnberg, 2011-06-07 Überblick Eigenschaften von Vektoren Signale als Vektoren Projektion,

Mehr

Auf und Ab im Mobilfunk

Auf und Ab im Mobilfunk Auf und Ab im Mobilfunk Was die Übertragung von der Basisstation zu den Teilnehmern (Downlink) von der Gegenrichtung (Uplink) lernen kann Robert F.H. Fischer LEHRSTUHL FÜR INFORMATIONSÜBERTRAGUNG Laboratorium

Mehr

ST Der Stirling-Motor als Wärmekraftmaschine

ST Der Stirling-Motor als Wärmekraftmaschine ST Der Stirling-Motor als Wärmekraftmaschine Blockpraktikum Herbst 2007 Gruppe 2b 24. Oktober 2007 Inhaltsverzeichnis 1 Grundlagen 2 1.1 Stirling-Kreisprozess............................. 2 1.2 Technische

Mehr

1.5 Erwartungswert und Varianz

1.5 Erwartungswert und Varianz Ziel: Charakterisiere Verteilungen von Zufallsvariablen (Bildbereich also reelle Zahlen, metrische Skala) durch Kenngrößen (in Analogie zu Lage- und Streuungsmaßen der deskriptiven Statistik). Insbesondere:

Mehr

Hochschule Düsseldorf University of Applied Sciences. 13. April 2016 HSD. Energiespeicher. Thermodynamik

Hochschule Düsseldorf University of Applied Sciences. 13. April 2016 HSD. Energiespeicher. Thermodynamik 13. April 2016 Energiespeicher Thermodynamik Prof. Dr. Alexander Braun // Energiespeicher // SS 2016 26. April 2017 Thermodynamik Grundbegriffe Prof. Dr. Alexander Braun // Energiespeicher // SS 2017 26.

Mehr

Erwartungswert und Varianz von Zufallsvariablen

Erwartungswert und Varianz von Zufallsvariablen Kapitel 7 Erwartungswert und Varianz von Zufallsvariablen Im Folgenden sei (Ω, A, P ) ein Wahrscheinlichkeitsraum. Der Erwartungswert von X ist ein Lebesgue-Integral (allerdings allgemeiner als in Analysis

Mehr

Grundlegende Eigenschaften von Punktschätzern

Grundlegende Eigenschaften von Punktschätzern Grundlegende Eigenschaften von Punktschätzern Worum geht es in diesem Modul? Schätzer als Zufallsvariablen Vorbereitung einer Simulation Verteilung von P-Dach Empirische Lage- und Streuungsparameter zur

Mehr

Thermodynamik un Statistische Mechanik

Thermodynamik un Statistische Mechanik Theoretische Physik Band 9 Walter Greiner Ludwig Neise Horst Stöcker Thermodynamik un Statistische Mechanik Ein Lehr- und Übungsbuch Mit zahlreichen Abbildungen, Beispiele n und Aufgaben mit ausführlichen

Mehr

Klausur Informationstheorie und Codierung

Klausur Informationstheorie und Codierung Klausur Informationstheorie und Codierung WS 2013/2014 23.01.2014 Name: Vorname: Matr.Nr: Ich fühle mich gesundheitlich in der Lage, die Klausur zu schreiben Unterschrift: Aufgabe A1 A2 A3 Summe Max. Punkte

Mehr

Bild-Erfassung Digitalisierung Abtastung/Quantisierung

Bild-Erfassung Digitalisierung Abtastung/Quantisierung Multimediatechnik / Video Bild-Erfassung Digitalisierung Abtastung/Quantisierung Oliver Lietz Bild-Erfassung Abtastung / Digitalisierung Scanner: Zeilenweise Abtastung mit CCD Digitale Kamera: Flächenweise

Mehr

Methoden zur Verbesserung des S/R-Verhältnisses

Methoden zur Verbesserung des S/R-Verhältnisses Methoden zur Verbesserung des S/R-Verhältnisses Vortrag zum Proseminar des Fortgeschrittenenpraktikums Daniel Kuhwald 20. November 2008 1 / 20 Gliederung: Definition des S/R-Verhältnisses Verbesserung

Mehr

Allgemeine diskrete Wahrscheinlichkeitsräume II. Beispiel II. Beispiel I. Definition 6.3 (Diskreter Wahrscheinlichkeitsraum)

Allgemeine diskrete Wahrscheinlichkeitsräume II. Beispiel II. Beispiel I. Definition 6.3 (Diskreter Wahrscheinlichkeitsraum) Allgemeine diskrete Wahrscheinlichkeitsräume I Allgemeine diskrete Wahrscheinlichkeitsräume II Verallgemeinerung von Laplaceschen Wahrscheinlichkeitsräumen: Diskrete Wahrscheinlichkeitsräume Ω endlich

Mehr

2 Informationstheorie

2 Informationstheorie 2 Informationstheorie Formale Grundlagen der Informatik I Herbstsemester 2012 Robert Marti Vorlesung teilweise basierend auf Unterlagen von Prof. emer. Helmut Schauer Grundbegriffe Informatik (IT: Information

Mehr

Systeme II 2. Woche Bitübertragungsschicht

Systeme II 2. Woche Bitübertragungsschicht Systeme II 2. Woche Bitübertragungsschicht Christian Schindelhauer Technische Fakultät Rechnernetze und Telematik Albert-Ludwigs-Universität Freiburg Bitübertragungsschicht Physical Layer ISO-Definition

Mehr

Kapitel 4 Leitungscodierung

Kapitel 4 Leitungscodierung Kapitel 4 Leitungscodierung Prof. Dr. Dirk W. Hoffmann Hochschule Karlsruhe w University of Applied Sciences w Fakultät für Informatik Übersicht Quelle Senke Kompression Huffman-, Arithmetische-, Lempel-Ziv

Mehr

4.3 OFDM (Variante mit Cyclic Prefix) Dr. Mike Wolf, Fachgebiet Nachrichtentechnik Drahtlose Nachrichtenübertragung 65

4.3 OFDM (Variante mit Cyclic Prefix) Dr. Mike Wolf, Fachgebiet Nachrichtentechnik Drahtlose Nachrichtenübertragung 65 (Variante mit Cyclic Prefix) Dr. Mike Wolf, Fachgebiet Nachrichtentechnik Drahtlose Nachrichtenübertragung 65 (Variante mit Cyclic Prefix) zeitkontinuierliches Sendesignal ohne CP Bitrate: R b (Bitrate

Mehr

Kapitel 2. Wahrscheinlichkeit (wird heute behandelt) Kapitel 2. Wahrscheinlichkeit

Kapitel 2. Wahrscheinlichkeit (wird heute behandelt) Kapitel 2. Wahrscheinlichkeit Teil I: Wahrscheinlichkeitstheorie 1 Kapitel 2. Wahrscheinlichkeit (wird heute behandelt) Kapitel 3: Bedingte Wahrscheinlichkeit Kapitel 4: Zufallsvariablen Kapitel 5: Erwartungswerte, Varianz, Kovarianz

Mehr

Mathe III. Garance PARIS. Mathematische Grundlagen III. Informationstheorie. 20. Juni /1

Mathe III. Garance PARIS. Mathematische Grundlagen III. Informationstheorie. 20. Juni /1 Mathematische Grundlagen III Informationstheorie 20 Juni 20 / Informationstheorie Ein Gerüst, um über den Informationsgehalt von (linguistischen) Ereignissen nachzudenken Einige Beispiele für Anwendungen:

Mehr

Nachtrag zu 11: 11.6.Statistische Physik: Entropie, Boltzmann-Verteilung

Nachtrag zu 11: 11.6.Statistische Physik: Entropie, Boltzmann-Verteilung Nachtrag zu 11: 11.6.Statistische Physik: Entropie, Boltzmann-Verteilung Ludwig Boltzmann 1860: Maxwellsche Geschwindigkeitsverteilung 1865: Clausius, thermodynamische Entropie, 2. Hauptsatz: Entropie

Mehr

1.5 Erwartungswert und Varianz

1.5 Erwartungswert und Varianz Ziel: Charakterisiere Verteilungen von Zufallsvariablen durch Kenngrößen (in Analogie zu Lage- und Streuungsmaßen der deskriptiven Statistik). Insbesondere: a) durchschnittlicher Wert Erwartungswert, z.b.

Mehr

Seite 2 Information = Unsicherheit e Info (e) := - log p(e) Info ( A und B) = Info (A) + Info (B) Definition: = Info (nie eintretendes Ereignis) eines

Seite 2 Information = Unsicherheit e Info (e) := - log p(e) Info ( A und B) = Info (A) + Info (B) Definition: = Info (nie eintretendes Ereignis) eines Seite 1 Georg-August-Universität Göttingen Robert Schaback Zum Begriff der Information in Mathematik und Informatik Seite 2 Information = Unsicherheit e Info (e) := - log p(e) Info ( A und B) = Info (A)

Mehr

4 Thermodynamik mikroskopisch: kinetische Gastheorie makroskopisch: System:

4 Thermodynamik mikroskopisch: kinetische Gastheorie makroskopisch: System: Theorie der Wärme kann auf zwei verschiedene Arten behandelt werden. mikroskopisch: Bewegung von Gasatomen oder -molekülen. Vielzahl von Teilchen ( 10 23 ) im Allgemeinen nicht vollständig beschreibbar

Mehr

Thermodynamik und Statistische Mechanik

Thermodynamik und Statistische Mechanik Theoretische Physik Band 9 Walter Greiner Ludwig Neise Horst Stöcker Thermodynamik und Statistische Mechanik Ein Lehr- und Übungsbuch Mit zahlreichen Abbildungen, Beispielen und Aufgaben mit ausführlichen

Mehr

Kapitel 6. Irrfahrten und Bernoullischemata

Kapitel 6. Irrfahrten und Bernoullischemata Kapitel 6 Irrfahrten und Bernoullischemata Ausgangspunkt dieses Kapitels ist das in den Abschnitten 2.5 und 3.3 vorgestellte mathematische Modell des mehrmals Werfens einer Münze. Die dort definierten

Mehr

Einführung in die medizinische Bildverarbeitung WS 12/13

Einführung in die medizinische Bildverarbeitung WS 12/13 Einführung in die medizinische Bildverarbeitung WS 12/13 Stephan Gimbel Kurze Wiederholung Landmarkenbasierte anhand anatomischer Punkte interaktiv algorithmisch z.b. zur Navigation im OP Markierung von

Mehr

7.5 Erwartungswert, Varianz

7.5 Erwartungswert, Varianz 7.5 Erwartungswert, Varianz Def. 7.5.: a) X sei eine diskrete ZV, die bei unendl. vielen Werten x k folgende Zusatzbedingung erfüllt: x k p k

Mehr

Lochmann Information und der Entropie-Irrtum

Lochmann Information und der Entropie-Irrtum Lochmann Information und der Entropie-Irrtum Berichte aus der Philosophie Dietmar Lochmann Information und der Entropie-Irrtum Shaker Verlag Aachen 2012 Die Deutsche Nationalbibliothek verzeichnet diese

Mehr

HD-Radio und FMeXtra

HD-Radio und FMeXtra HD-Radio und FMeXtra Vorstellung digitaler Systeme im UKW-Bereich Roland Kretzschmann Landesanstalt für Kommunikation 27. September 27 Überblick Rundfunk-Systeme für den UKW-Bereich Merkmale von HD-Radio

Mehr

Thema: DAB. Ein Überblick

Thema: DAB. Ein Überblick Thema: DAB Ein Überblick 1 Was ist DAB? Digital Audio Broadcast Ist ein digitaler Übertragungsstandard für terrestrischen Empfang von Digitalradio Frequenzbereich von 30 MHz bis 3 GHz geeignet Entwickelt

Mehr

67 Zufallsvariable, Erwartungswert, Varianz

67 Zufallsvariable, Erwartungswert, Varianz 67 Zufallsvariable, Erwartungswert, Varianz 67.1 Motivation Oft möchte man dem Resultat eines Zufallsexperiments eine reelle Zahl zuordnen. Der Gewinn bei einem Glücksspiel ist ein Beispiel hierfür. In

Mehr

Digitale Signalverarbeitung

Digitale Signalverarbeitung Digitale Signalverarbeitung Mario Hlawitschka Wissenschaftliche Visualisierung, Universität Leipzig hlawit@informatik.uni-leipzig.de, http://www.informatik.uni-leipzig.de/ hlawit/ Mario Hlawitschka Digitale

Mehr