zu Aufgabe 26: a) A 3 A 2 A 4 A 1 A 5 A 0 A 6

Größe: px
Ab Seite anzeigen:

Download "zu Aufgabe 26: a) A 3 A 2 A 4 A 1 A 5 A 0 A 6"

Transkript

1 zu ufgabe 6: a) p( ) p( ) p( 3 ) p( ) p( 5 ) p( 6 ) p( 7 ) = p( 3 ) = p( 3 ) = p( 3 ) = p( ) = p( ) = p( ) = p( ) = p( ) = p( ) = p( ) = p( ) = 8 p( ) = p( ) = p( ) = p( ) Lösung: b) binär 8 p( ) = p( 7 ) = p( ) = p( 6 ) = ternär 8 p( 3 ) = p( 5 ) = p( ) = chtung: Bei nicht-binärer Codierung müssen u U (je nach nzahl der Quellensymbole) vorher Dummy-Symbole mit Wahrscheinlichkeit Null eingeführt werden 8 Hinweis: Bei der Verteilung der Symbole muss die immer der linken Wahrscheinlichkeit zugewiesen werden, da diese (aufgrund der Sortierung) immer größer oder gleich den anderen Wahrscheinlichkeiten ist (denen die anderen Symbole zugewiesen werden) c) binär ternär Lehrveranstaltung Informationstheorie, Sommersemester 7

2 zu ufgabe 7: b) p Y X (y x) y (Z = ) (Z = 3) (Z = ) x (Z = ) (Z = ) (Z = 3) 3 (Z = 3) (Z = ) (Z = ) c) schematische Darstellung des DMC: Z X (mod 3) Y Kanalmatrix des DMC: p Y X ( ) p Y X ( ) p Y X ( ) K = p Y X ( ) p Y X ( ) p Y X ( ) = p Y X ( 3) p Y X ( 3) p Y X ( 3) Die Zeilen und Spalten der Kanalmatrix sind Permutationen voneinander Der DMC ist symmetrisch, siehe ( 3) Graph des DMC: X 3 Y Lehrveranstaltung Informationstheorie, Sommersemester 7

3 d) Informationskapazität: C = (log (3) H(Z)) bit C ist minimal, wenn H(Z) maximal ist Mit ( 9) ) gilt: Z muss gleichverteilt sein, d h = = 3 Dann gilt C = bit C ist maximal, wenn H(Z) minimal ist Mit ( 9) 6) gilt: Z muss mit Wahrscheinlichkeit konstant sein, d h ) = und = oder ) = und = oder 3) = und =, wobei hier nur Fall 3) wegen,, möglich ist Dann gilt C = log (3) bit Informationskapazität als Funktion der Parameter und : 6 C Lehrveranstaltung Informationstheorie, Sommersemester 7

4 zu ufgabe 8: X Y = X Y K K X Y Y Markowkette: X Y Y b) Die Kanalmatrix K des Gesamtkanals ergibt sich aus der Multiplikation der Kanalmatrizen K und K der Teilkanäle in der Reihenfolge der Hintereinanderschaltung, d h K = K K Illustration: y j K x i K K Lehrveranstaltung Informationstheorie, Sommersemester 7

5 c) Kanal ist ein BSC mit Fehlerwahrscheinlichkeit und Kanalmatrix K = Kanal ist ein BSC mit Fehlerwahrscheinlichkeit und Kanalmatrix K = Kanalmatrix K des Gesamtkanals ergibt sich durch Matrixmultiplikation: K = K K = mit = ( ) + ( ) Gesamtkanal ist ein BSC mit Fehlerwahrscheinlichkeit = ( ) + ( ) Die Informationskapazität des BSC ist gegeben durch (siehe ufgabe 3, ( 39) oder Vorlesung): C = ( H b ()) bit = ( H b ( ( ) + ( ))) bit Die optimale Wahrscheinlichkeitsverteilung am Kanaleingang ist eine Gleichverteilung Informationskapazität als Funktion der Parameter und : C Lehrveranstaltung Informationstheorie, Sommersemester 7

6 d) Kanal ist ein BSC mit Fehlerwahrscheinlichkeit und Kanalmatrix K wie in c) Kanal ist ein BEC mit uslöschungswahrscheinlichkeit und Kanalmatrix K = Kanalmatrix K des Gesamtkanals ergibt sich durch Matrixmultiplikation: K = K K = ( )( ) ( ) ( ) ( )( ) Der Gesamtkanal ist Gallager-symmetrisch Informationskapazität wird durch Gleichverteilung der Eingangssymbole erreicht: C = I(X ; Y ) = H(Y ) H(Y X ) px Gleichverteilung p X Gleichverteilung Für eine Gleichverteilung am Kanaleingang, d h p X () = p X () =, ergibt sich folgende Wahrscheinlichkeitsfunktion für die Zufallsgröße Y : y Δ p Y (y ) ( ) ( ) Entropie H(Y ) mit Gleichverteilung für X : H(Y ) = (( ) + H b ( )) bit bedingte Entropie H(Y X ) mit Gleichverteilung für X : Informationskapazität: H(Y X ) = H(Y X = ) + H(Y X = ) = ( )( ) log ( )( ) ( ) log ( ) log ( ) = ( ) H b ( ) + H b ( ) bit C = Hb ( ) bit Für = ist der Gesamtkanal ein BEC und für = ist der Gesamtkanal ein BSC Lehrveranstaltung Informationstheorie, Sommersemester 7

7 Informationskapazität als Funktion der Parameter und : C Lehrveranstaltung Informationstheorie, Sommersemester 7

Begriffe aus der Informatik Nachrichten

Begriffe aus der Informatik Nachrichten Begriffe aus der Informatik Nachrichten Gerhard Goos definiert in Vorlesungen über Informatik, Band 1, 1995 Springer-Verlag Berlin Heidelberg: Die Darstellung einer Mitteilung durch die zeitliche Veränderung

Mehr

Grundlagen der Technischen Informatik. Informationsgehalt. Kapitel 4.1

Grundlagen der Technischen Informatik. Informationsgehalt. Kapitel 4.1 Informationsgehalt Kapitel 4.1 Prof. Dr.-Ing. Jürgen Teich Lehrstuhl für Hardware-Software-Co-Design Technische Informatik - Meilensteine Informationstheorie Claude Elwood Shannon (geb. 1916) Quelle Sender

Mehr

P (x i ) log 2 = P (x. i ) i=1. I(x i ) 2 = log 1. bit H max (X) = log 2 MX = log 2 2 = 1. Symbol folgt für die Redundanz. 0.9 = 0.

P (x i ) log 2 = P (x. i ) i=1. I(x i ) 2 = log 1. bit H max (X) = log 2 MX = log 2 2 = 1. Symbol folgt für die Redundanz. 0.9 = 0. 7. Diskretes Kanalmodell I 7. a Aussagen über das digitale Übertragungsverfahren Bis auf die bereitzustellende Übertragungsrate [vgl. c)] sind keine Aussagen über das digitale Übertragungsverfahren möglich.

Mehr

Definition der Entropie unter Verwendung von supp(p XY )

Definition der Entropie unter Verwendung von supp(p XY ) Definition der Entropie unter Verwendung von supp(p XY ) Wir fassen die Ergebnisse des letzten Abschnitts nochmals kurz zusammen, wobei wir von der zweidimensionalen Zufallsgröße XY mit der Wahrscheinlichkeitsfunktion

Mehr

Stochastische Lernalgorithmen

Stochastische Lernalgorithmen Stochastische Lernalgorithmen Gerhard Jäger 14. Mai 2003 Das Maximum-Entropy-Prinzip Der Entropiebegriff Entropie: Chaos, Unordung, Nicht-Vorhersagbarkeit,... Begriff kommt ursprünglich aus der Physik:

Mehr

Theoretische Grundlagen der Informatik WS 09/10

Theoretische Grundlagen der Informatik WS 09/10 Theoretische Grundlagen der Informatik WS 09/10 - Tutorium 6 - Michael Kirsten und Kai Wallisch Sitzung 13 02.02.2010 Inhaltsverzeichnis 1 Formeln zur Berechnung Aufgabe 1 2 Hamming-Distanz Aufgabe 2 3

Mehr

Einführung in die Kodierungstheorie

Einführung in die Kodierungstheorie Einführung in die Kodierungstheorie Einführung Vorgehen Beispiele Definitionen (Code, Codewort, Alphabet, Länge) Hamming-Distanz Definitionen (Äquivalenz, Coderate, ) Singleton-Schranke Lineare Codes Hamming-Gewicht

Mehr

Informationstheorie und Codierung

Informationstheorie und Codierung Informationstheorie und Codierung 3. Codierung diskreter Quellen Gleichmäßiger Code Ungleichmäßiger Code Fano-, Huffman-Codierung Optimalcodierung von Markoff-Quellen Lauflängencodes nach Golomb und Rice

Mehr

1 Grundlagen. 1.1 Erste Grundbegriffe 1.2 Kryptographische Systeme 1.3 Informationstheoretische Grundlagen

1 Grundlagen. 1.1 Erste Grundbegriffe 1.2 Kryptographische Systeme 1.3 Informationstheoretische Grundlagen 1 Grundlagen 1.1 Erste Grundbegriffe 1.2 Kryptographische Systeme 1.3 Informationstheoretische Grundlagen Die Überlegungen dieses Kapitels basieren auf der Informationstheorie von Shannon. Er beschäftigte

Mehr

Stochastik Klasse 10 Zufallszahlen

Stochastik Klasse 10 Zufallszahlen Thema Grit Moschkau Stochastik Klasse 10 Zufallszahlen Sek I Sek II ClassPad TI-Nspire CAS. Schlagworte: Urnenmodell, Histogramm, absolute und relative Häufigkeit, Zufallsexperiment, Wahrscheinlichkeit,

Mehr

6.2 Perfekte Sicherheit

6.2 Perfekte Sicherheit 04 6.2 Perfekte Sicherheit Beweis. H(B AC) + H(A C) = H(ABC) H(AC) + H(AC) H(C) Wegen gilt Einsetzen in die Definition gibt = H(AB C). H(A BC) = H(AB C) H(B C). I(A; B C) = H(A C) H(AB C) + H(B C). Da

Mehr

Einführung in die Wahrscheinlichkeitsrechnung und Statistik für Ingenieure

Einführung in die Wahrscheinlichkeitsrechnung und Statistik für Ingenieure Einführung in die Wahrscheinlichkeitsrechnung und Statistik für Ingenieure Von Prof. Hubert Weber Fachhochschule Regensburg 3., überarbeitete und erweiterte Auflage Mit zahlreichen Bildern, Tabellen sowie

Mehr

ETWR Teil B. Spezielle Wahrscheinlichkeitsverteilungen (stetig)

ETWR Teil B. Spezielle Wahrscheinlichkeitsverteilungen (stetig) ETWR Teil B 2 Ziele Bisher (eindimensionale, mehrdimensionale) Zufallsvariablen besprochen Lageparameter von Zufallsvariablen besprochen Übertragung des gelernten auf diskrete Verteilungen Ziel des Kapitels

Mehr

Dynamisches Huffman-Verfahren

Dynamisches Huffman-Verfahren Dynamisches Huffman-Verfahren - Adaptive Huffman Coding - von Michael Brückner 1. Einleitung 2. Der Huffman-Algorithmus 3. Übergang zu einem dynamischen Verfahren 4. Der FGK-Algorithmus 5. Überblick über

Mehr

2. Übung zur Vorlesung Statistik 2

2. Übung zur Vorlesung Statistik 2 2. Übung zur Vorlesung Statistik 2 Aufgabe 1 Welche der folgenden grafischen Darstellungen und Tabellen zeigen keine (Einzel-)Wahrscheinlichkeitsverteilung? Kreuzen Sie die richtigen Antworten an und begründen

Mehr

Übungsrunde 5, Gruppe 2 LVA , Übungsrunde 5, Gruppe 2, Markus Nemetz, TU Wien, 11/2006

Übungsrunde 5, Gruppe 2 LVA , Übungsrunde 5, Gruppe 2, Markus Nemetz, TU Wien, 11/2006 3.. Angabe Übungsrunde 5, Gruppe 2 LVA 07.369, Übungsrunde 5, Gruppe 2, 4.. Markus Nemetz, markus.nemetz@tuwien.ac.at, TU Wien, /2006 Betrachten Sie einen Behälter, der Karten mit jeweils einer aufgedruckten

Mehr

Lösungen zur Klausur GRUNDLAGEN DER WAHRSCHEINLICHKEITSTHEORIE UND STATISTIK

Lösungen zur Klausur GRUNDLAGEN DER WAHRSCHEINLICHKEITSTHEORIE UND STATISTIK Institut für Stochastik Dr. Steffen Winter Lösungen zur Klausur GRUNDLAGEN DER WAHRSCHEINLICHKEITSTHEORIE UND STATISTIK für Studierende der INFORMATIK vom 17. Juli 01 (Dauer: 90 Minuten) Übersicht über

Mehr

Lösungen zur Klausur WAHRSCHEINLICHKEITSTHEORIE UND STATISTIK (STOCHASTIK)

Lösungen zur Klausur WAHRSCHEINLICHKEITSTHEORIE UND STATISTIK (STOCHASTIK) Institut für Stochastik Dr. Steffen Winter Lösungen zur Klausur WAHRSCHEINLICHKEITSTHEORIE UND STATISTIK (STOCHASTIK) für Studierende des Maschinenbaus vom 7. Juli (Dauer: 8 Minuten) Übersicht über die

Mehr

Mathematische Grundlagen III

Mathematische Grundlagen III Mathematische Grundlagen III Informationstheorie Prof Dr. Matthew Crocker Universität des Saarlandes 22. Juni 205 Matthew Crocker (UdS) Mathe III 22. Juni 205 / 43 Informationstheorie Entropie (H) Wie

Mehr

P (X = 2) = 1/36, P (X = 3) = 2/36,...

P (X = 2) = 1/36, P (X = 3) = 2/36,... 2.3 Zufallsvariablen 2.3 Zufallsvariablen Meist sind die Ereignisse eines Zufallseperiments bereits reelle Zahlen. Ist dies nicht der Fall, kann man Ereignissen eine reelle Zahl zuordnen. Zum Beispiel

Mehr

Gruppe. Unter einer Gruppe (G, ) versteht man eine Menge G, auf der eine binäre Operation definiert ist:

Gruppe. Unter einer Gruppe (G, ) versteht man eine Menge G, auf der eine binäre Operation definiert ist: Gruppe Unter einer Gruppe (G, ) versteht man eine Menge G, auf der eine binäre Operation definiert ist: : G G G, d.h. jedem Elementepaar (a, b): a, b G ist ein Element a b G zugeordnet. Gruppe 1-1 Gruppe

Mehr

Übung zur Vorlesung. Informationstheorie und Codierung

Übung zur Vorlesung. Informationstheorie und Codierung Übung zur Vorlesung Informationstheorie und Codierung Prof. Dr. Lilia Lajmi Juni 25 Ostfalia Hochschule für angewandte Wissenschaften Hochschule Braunschweig/Wolfenbüttel Postanschrift: Salzdahlumer Str.

Mehr

Musterlösung zur Hauptklausur Theoretische Grundlagen der Informatik Wintersemester 2013/14

Musterlösung zur Hauptklausur Theoretische Grundlagen der Informatik Wintersemester 2013/14 Institut für Theoretische Informatik Prof. Dr. Jörn Müller-Quade Musterlösung zur Hauptklausur Theoretische Grundlagen der Informatik Wintersemester 23/4 Vorname Nachname Matrikelnummer Hinweise Für die

Mehr

Überblick. Einführung in die automatische Mustererkennung Grundlagen der Wahrscheinlichkeitsrechnung

Überblick. Einführung in die automatische Mustererkennung Grundlagen der Wahrscheinlichkeitsrechnung Grundlagen Überblick Einführung in die automatische Mustererkennung Grundlagen der Wahrscheinlichkeitsrechnung Klassifikation bei bekannter Wahrscheinlichkeitsverteilung Entscheidungstheorie Bayes- Entscheidungsfunktionen

Mehr

Klausur zum Fach GRUNDLAGEN DER WAHRSCHEINLICHKEITSTHEORIE UND STATISTIK. für Studierende der INFORMATIK

Klausur zum Fach GRUNDLAGEN DER WAHRSCHEINLICHKEITSTHEORIE UND STATISTIK. für Studierende der INFORMATIK Institut für Stochastik Prof. Dr. Daniel Hug Name: Vorname: Matr.-Nr.: Klausur zum Fach GRUNDLAGEN DER WAHRSCHEINLICHKEITSTHEORIE UND STATISTIK für Studierende der INFORMATIK Datum: 08. Februar 0 Dauer:

Mehr

7.2 Moment und Varianz

7.2 Moment und Varianz 7.2 Moment und Varianz Def. 21 Es sei X eine zufällige Variable. Falls der Erwartungswert E( X p ) existiert, heißt der Erwartungswert EX p p tes Moment der zufälligen Variablen X. Es gilt dann: + x p

Mehr

Weihnachtszettel zur Vorlesung. Stochastik I. Wintersemester 2011/2012

Weihnachtszettel zur Vorlesung. Stochastik I. Wintersemester 2011/2012 Weihnachtszettel zur Vorlesung Stochastik I Wintersemester 0/0 Aufgabe. Der Weihnachtsmann hat vergessen die Weihnachtsgeschenke mit Namen zu beschriften und muss sie daher zufällig verteilen. Dabei enthält

Mehr

Technische Universität München

Technische Universität München Stand der Vorlesung Kapitel 2: Auffrischung einiger mathematischer Grundlagen Mengen, Potenzmenge, Kreuzprodukt (Paare, Tripel, n-tupel) Relation: Teilmenge MxN Eigenschaften: reflexiv, symmetrisch, transitiv,

Mehr

2 Arbeiten mit dem TI-84 Plus

2 Arbeiten mit dem TI-84 Plus 2 Arbeiten mit dem TI-84 Plus Lernziele Du erfährst in diesem Abschnitt, wie du mit dem TI-84 Plus Funktionen in Bezug auf interessante Punkte untersuchst; numerische Ableitungen durchführst und Wahrscheinlichkeitsverteilungen

Mehr

Kapitel 3: Etwas Informationstheorie

Kapitel 3: Etwas Informationstheorie Stefan Lucks 3: Informationstheorie 28 orlesung Kryptographie (SS06) Kapitel 3: Etwas Informationstheorie Komplexitätstheoretische Sicherheit: Der schnellste Algorithmus, K zu knacken erfordert mindestens

Mehr

Klausur: Diskrete Strukturen I

Klausur: Diskrete Strukturen I Universität Kassel Fachbereich 10/1 13.03.2013 Klausur: Diskrete Strukturen I Name: Vorname: Matrikelnummer: Versuch: Unterschrift: Bitte fangen Sie für jede Aufgabe ein neues Blatt an. Beschreiben Sie

Mehr

Übung 1: Wiederholung Wahrscheinlichkeitstheorie

Übung 1: Wiederholung Wahrscheinlichkeitstheorie Übung 1: Wiederholung Wahrscheinlichkeitstheorie Ü1.1 Zufallsvariablen Eine Zufallsvariable ist eine Variable, deren numerischer Wert solange unbekannt ist, bis er beobachtet wird. Der Wert einer Zufallsvariable

Mehr

(Prüfungs-)Aufgaben zur Codierungstheorie

(Prüfungs-)Aufgaben zur Codierungstheorie (Prüfungs-)Aufgaben zur Codierungstheorie 1) Gegeben sei die folgende CCITT2-Codierung der Dezimalziffern: Dezimal CCITT2 0 0 1 1 0 1 1 1 1 1 0 1 2 1 1 0 0 1 3 1 0 0 0 0 4 0 1 0 1 0 5 0 0 0 0 1 6 1 0 1

Mehr

Abiturvorbereitung Stochastik. neue friedländer gesamtschule Klasse 12 GB Holger Wuschke B.Sc.

Abiturvorbereitung Stochastik. neue friedländer gesamtschule Klasse 12 GB Holger Wuschke B.Sc. Abiturvorbereitung Stochastik neue friedländer gesamtschule Klasse 12 GB 24.02.2014 Holger Wuschke B.Sc. Siedler von Catan, Rühlow 2014 Organisatorisches 0. Begriffe in der Stochastik (1) Ein Zufallsexperiment

Mehr

Inhaltsverzeichnis. Inhalt Teil I: Beschreibende (Deskriptive) Statistik Seite. 1.0 Erste Begriffsbildungen Merkmale und Skalen 5

Inhaltsverzeichnis. Inhalt Teil I: Beschreibende (Deskriptive) Statistik Seite. 1.0 Erste Begriffsbildungen Merkmale und Skalen 5 Inhaltsverzeichnis Inhalt Teil I: Beschreibende (Deskriptive) Statistik Seite 1.0 Erste Begriffsbildungen 1 1.1 Merkmale und Skalen 5 1.2 Von der Urliste zu Häufigkeitsverteilungen 9 1.2.0 Erste Ordnung

Mehr

Klausur zur Vorlesung,,Algorithmische Mathematik II

Klausur zur Vorlesung,,Algorithmische Mathematik II Institut für angewandte Mathematik, Institut für numerische Simulation Sommersemester 2015 Prof. Dr. Anton Bovier, Prof. Dr. Martin Rumpf Klausur zur Vorlesung,,Algorithmische Mathematik II Bitte diese

Mehr

Vorlesung 8a. Kovarianz und Korrelation

Vorlesung 8a. Kovarianz und Korrelation Vorlesung 8a Kovarianz und Korrelation 1 Wir erinnern an die Definition der Kovarianz Für reellwertige Zufallsvariable X, Y mit E[X 2 ] < und E[Y 2 ] < ist Cov[X, Y ] := E [ (X EX)(Y EY ) ] Insbesondere

Mehr

Kapitel 5. Univariate Zufallsvariablen. 5.1 Diskrete Zufallsvariablen

Kapitel 5. Univariate Zufallsvariablen. 5.1 Diskrete Zufallsvariablen Kapitel 5 Univariate Zufallsvariablen Im ersten Teil dieses Skriptes haben wir uns mit Daten beschäftigt und gezeigt, wie man die Verteilung eines Merkmals beschreiben kann. Ist man nur an der Population

Mehr

Musterlösung der Hauptklausur zur Vorlesung Theoretische Grundlagen der Informatik Wintersemester 2012/13

Musterlösung der Hauptklausur zur Vorlesung Theoretische Grundlagen der Informatik Wintersemester 2012/13 Institut für Kryptographie und Sicherheit Prof. Dr. Jörn Müller-Quade Musterlösung der Hauptklausur zur Vorlesung Theoretische Grundlagen der Informatik Wintersemester 22/3 Vorname Nachname Matrikelnummer

Mehr

Basiswissen Daten und Zufall Seite 1 von 8 1 Zufallsexperiment Ein Zufallsexperiment ist ein Versuchsaufbau mit zufälligem Ausgang, d. h. das Ergebnis kann nicht vorhergesagt werden. 2 Ergebnis (auch Ausgang)

Mehr

Einführung in die Wahrscheinlichkeitsrechnung

Einführung in die Wahrscheinlichkeitsrechnung Marco Cattaneo Institut für Statistik Ludwig-Maximilians-Universität München Sommersemester 2011 1. Wahrscheinlichkeitsrechnung 2. Diskrete Zufallsvariable 3. Stetige Zufallsvariable 4. Grenzwertsätze

Mehr

Musterlösung Klausur,,Einführung in die W theorie

Musterlösung Klausur,,Einführung in die W theorie Institut für angewandte Mathematik Wintersemester 3/4 Andreas Eberle, Lisa Hartung / Patrick Müller Musterlösung Klausur,,Einführung in die W theorie. (Zufallsvariablen und ihre Verteilung) a) Was ist

Mehr

Verteilungen eindimensionaler stetiger Zufallsvariablen Einführung Stetige Verteilungen

Verteilungen eindimensionaler stetiger Zufallsvariablen Einführung Stetige Verteilungen Verteilungen eindimensionaler stetiger Zufallsvariablen Einführung Stetige Verteilungen Stetige Gleichverteilung Exponentialverteilung Normalverteilung Bibliografie: Prof. Dr. Kück Universität Rostock

Mehr

16.3 Rekurrente und transiente Zustände

16.3 Rekurrente und transiente Zustände 16.3 Rekurrente und transiente Zustände Für alle n N bezeichnen wir mit f i (n) = P(X n = i,x n 1 i,...,x 1 i,x 0 = i) die Wahrscheinlichkeit, daß nach n Schritten erstmalig wieder der Zustand i erreicht

Mehr

Kommunikationsalgorithmus RSA

Kommunikationsalgorithmus RSA Kommunikationsalgorithmus RSA Herr Maue Ergänzungsfach Informatik Neue Kantonsschule Aarau Früjahrsemester 2015 24.04.2015 EFI (Hr. Maue) Kryptographie 24.04.2015 1 / 26 Programm heute 1. Verschlüsselungsverfahren

Mehr

Vertiefung NWI: 13. Vorlesung zur Wahrscheinlichkeitstheorie

Vertiefung NWI: 13. Vorlesung zur Wahrscheinlichkeitstheorie Fakultät für Mathematik Prof. Dr. Barbara Gentz SS 2013 Vertiefung NWI: 13. Vorlesung zur Wahrscheinlichkeitstheorie Mittwoch, 10.7.2013 13. Markoffketten 13.1 Beispiele 1. Irrfahrt auf dem zweidimensionalen

Mehr

Stochastik I. Vorlesungsmitschrift

Stochastik I. Vorlesungsmitschrift Stochastik I Vorlesungsmitschrift Ulrich Horst Institut für Mathematik Humboldt-Universität zu Berlin Inhaltsverzeichnis 1 Grundbegriffe 1 1.1 Wahrscheinlichkeitsräume..................................

Mehr

Kapitel VI - Lage- und Streuungsparameter

Kapitel VI - Lage- und Streuungsparameter Universität Karlsruhe (TH) Institut für Statistik und Mathematische Wirtschaftstheorie Wahrscheinlichkeitstheorie Kapitel VI - Lage- und Streuungsparameter Markus Höchstötter Lehrstuhl für Statistik, Ökonometrie

Mehr

Doz. Dr. H.P. Scheffler Sommer 2000 Klausur zur Vorlesung Stochastik I

Doz. Dr. H.P. Scheffler Sommer 2000 Klausur zur Vorlesung Stochastik I Doz. Dr. H.P. Scheffler Sommer 2000 Klausur zur Vorlesung Stochastik I Wählen Sie aus den folgenden sechs Aufgaben fünf Aufgaben aus. Die maximal erreichbare Punktezahl finden Sie neben jeder Aufgabe.

Mehr

Kodieren Von Graphen

Kodieren Von Graphen Kodieren Von Graphen Allgemeine Anwendungen: Routenplaner Netzpläne Elektrische Schaltungen Gebäudeerkennung aus Luftaufnahmen Definitionen:? Graph Ein Graph G besteht aus einem geordneten Paar G = (V,E)

Mehr

Anzahl der Möglichkeiten in der Werkstatthalle, 3 ohne eingebaute Alarmanlage: N N 2

Anzahl der Möglichkeiten in der Werkstatthalle, 3 ohne eingebaute Alarmanlage: N N 2 Abiturprüfung Berufliche Oberschule 003 Mathematik 13 Technik - B I - Lösung Teilaufgabe 1.0 Eine Kfz-Werkstatt für Autoelektronik baut in Fahrzeuge Alarmanlagen ein. Die Werkstatt verfügt über 11 Stellplätze,

Mehr

Fakultät für Informatik Übung zu Kognitive Systeme Sommersemester 2016

Fakultät für Informatik Übung zu Kognitive Systeme Sommersemester 2016 Fakultät für Informatik Übung zu Kognitive Systeme Sommersemester 1 M. Sperber (matthias.sperber@kit.edu) S. Nguyen (thai.nguyen@kit.edu) Übungsblatt 3 Maschinelles Lernen und Klassifikation Abgabe online

Mehr

Kombinatorik. 1. Beispiel: Wie viele fünfstellige Zahlen lassen sich aus den fünf Ziffern in M = {1;2;3;4;5} erstellen?

Kombinatorik. 1. Beispiel: Wie viele fünfstellige Zahlen lassen sich aus den fünf Ziffern in M = {1;2;3;4;5} erstellen? 1 Kombinatorik Aus einer Grundgesamtheit mit n Elementen wird eine Stichprobe k Elementen entnommen. Dabei kann die Stichprobe geordnet oder ungeordnet sein. "Geordnet" bedeutet, dass die Reihenfolge der

Mehr

Korrektur, Änderungen sowie Ergänzungen zu den Vorlesungsskripten: Statistik-I SS-2015

Korrektur, Änderungen sowie Ergänzungen zu den Vorlesungsskripten: Statistik-I SS-2015 Korrektur, Änderungen sowie Ergänzungen zu den Vorlesungsskripten: Statistik-I SS-05!"!## x 8 0 8 0 8 0 0, 0, 3 0 0, 05 $ $ % 3, 75 $ Geben Sie für das vorige Beispiel. (Bsp. ) die Anteile der jeweiligen

Mehr

Kapitel VIII - Tests zum Niveau α

Kapitel VIII - Tests zum Niveau α Institut für Volkswirtschaftslehre (ECON) Lehrstuhl für Ökonometrie und Statistik Kapitel VIII - Tests zum Niveau α Induktive Statistik Prof. Dr. W.-D. Heller Hartwig Senska Carlo Siebenschuh Testsituationen

Mehr

Seminar Kompressionsalgorithmen Huffman-Codierung, arithmetische Codierung

Seminar Kompressionsalgorithmen Huffman-Codierung, arithmetische Codierung Huffman-Codierung, arithmetische Codierung Theoretische Informatik RWTH-Aachen 4. April 2012 Übersicht 1 Einführung 2 3 4 5 6 Einführung Datenkompression Disziplin,die Kompressionsalgorithmen entwirft

Mehr

Übung 13: Quellencodierung

Übung 13: Quellencodierung ZHAW, NTM, FS2008, Rumc, /5 Übung 3: Quellencodierung Aufgabe : Huffmann-Algorithmus. Betrachten Sie die folgende ternäre, gedächtnislose Quelle mit dem Symbolalphabet A = {A,B,C} und den Symbol-Wahrscheinlichkeiten

Mehr

Grundlagen der Nachrichtentechnik 4

Grundlagen der Nachrichtentechnik 4 Grundlagen der Prof. Dr.-Ing. Andreas Czylwik S. Organisatorisches Vorlesung 2 SWS Übung SWS, Betreuer: Dipl.-Ing. Lars Häring Folienkopien sind verfügbar Prüfung: schriftlich Neue Forschungsthemen im

Mehr

Wahrscheinlichkeitsrechnung und schließende Statistik

Wahrscheinlichkeitsrechnung und schließende Statistik Günther Bourier Wahrscheinlichkeitsrechnung und schließende Statistik Praxisorientierte Einführung Mit Aufgaben und Lösungen 3. F überarbeitete Auflage GABLER Inhaltsverzeichnis Vorwort Inhaltsverzeichnis

Mehr

Informationssicherheit - Lösung Blatt 2

Informationssicherheit - Lösung Blatt 2 Informationssicherheit - Lösung Blatt 2 Adam Glodek adam.glodek@gmail.com 13.04.2010 1 1 Aufgabe 1: One Time Pad 1.1 Aufgabenstellung Gegeben ist der folgende Klartext 12Uhr (ASCII). Verschlüsseln Sie

Mehr

Diskrete Strukturen WiSe 2012/13 in Trier

Diskrete Strukturen WiSe 2012/13 in Trier Diskrete Strukturen WiSe 2012/13 in Trier Henning Fernau Universität Trier fernau@uni-trier.de 11. Januar 2013 1 Diskrete Strukturen Gesamtübersicht Organisatorisches und Einführung Mengenlehre Relationen

Mehr

alte Maturaufgaben zu Stochastik

alte Maturaufgaben zu Stochastik Stochastik 01.02.13 alte Maturaufgaben 1 alte Maturaufgaben zu Stochastik 1 07/08 1. (8 P.) In einer Urne liegen 5 rote, 8 gelbe und 7 blaue Kugeln. Es werden nacheinander drei Kugeln gezogen, wobei die

Mehr

Die Mathematik in der CD

Die Mathematik in der CD Lehrstuhl D für Mathematik RWTH Aachen Lehrstuhl D für Mathematik RWTH Aachen St.-Michael-Gymnasium Monschau 14. 09. 2006 Codes: Definition und Aufgaben Ein Code ist eine künstliche Sprache zum Speichern

Mehr

Informationssicherheit III

Informationssicherheit III Zufall im Rechner Präsentation im Rahmen der Lehrveranstaltung Informationssicherheit III WS 2001/2002 Jochen Rondorf 17.01.2002 Zufall im Rechner WS 2001/02 1 Agenda Arten von Zufall Anwendungsgebiete

Mehr

Proseminar Lineare Algebra II, SS 11. Blatt

Proseminar Lineare Algebra II, SS 11. Blatt Blatt 1 1. Berechnen Sie die Determinante der Matrix 0 0 4 1 2 5 1 7 1 2 0 3 1 3 0 α. 2. Stellen Sie folgende Matrix als Produkt von Elementarmatrizen dar: 1 3 1 4 2 5 1 3 0 4 3 1. 3 1 5 2 3. Seien n 2

Mehr

Datenanalyse. (PHY231) Herbstsemester Olaf Steinkamp

Datenanalyse. (PHY231) Herbstsemester Olaf Steinkamp Datenanalyse (PHY31) Herbstsemester 015 Olaf Steinkamp 36-J- olafs@physik.uzh.ch 044 63 55763 Einführung, Messunsicherheiten, Darstellung von Messdaten Grundbegriffe der Wahrscheinlichkeitsrechnung und

Mehr

Zusammenfassung Mathe II. Themenschwerpunkt 2: Stochastik (ean) 1. Ein- und mehrstufige Zufallsexperimente; Ergebnismengen

Zusammenfassung Mathe II. Themenschwerpunkt 2: Stochastik (ean) 1. Ein- und mehrstufige Zufallsexperimente; Ergebnismengen Zusammenfassung Mathe II Themenschwerpunkt 2: Stochastik (ean) 1. Ein- und mehrstufige Zufallsexperimente; Ergebnismengen Zufallsexperiment: Ein Vorgang, bei dem mindestens zwei Ereignisse möglich sind

Mehr

3. Kombinatorik und Wahrscheinlichkeit

3. Kombinatorik und Wahrscheinlichkeit 3. Kombinatorik und Wahrscheinlichkeit Es geht hier um die Bestimmung der Kardinalität endlicher Mengen. Erinnerung: Seien A, B, A 1,..., A n endliche Mengen. Dann gilt A = B ϕ: A B bijektiv Summenregel:

Mehr

Einführung in die Kryptographie - Multiple Choice Quiz

Einführung in die Kryptographie - Multiple Choice Quiz Technische Universität Darmstadt Einführung in die Kryptographie - Multiple Choice Quiz Oren Halvani. M.Sc. Inf ormatik. Matrikel N o. Disclaimer Um was für ein Dokument handelt es sich hier genau?. Im

Mehr

Kapitel 2: Informationstheorie. 3. Quellencodierung

Kapitel 2: Informationstheorie. 3. Quellencodierung ZHAW, NTM2, Rumc, 2.3-1 Kapitel 2: Informationstheorie 3. Quellencodierung Inhaltsverzeichnis 1. EINLEITUNG... 1 2. QUELLENCODIERUNGSTHEOREM... 2 3. HUFFMAN-QUELLENCODIERUNG... 3 4. DATENKOMPRESSION MIT

Mehr

Klausur Algorithmen und Datenstrukturen

Klausur Algorithmen und Datenstrukturen Technische Universität Braunschweig Sommersemester 2013 IBR - Abteilung Algorithmik Prof. Dr. Sándor Fekete Dr. Christiane Schmidt Stephan Friedrichs Klausur Algorithmen und Datenstrukturen 22.08.2013

Mehr

Kenngrößen von Zufallsvariablen

Kenngrößen von Zufallsvariablen Kenngrößen von Zufallsvariablen Die Wahrscheinlichkeitsverteilung kann durch die sogenannten Kenngrößen beschrieben werden, sie charakterisieren sozusagen die Verteilung. Der Erwartungswert Der Erwartungswert

Mehr

Abschlussprüfung an Fachoberschulen in Bayern Mathematik 2002, Stochastik S I Nichttechnische Ausbildungsrichtung

Abschlussprüfung an Fachoberschulen in Bayern Mathematik 2002, Stochastik S I Nichttechnische Ausbildungsrichtung Alexandra Steiner 7.5.005 A_NT_S_AS_Loes.mcd Abschlussprüfung an Fachoberschulen in Bayern Mathematik 00, Stochastik S I Nichttechnische Ausbildungsrichtung AUFGABENSTELLUNG:.0 Die Post eines kleineren

Mehr

Redundanz. Technische Informationsquelle Entropie und Redundanz Huffman Codierung. Martin Werner WS 09/10. Martin Werner, Dezember 09 1

Redundanz. Technische Informationsquelle Entropie und Redundanz Huffman Codierung. Martin Werner WS 09/10. Martin Werner, Dezember 09 1 Information, Entropie und Redundanz Technische Informationsquelle Entropie und Redundanz Huffman Codierung Martin Werner WS 9/ Martin Werner, Dezember 9 Information und Daten Informare/ Informatio (lat.)

Mehr

Technische Informatik - Eine Einführung

Technische Informatik - Eine Einführung Martin-Luther-Universität Halle-Wittenberg Fachbereich Mathematik und Informatik Lehrstuhl für Technische Informatik Prof. P. Molitor Technische Informatik - Eine Einführung Boolesche Funktionen - Grundlagen

Mehr

Graphen: Einführung. Vorlesung Mathematische Strukturen. Sommersemester 2011

Graphen: Einführung. Vorlesung Mathematische Strukturen. Sommersemester 2011 Graphen: Einführung Vorlesung Mathematische Strukturen Zum Ende der Vorlesung beschäftigen wir uns mit Graphen. Graphen sind netzartige Strukturen, bestehend aus Knoten und Kanten. Sommersemester 20 Prof.

Mehr

Telekommunikationssysteme

Telekommunikationssysteme Telekommunikationssysteme WS 1999 / 2000 Prof. Dr. Claudia Linnhoff-Popien M Institut für Informatik Ludwig-Maximilians-Universität, München N TE AM M Prof. Dr. Otto Spaniol Lehrstuhl für Informatik 4

Mehr

+ 2 F2 (u) X 1 F1 (u)) Der Koeffizient der unteren Tail-Abhängigkeit von (X 1,X 2 ) T wird folgendermaßen definiert:

+ 2 F2 (u) X 1 F1 (u)) Der Koeffizient der unteren Tail-Abhängigkeit von (X 1,X 2 ) T wird folgendermaßen definiert: Tail Abhängigkeit Definition 12 Sei (X 1,X 2 ) T ein Zufallsvektor mit Randverteilungen F 1 und F 2. Der Koeffizient der oberen Tail-Abhängigkeit von (X 1,X 2 ) T wird folgendermaßen definiert: λ U (X

Mehr

Bayessche Netzwerke und ihre Anwendungen

Bayessche Netzwerke und ihre Anwendungen Bayessche Netzwerke und ihre Anwendungen 1. Kapitel: Grundlagen Zweiter Schwerpunktanteil einer Vorlesung im Rahmen des Moduls Systemplanung und Netzwerktheorie (Modul-Nr.: 1863) Fakultät für Informatik

Mehr

Übersicht Datenstrukturen und Algorithmen. Literatur. Algorithmus: Wikipedia Definition. Vorlesung 1: Einführung. Prof. Dr.

Übersicht Datenstrukturen und Algorithmen. Literatur. Algorithmus: Wikipedia Definition. Vorlesung 1: Einführung. Prof. Dr. Übersicht Datenstrukturen und Vorlesung 1: Prof. Dr. Erika Ábrahám Theorie Hybrider Systeme Informatik 2 http://ths.rwth-aachen.de/teaching/ss-14/ datenstrukturen-und-algorithmen/ Diese Präsentation verwendet

Mehr

Datenkompression. 1 Allgemeines. 2 Verlustlose Kompression. Holger Rauhut

Datenkompression. 1 Allgemeines. 2 Verlustlose Kompression. Holger Rauhut Datenkompression Holger Rauhut 1. September 2010 Skript für die Schülerwoche 2010, 8.-11.9.2010 Hausdorff Center for Mathematics, Bonn 1 Allgemeines Datenkompression hat zum Ziel, Daten in digitaler Form,

Mehr

Mathematik IV für Maschinenbau und Informatik (Stochastik) Universität Rostock, Institut für Mathematik Sommersemester 2007

Mathematik IV für Maschinenbau und Informatik (Stochastik) Universität Rostock, Institut für Mathematik Sommersemester 2007 Mathematik IV für Maschinenbau und Informatik Stochastik Universität Rostock, Institut für Mathematik Sommersemester 007 Prof. Dr. F. Liese Dipl.-Math. M. Helwich Serie Termin: 9. Juni 007 Aufgabe 3 Punkte

Mehr

Lineare Gleichungssysteme

Lineare Gleichungssysteme Fakultät Grundlagen Juli 2015 Fakultät Grundlagen Übersicht Lineare Gleichungssystem mit 2 Variablen 1 Lineare Gleichungssystem mit 2 Variablen Beispiele 2 Fakultät Grundlagen Folie: 2 Beispiel I Lineare

Mehr

Grundkompetenzen (Mathematik Oberstufe)

Grundkompetenzen (Mathematik Oberstufe) Grundkompetenzen (Mathematik Oberstufe) AG: Algebra und Geometrie (14 Deskriptoren) FA: Funktionale Abhängigkeiten (35 Deskriptoren) AN: Analysis (11 Deskriptoren) WS: Wahrscheinlichkeit und Statistik

Mehr

1. Ziehg.: N M. falls nicht-rote K. in 1. Ziehg. gezogen

1. Ziehg.: N M. falls nicht-rote K. in 1. Ziehg. gezogen 6.4 Hyergeometrische Verteilung Gegeben ist eine Urne, die mit N Kugeln gefüllt ist. Es seien M dieser Kugeln rot und N-M Kugeln nicht rot. Wir entnehmen n Kugeln, d.h. eine Stichrobe des Umfangs n. Dabei

Mehr

Gruppentheorie und Symmetrie in der Chemie

Gruppentheorie und Symmetrie in der Chemie Gruppentheorie und Symmetrie in der Chemie Martin Schütz Institut für theoretische Chemie, Universität Stuttgart Pfaffenwaldring 55, D-70569 Stuttgart Stuttgart, 26. April 2002 Mathematische Definition

Mehr

Vorlesung 9b. Bedingte Verteilungen und bedingte Wahrscheinlichkeiten

Vorlesung 9b. Bedingte Verteilungen und bedingte Wahrscheinlichkeiten Vorlesung 9b Bedingte Verteilungen und bedingte Wahrscheinlichkeiten 1 Voriges Mal: Aufbau der gemeinsamen Verteilung von X 1 und X 2 aus der Verteilung ρ von X 1 und Übergangswahrscheinlichkeiten P(a

Mehr

Wiederholung. Symmetrische Verschlüsselung klassische Verfahren: moderne Verfahren: DES (Feistel-Chiffre) mehrfache Wiederholung einer Kombination aus

Wiederholung. Symmetrische Verschlüsselung klassische Verfahren: moderne Verfahren: DES (Feistel-Chiffre) mehrfache Wiederholung einer Kombination aus Wiederholung Symmetrische Verschlüsselung klassische Verfahren: Substitutionschiffren Transpositionschiffren Vigenère-Chiffre One-Time-Pad moderne Verfahren: DES (Feistel-Chiffre) mehrfache Wiederholung

Mehr

Einführung in die Informatik und Medieninformatik

Einführung in die Informatik und Medieninformatik Name, Vorname Matrikelnummer Klausur zur Vorlesung Einführung in die Informatik und Medieninformatik LVNr. 36 600, SS 2013, im Studiengang Medieninformatik Dienstag, 23. Juli 2013 12:00 14:00 Uhr (120

Mehr

Informationstheorie als quantitative Methode in der Dialektometrie

Informationstheorie als quantitative Methode in der Dialektometrie Informationstheorie als quantitative Methode in der Dialektometrie 1 Informationstheorie als quantitative Methode in der Dialektometrie Informationstheorie als quantitative Methode in der Dialektometrie

Mehr

Vorläufiger schulinterner Lehrplan zum Kernlehrplan für die gymnasiale Oberstufe. Mathematik

Vorläufiger schulinterner Lehrplan zum Kernlehrplan für die gymnasiale Oberstufe. Mathematik Vorläufiger schulinterner Lehrplan zum Kernlehrplan für die gymnasiale Oberstufe Mathematik 2.1.1 ÜBERSICHTSRASTER UNTERRICHTSVORHABEN EINFÜHRUNGSPHASE Unterrichtsvorhaben I: Unterrichtsvorhaben II: Beschreibung

Mehr

Auf dem Schulfest bietet Peter als Spielleiter das Glücksspiel "GlücksPasch" an.

Auf dem Schulfest bietet Peter als Spielleiter das Glücksspiel GlücksPasch an. Aufgabe 4 Glückspasch" (16 Punkte) Auf dem Schulfest bietet Peter als Spielleiter das Glücksspiel "GlücksPasch" an. Spielregeln: Einsatz 1. Der Mitspieler würfelt mit 2 Oktaederwürfeln. Fällt ein Pasch,

Mehr

9 Schnell mischende Markov-Ketten

9 Schnell mischende Markov-Ketten 9 Schnell mischende Markov-Ketten Allgemeines zu schnell mischenden Markov-Ketten findet man zum Beispiel in dem Buch Introduction to Markov Chains von Behrends (2000). Außerdem haben wir von einem Teil

Mehr

Klausur zur Vorlesung Spieltheorie Musterlösung

Klausur zur Vorlesung Spieltheorie Musterlösung Prof. Dr. Ulrich Schwalbe Sommersemester 2001 Klausur zur Vorlesung Spieltheorie Musterlösung Die Klausur besteht aus vier Vorfragen, von denen drei zu beantworten sind sowie drei Hauptfragen, von denen

Mehr

MATHEMATISCHE ANALYSE VON ALGORITHMEN

MATHEMATISCHE ANALYSE VON ALGORITHMEN MATHEMATISCHE ANALYSE VON ALGORITHMEN Michael Drmota Institut für Diskrete Mathematik und Geometrie, TU Wien michael.drmota@tuwien.ac.at www.dmg.tuwien.ac.at/drmota/ Ringvorlesung SS 2008, TU Wien Algorithmus

Mehr

Grundlagen Anwendungen Quellen. Steganographie. Ingo Blechschmidt, Michael Hartmann LUGA. 4. Oktober 2006

Grundlagen Anwendungen Quellen. Steganographie. Ingo Blechschmidt, Michael Hartmann LUGA. 4. Oktober 2006 Grundlagen Anwendungen Quellen Ingo Blechschmidt, Michael Hartmann LUGA 4. Oktober 2006 Grundlagen Anwendungen Quellen Inhalt 1 Grundlagen Definition der Beispiele für Historische Anwendungen der Abgrenzung

Mehr

Designziele in Blockchiffren

Designziele in Blockchiffren Designziele in Blockchiffren Konstruiere Verschlüsselungsfunktion die sich wie eine zufällige Funktion verhalten soll. Konfusion: Verschleiern des Zusammenhangs zwischen Klartext und Chiffretext. Diffusion:

Mehr

Lineare Gleichungssysteme (Teschl/Teschl 11.1)

Lineare Gleichungssysteme (Teschl/Teschl 11.1) Lineare Gleichungssysteme (Teschl/Teschl.) Ein Lineares Gleichungssystem (LGS) besteht aus m Gleichungen mit n Unbekannten x,...,x n und hat die Form a x + a 2 x 2 +... + a n x n b a 2 x + a 22 x 2 +...

Mehr