Codes on Graphs: Normal Realizations

Größe: px
Ab Seite anzeigen:

Download "Codes on Graphs: Normal Realizations"

Transkript

1 Codes on Graphs: Normal Realizations Autor: G. David Forney Seminarvortrag von Madeleine Leidheiser und Melanie Reuter 1

2 Inhaltsverzeichnis: 1. Einführung Motivation Einleitung 3 2. Graphendarstellungen Trellis Factor Graph Normal Graph 8 3. Algorithmus Cut Set Bound Sum-Product Algorithmus Belief Propagation 17 2

3 1. Einführung: 1.1 Motivation: Ausgangspunkt: Wir gehen von der Situation aus, das ein Sender einem Empfänger Nachrichten übermitteln will, zum Beispiel über ein Kabel. Dazu wird eine Nachricht in binäre Vektoren/ Wörter umgewandelt. Diese Vektoren werden dann beim Sender codiert es werden weitere Bits nach bestimmten Regeln hinzugefügt und beim Empfänger wieder decodiert. Bei der Übertragung können die Nachrichten dann aber aufgrund von Störungen beschädigt werden, so dass die Vektoren/ Wörter, die der Empfänger erhält, fehlerhaft sein können. Man spricht dann meist von geflippten Bits (statt einer 0 wurde eine 1 empfangen oder umgekehrt). Diese Fehler müssen dann noch zusätzlich beim Decodieren behoben werden. In unserem Vortrag werden wir einen solchen Algorithmus vorstellen, den man zur Fehlerbehebung beim Decodieren verwendet. Er versucht, zu einem erhaltenen Wort das nächstgelegene gültige Codewort zu finden. 1.2 Einleitung: Zunächst eine Definition, was unter einer generalized state realization, also unter einer möglichen Darstellung eines Codes, verstanden wird: Definition: In einer generalized state realization besteht ein Code aus symbol variables, state variables und constraints. Diesen constraints kann man entnehmen, welche der symbol variables unabhängig und welche abhängig sind und damit an welchen Stellen des Codewortes nach dem Codieren die information Bits und an welcher Stelle die redundanten Bits stehen. Die symbol variables sind dann also die information und die redundanten Bits, die in unserer Betrachtung nur die Werte 0 und 1 annehmen können. Dazu erst einmal folgendes Beispiel: 3

4 Beispiel: Wir betrachten den (8,4,4) Hamming Code. Dabei steht die 8 für die Länge der Codewörter die erste 4 für die Anzahl der redundanten Bits und die zweite 4 für die Hamming Distanz, also den minimalen Abstand zwischen zwei Codewörtern ( x y 4 für x, y Codewörter). Für dieses Beispiel haben wir 8 symbol variables y 1,... y 8 und 4 constraints, die die so genannte parity-check Matrix H ergeben: y 1 y 2 y 3 y 4 =0 y 2 y 4 y 5 y 7 =0 y 3 y 4 y 5 y 6 =0 y 5 y 6 y 7 y 8 =0 H = Wir sagen, dass y 1, y 2, y 3 und y 5 unsere unabhängigen information Bits und damit y 4, y 6, y 7 und y 8 die abhängigen redundanten Bits sind. Diese parity-check Matrix H wird bei der Decodierung dazu genutzt, um zu überprüfen, ob ein erhaltenes Codewort x zulässig ist. Dies ist genau dann der Fall, wenn H x = 0 gilt. Auch bei der Codierung benötigt man eine Matrix, und zwar die Generator Matrix G. Sie erzeugt aus zu sendenden binären Wörtern u zulässige binäre Codewörter y. Es gilt y = u T G. Dabei sind in unserem Beispiel x F 2 8 und u F 2 4. Aus den beiden Gleichungen für die Codierung und Decodierung folgt folgende Beziehung zwischen G und H: G T H = 0 Der (8,4,4) Code aus unserem Beispiel ist self-dual, das heißt, dass G = H ist. Damit ist G: G = Eine Bedingung für self-dual Codes ist, dass die Anzahl der information Bits gleich der Anzahl der redundanten Bits ist, damit beide Matrizen die gleiche Größe haben. 4

5 Die 4 Zeilen aus G werden Generatoren genannt. Jede Linearkombination dieser 4 Generatoren erzeugt ein zulässiges Codewort. Dies ist leicht einzusehen, da die möglichen Koeffizienten dieser Linearkombinationen Vektoren u F 2 4 entsprechen., also genau unseren zu codierenden binären Wörtern, Definition: Der span eines Codewortes ist definiert als das Intervall vom ersten bis zum letzten Eintrag in der Matrix, der ungleich 0 ist. Eine minimum-span generator Matrix oder auch trellis-oriented generator Matrix ist definiert als die Menge von k linear unabhängiger generators mit kürzest möglicher effektiver Länge. Dabei ist k gleich der Anzahl der unabhängigen information Bits. Theorem: Eine Menge von k linear unabhängiger Generatoren ist genau dann eine minimum-span generator Matrix, wenn die Start- und Endzeiten aller spans unterschiedlich sind. Beweis: => Wenn alle Start- und Endzeiten unterschiedlich sind, dann entsprechen die Start- und Endzeiten einer gegebenen Linearkombination (mit Koeffizient ungleich 0) einer bestimmten Teilmenge der generators den frühesten Start- und spätesten Endzeiten der generators aus der gegebenen Menge. Daraus folgt, dass die generators, die irgendein non-generator Codewort formen, eine effektive Länge haben, die nicht größer ist als die effektive Länge des Codewortes. Also sind die gegebenen generaotrs tatsächlich die, deren effektive Längen so klein wie möglich sind. <= Wenn zwei Start- oder Endzeiten nicht verschieden sind, dann ist die Summe der zwei dazugehörigen generators ein Codewort, dessen effektive Länge kleiner ist als die Länge von mindestens einem der beiden generators. Wenn wir diesen generator durch das erhaltene Codewort ersetzen, erhalten wir eine Menge linear unabhängiger generators, von denen einer eine kürzere effektive Länge hat im Vergleich zu der ursprünglichen Menge, also war die ursprüngliche Menge nicht trellis-oriented. 5

6 Die Rückrichtung des Beweises bietet einen einfachen Greedy-Algorithmus an, um eine trellisoriented generator Matrix für eine gegebene generator Matrix zu finden: Sind die Start- oder Endzeiten zweier generators gleich, so ersetze den generator mit der größeren effektiven Länge durch die Summe der beiden generators, die notwendigerweise eine kürzere effektive Länge haben muss. Dieser Algorithmus reduziert in jedem Schritt die effektive Länge eines generators (und damit der Matrix) und muss daher nach endlich vielen Schritten ein einer trellis-oriented generator Matrix enden. G ist bereits eine minimum-span generator Matrix, nebenstehende Matrix ist keine solche Matrix G = G ' = Graphendarstellungen: 2.1 Trellis: In der Trellisdarstellung betrachtet man das Codewort bitweise von vorne nach hinten. Zuerst befindet man sich im Zustand Null. Das erste Bit kann Werte 0 oder 1 annehmen, daher führen aus Zustand 0 zwei Kanten in zwei neue Zustände zum Zeitpunkt t=1. Für das zweite und das dritte Bit hat man jeweils auch wieder die Möglichkeit 0 oder 1. Die ersten drei Bits bestimmen den Wert des Vierten, daher hat man für das vierte Bit nur eine Möglichkeit. Außerdem, wenn man den Weg (0,0,0,0) und den Weg (1,1,1,1) betrachtet und die Werte in die Constraintgleichungen einsetzt, stellt man fest, dass es für die Bits 5 bis 8 keinen Unterschied macht ob man nun (0,0,0,0) oder (1,1,1,1) gegangen ist. Daher führen diese beiden Codeanfänge zum selben state. (-> Common future) Analog findet man die restlichen states bis zum Zeitpunkt t=8. Jeder Weg in dem Graphen von links nach rechts stellt ein zulässiges Codewort da und jedes zulässige Codewort findet sich als Weg im 6

7 Graphen. Im Bild sind die Nullen rot und die Einsen blau. 2.2 Factor Graph Von der Generatormatrix zum Faktorgraph: G = Für jede Spalte der Matrix hat man einen Constraintknoten. An jeden Knoten i fügt man einen Dongle y i In einer Spalte i in der der Span einer Zeile beginnt wird ein Dongle angefügt. Die Werte der u i werden weitergeleitet, bis der Span beendet ist. u1 u2 u3 u4 C C C C C C C C y1 y2 y3 y4 y5 y6 y7 y8 7

8 Die Kanten zwischen zwei Knoten werden in einem Knoten zusammengefasst und die Eingänge u i weggelassen. So erhalten wir den Faktorgraph: C (2,1) C C C C C C C (4,2) (6,3) (6,3) (6,3) (6,3) (4,2) (2,1) Die ersten Zahl des Tupels gibt das state space profile an, die zweite das branch space profile. State space profile: Anzahl der Variablen die mit diesem Constraintknoten verbunden sind. Branch space profile: log 2 der Anzahl Kanten an dieser Stelle im Trellis. 2.3 Normal Graph: Definition: Ein normal graph ist ein Graph, in dem jede symbol variable Grad 1 und jede state variable Grad 2 hat. Symbol variables werden durch einen dongle dargestellt, state variables durch Kanten. C C C C C C C (2,1) (4,2) (6,3) (6,3) (6,3) (6,3) (4,2) (2,1) C 8

9 3. Algorithmus 3.1 Cut Set Bound: Past-Future Decomposition: Y P Y F Durch Gruppieren von je vier symbol variables zu je einem CP CF dongle und gruppieren von je vier Constraints aus dem normal graph zu Superconstraints erhalten wir diesen Graphen. Die state variable kann vier verschiedene Werte annehmen, entsprechend der Dimension des mittleren states im Trellis. Y P ={y 1, y 2, y 3, y 4 } Y P ={y 5, y 6, y 7, y 8 } Für einen Wert s j der state variable ist die Menge der Codewörter konsistent mit s j gleich Y P s j Y F s j. Theorem: Cut-set-bound Gegeben sei eine graphische Realisierung eines Codes C und ein cut-set X, dann ist die Größe des Alphabets (hier 0,1 n ) von unten begrenzt durch die minimal state space size eines trellis an der selben Trennstelle. Daraus folgt: Die Komplexität kreisfreier Graphen ist von unten beschränkt. 9

10 Beispiel: (24,12,8) Code, einmal als kreisfreier normal graph, einmal mit Kreis. Die Alphabetgröße der Kanten reduziert sich von 256 auf = = Sum-Product Algorithmus: Wir entwickeln den Sum-Product Algorithmus als einen APP decodierenden Algorithmus für einen Code C, der eine kreisfreie normal graph realization besitzt. Dabei steht APP für a posteriori probability. Zunächst einige grundlegende Notationen: Notationen: Menge der symbol variables: {Y i, i I } erhaltene Vektoren: r = {r i, i I } Codewort: y = {y i, i I } likelihood Vectoren: {{p r i y i, y i i },i I }, wobei i das Alphabet von Y i ist Daraus ergibt sich das likelihood eines Codewortes y = {y i, i I } C als komponentenweises Produkt pr y = i I pr i y i. 10

11 Nimmt man gleichwahrscheinliche Codewörter an, dann sind die APPs {p y r, y C } proportional zu den likelihoods {pr y, y C } nach Bayes Gesetz: p y r= p r y p y p r y, p r y C p y r ist die Wahrscheinlichkeit für ein Codewort y, wenn r empfangen wurde. pr y ist die Wahrscheinlichkeit, dass wenn y gesendet wurde, man r empfängt. Sei C i y i die Teilmenge der Codewörter, in denen die symbol variable y i den Wert y i i annimmt. Der symbol APP Vektor {py i = y i r, y i i } ist dann gegeben durch: py i = y i r= y C i y i p y r y Ci y i pr y = y Ci y i i I p r i y i, y i i Genauso kann man es für die states entwickeln: Sei C j s j die Teilmenge der Codewörter, die konsistent sind mit der state variable j, die den Wert s j aus dem Alphabet S j annimmt. Dann ist der APP Vektor {p j =s j r, s j S j } gegeben durch: p j = s j r y C j s j i I p r i y i, s j S j Es gibt zwei grundlegende Regeln für den Algorithmus: 1. Past-future decomposition rule 2. Sum-product update rule Past future decomposition rule: Die Regel basiert auf der Cartesian-product decomposition der Cut-set bound. Da wir ja nur den Fall eines kreisfreien Graphen betrachten, ist jede Kante j ein cut-set. Das kartesische Produkt C j s j = Y P s j Y F s j gibt die Teilmenge der Codewörter an, die konsistent sind mit der state variable j, die den Wert s j hat. P und F bezeichnen dabei die beiden Komponenten des nicht-zusammenhängenden Graphen, der aus dem Entfernen der Kante j resultiert ist. Y P s j und Y F s j Sind die Mengen der symbol Werte in jeder Komponente, die konsistent sind mit j mit dem Wert s j. 11

12 Cartesian-product distributive law: Für X, Y disjunkte, diskrete Mengen und f(x) und g(y) zwei Funktionen, die auf X und Y definiert sind, gilt: x, y X Y f xg y = x X f x y Y g y Daraus ergibt sich die past future decomposition rule für states: p j = s j r y F Y F s j i I F pr i y i y P Y F s j i I P pr i y i p j =s j r P p j =s j r F Der Sum-product Algorithmus berechnet die APP Vektoren von Past und Future getrennt und multipliziert sie dann komponentenweise, um {p j =s j r} zu erhalten. Die past future decomposition rule für symbol variable ist ähnlich: py i = y i r pr i y i y Ci y i i i pr i y i p y i r i p y i r i i Da symbol variables Grad 1 haben, ist eine der beiden Komponenten des Graphen, den man nach einem Schnitt erhält, die symbol variable selbst und die andere Komponente ist der gesamte restliche Graph. Der Term p y i r i wird oft intrinsic genannt und p y i r i i extrinsic. Beispiel: Die Wahrscheinlichkeiten, ob eine 0 oder eine 1 gesendet wurde, bekommt man zunächst vom Kanal. Sie seien hier folgendermaßen bezeichnet: p y i = 0 p i bezeichnet die Wahrscheinlichkeit, dass eine 0 gesendet wurde. p y i = 1 q i bezeichnet die Wahrscheinlichkeit, dass eine 1 gesendet wurde. Dann gilt: i p i oder q i gibt die Wahrscheinlichkeit für ein erhaltenes Codewort an. 12

13 y C i y i i p i oder q i gibt die Wahrscheinlichkeit für alle Codewörter, die an Stelle i den Wert y i annehmen, an. Betrachten wir zum besseren Verständnis folgenden Teil unseres trellis. Hierbei bezeichnet der state 00 den state, an dem die Wege 0000 und 1111 zusammen treffen. Da wir die dazwischenliegenden states weggelassen haben, wird 00 super state genannt. Den Teil links vom state 00 bezeichen wir als past, den Teil rechts als future. In folgender Tabelle kann man die Wahrscheinlichkeiten für die 4 möglichen Codewörter ablesen: Y 1,...,4 Past state Y 5,...,8 Future p 1... p 8 p 1... p 4 q 5... q 8 q 1... q 4 p 5... p 8 q 1... q 8 Insgesamt benötigt man 32 Multiplikationen. Um jetzt zusätzlich die Wahrscheinlichkeit der Codewörter zu berechnen, die konsistent mit dem state 00 sind, müssen wir die 4 Einzelwahrscheinlichkeiten noch addieren und benötigen damit weitere 3 Additionen. Mit der past-future decomposition rule kann man die Berechnung allerdings auf 16 Multiplikationen und 2 Additionen reduzieren, wenn man zunächst past und future unabhängig von einander berechnet und dann miteinander multipliziert: p 1 p 2 p 3 p 4 q 1 q 2 q 3 q 4 p 5 p 6 p 7 p 8 q 5 q 6 q 7 q 8 13

14 Sum-product update rule: p j =s j r P = Ck s j j K p j =s jk j r P j Es handelt sich hierbei um eine lokale Regel für die Berechnung eines APP Vektors aus APP Vektoren, die eine Stufe zurück liegen. Wir können erst dann einen APP Vektor, also eine ausgehende Nachricht im Graphen, berechnen, wenn alle ankommenden Nachrichten eingegangen sind. Beispiel: Erst, wenn 1, 2, und 3 angekommen sind, kann der Knoten mit der constraint C berechnen. Der Algorithmus: Für jede Kante in dem Graphen wollen wir 2 APP Vektoren berechnen, jeweils einen für past und future. (Man kann sie sich als 2 Nachrichten vorstellen, die in die entgegengesetzten Richtungen geschickt werden.) Mit der sum-product update rule kann jede Nachricht berechnet werden, nachdem alle upstream Nachrichten an dem upstream Knoten angekommen sind. Jeder Knoten berechnet also eine ausgehende Nachricht an jeder Kante, nachdem er an allen anderen Kanten die eingehenden Nachrichten erhalten hat. Wenn man dann an allen Kanten 2 Nachrichten hat, können alle APPs mit der past-future decomposition rule berechnet werden. 14

15 Beispiel: In diesem Beispiel betrachten wir einen (zunächst) kreisfreien normal graph (- die gestrichelte Linie gehört erst einmal nicht dazu -) mit 4 symbol variables. Die APPs der symbol variables, die von außen (vom Kanal) gegeben sind, kommen zum Zeitpunkt 0 in den Knoten C 1, C 2, C 5 und C 6 an. Dann werden zum Zeitpunkt 1 die neu berechneten Nachrichten an die Knoten C 3 und C 4 geschickt. Damit der Knoten C 4 seine Nachrichten an die Knoten C 1, C 5 und C 6 schicken kann, benötigt er noch die Nachricht von Knoten C 3, nach der sum-product update rule. Da der Knoten C 4 aber bereits die Nachrichten von den Knoten C 1, C 5 und C 6 bekommen hat, kann er zum Zeitpunkt 2 eine Nachricht an Knoten C 3 schicken, der zum selben Zeitpunkt eine Nachricht in entgegengesetzte Richtung schickt. Zum Zeitpunkt 3 schicken dann C 3 und C 4 Nachrichten an C 1, C 2, C 5 und C 6, so dass zum Zeitpunkt 4 bei allen symbol variables die APPs ankommen, die vom System/ Graphen berechnet wurden. Die Multiplikation der beiden APPs ergibt dann den neuen APP Vektor für jede symbol variable. Betrachtet man nun den Graphen inklusive der gestrichelten Linie, so enthält der Graph jetzt einen Kreis C 1 C 4 C 6. Dann würde auch eine Nachricht von C 1 an C 6 und von C 6 an C 1 geschickt werden. Nun gibt es aber ein Problem: Um die Nachricht von C 6 an C 4 zu berechnen, braucht C 6 die Nachricht von C 1. Dafür braucht C 1 aber die Nachricht von C 4 und C 4 die von C 6. Damit haben wir einen Kreis und keine der Nachrichten kann mit den Regeln berechnet werden. (Genauso gilt es für die andere Richtung der Nachrichten.) 15

16 BCJR Algorithmus: (Bahl-Cocke-Jelinek-Raviv) Der BCJR Algorithmus ist eine Form des Sum-product Algorithmus, der auf einem chain-graph of a trellis läuft. Hier ein Teil eines solchen Graphen zur Veranschaulichung: Y 0 Y 1 Y 2 Y 3 Y 4 C 0 ε 0 ι 0 α 1 C 1 ε 1 ι 1 α 2 C 2 ε 2 ι 2 α 3 C 3 ε 3 ι 3 α 4 ι 4 C 4 ε 4 β 1 β 2 β 3 β 4 Y 0,... Y 4 sind die symbol variables, C 0,... C 4 repräsentieren constraints. Die Input Nachrichten sind die intrinsic APP Vektoren 0,... 4 und die Output Nachrichten sind die extrinsic APP Vektoren 0, Die Nachrichten dazwischen sind die vorwärts state APP Vektoren 0,... 4 und die rückwärts state APP Vektoren 0, Der Algorithmus läuft unabhängig vorwärts und rückwärts. In der Vorwärtsrichtung werden die j von links nach rechts mit der sum-product update rule aus den Nachrichten j 1 und j 1 berechnet. In der Rückwärtsrichtung werden die j von rechts nach links mit der sum-product update rule aus j 1 und j berechnet. Jede Output Nachricht i kann dann mit der sum-product update rule aus den Nachrichten i und i1 berechnet werden. Um dann die APP Vektoren einer input symbol Y i zu finden, müssen die Nachrichten i und i nach der past-future decomposition rule komponentenweise miteinander multipliziert werden. Genauso müssen j und j komponentenweise miteinander multipliziert werden, um die APP Vektoren einer state variable j zu finden. 16

17 3.3 Belief Propagation: Der Belief Propagation Algorithmus arbeitet auf dem Tannergraphen Der Tannergraph enthält für jede Gleichung einen Constraint-Knoten und für jedes Bit des Codeworts einen Symbol-knoten. Kommt ein Bit in einer Gleichung vor so sind die jeweiligen Knoten durch eine Kante verbunden. Der Tannergraph wird modifiziert: Die Constraintknoten sind hier +-Constraints. Für jede symbol variable wird ein neuer =-Constraintknoten eingeführt und die symbol variable als dongle angehängt = = = = = = = = 17

18 Kleines Beispiel: y 0 + y 1 y 2 y 0 y 1 y p 0 p p 0 q q 0 p q 0 q 1 p i =P y i =0 r q i =P y i =1 r Gesucht ist die Wahrscheinlichkeit für den Wert von y 2, unter der Bedingung derer von y 0 und y 1. P y 2 =0 r= p 0 p 1 q 0 q 1 P y 2 =1 r= p 0 q 1 q 0 p 1 Da es nur zwei Möglichkeiten für den Wert eines Bits gibt, reicht es den Quotienten der Wahrscheinlichkeiten zu betrachten. y0 =ln p 0 q 0 y 1 =ln p 1 q 1 y 2 =ln p 0 p 1 q 0 q 1 p 0 q 1 q 0 p 1 Mit etwas Rechnen kommt man auf y 2 =2 artanh tanh 0 2 tanh 1 2 Der Wahrscheinlichkeitskoeffizient für für ein Bit wird also von den anderen bestimmt. Was ist nun, wenn es in dem Graphen Kreise gibt? Ein Bit beeinflusst dann die Information, die es über sich selbst aus dem Graphen bekommt. Der Algorithmus arbeitet nicht exakt. Daher sucht man Tannergraphen mit möglichst langem kleinsten Kreis um diesen Effekt zu minimieren. 18

Einführung in die Kodierungstheorie

Einführung in die Kodierungstheorie Einführung in die Kodierungstheorie Einführung Vorgehen Beispiele Definitionen (Code, Codewort, Alphabet, Länge) Hamming-Distanz Definitionen (Äquivalenz, Coderate, ) Singleton-Schranke Lineare Codes Hamming-Gewicht

Mehr

Theoretische Grundlagen der Informatik WS 09/10

Theoretische Grundlagen der Informatik WS 09/10 Theoretische Grundlagen der Informatik WS 09/10 - Tutorium 6 - Michael Kirsten und Kai Wallisch Sitzung 13 02.02.2010 Inhaltsverzeichnis 1 Formeln zur Berechnung Aufgabe 1 2 Hamming-Distanz Aufgabe 2 3

Mehr

KANALCODIERUNG AUFGABEN. Aufgabe 1. Aufgabe 2

KANALCODIERUNG AUFGABEN. Aufgabe 1. Aufgabe 2 AUFGABEN KANALCODIERUNG Aufgabe Wir betrachten den Hamming-Code mit m = 5 Prüfbits. a) Wie gross ist die Blocklänge n dieses Codes? b) Wie viele gültige Codewörter umfasst dieser Code? c) Leiten Sie die

Mehr

6 Fehlerkorrigierende Codes

6 Fehlerkorrigierende Codes R. Reischuk, ITCS 35 6 Fehlerkorrigierende Codes Wir betrachten im folgenden nur Blockcodes, da sich bei diesen das Decodieren und auch die Analyse der Fehlertoleranz-Eigenschaften einfacher gestaltet.

Mehr

3 Der Hamming-Code. Hamming-Codes

3 Der Hamming-Code. Hamming-Codes 3 Der Hamming-Code Hamming-Codes Ein binärer Code C heißt ein Hamming-Code Ha s, wenn seine Kontrollmatrix H als Spalten alle Elemente in Z 2 s je einmal hat. Die Parameter eines n-k-hamming-codes sind:

Mehr

Elemente der Analysis II

Elemente der Analysis II Elemente der Analysis II Kapitel 3: Lineare Abbildungen und Gleichungssysteme Informationen zur Vorlesung: http://www.mathematik.uni-trier.de/ wengenroth/ J. Wengenroth () 15. Mai 2009 1 / 35 3.1 Beispiel

Mehr

Codierungstheorie Rudolf Scharlau, SoSe 2006 9

Codierungstheorie Rudolf Scharlau, SoSe 2006 9 Codierungstheorie Rudolf Scharlau, SoSe 2006 9 2 Optimale Codes Optimalität bezieht sich auf eine gegebene Quelle, d.h. eine Wahrscheinlichkeitsverteilung auf den Symbolen s 1,..., s q des Quellalphabets

Mehr

3 Quellencodierung. 3.1 Einleitung

3 Quellencodierung. 3.1 Einleitung Source coding is what Alice uses to save money on her telephone bills. It is usually used for data compression, in other words, to make messages shorter. John Gordon 3 Quellencodierung 3. Einleitung Im

Mehr

1. Woche Einführung in die Codierungstheorie, Definition Codes, Präfixcode, kompakte Codes

1. Woche Einführung in die Codierungstheorie, Definition Codes, Präfixcode, kompakte Codes 1 Woche Einführung in die Codierungstheorie, Definition Codes, Präfixcode, kompakte Codes 1 Woche: Einführung in die Codierungstheorie, Definition Codes, Präfixcode, kompakte Codes 5/ 44 Unser Modell Shannon

Mehr

4. Woche Decodierung; Maximale, Perfekte und Optimale Codes. 4. Woche: Decodierung; Maximale, Perfekte und Optimale Codes 69/ 140

4. Woche Decodierung; Maximale, Perfekte und Optimale Codes. 4. Woche: Decodierung; Maximale, Perfekte und Optimale Codes 69/ 140 4 Woche Decodierung; Maximale, Perfekte und Optimale Codes 4 Woche: Decodierung; Maximale, Perfekte und Optimale Codes 69/ 140 Szenario für fehlerkorrigierende Codes Definition (n, M)-Code Sei C {0, 1}

Mehr

IV. Spieltheorie. H. Weber, FHW, OR SS07, Teil 7, Seite 1

IV. Spieltheorie. H. Weber, FHW, OR SS07, Teil 7, Seite 1 IV. Spieltheorie 1. Gegenstand der Spieltheorie 2. Einführung in Matrixspiele 3. Strategien bei Matrixspielen 4. Weitere Beispiele 5. Mögliche Erweiterungen H. Weber, FHW, OR SS07, Teil 7, Seite 1 1. Gegenstand

Mehr

16. All Pairs Shortest Path (ASPS)

16. All Pairs Shortest Path (ASPS) . All Pairs Shortest Path (ASPS) All Pairs Shortest Path (APSP): Eingabe: Gewichteter Graph G=(V,E) Ausgabe: Für jedes Paar von Knoten u,v V die Distanz von u nach v sowie einen kürzesten Weg a b c d e

Mehr

Lineare Codes. Dipl.-Inform. Wolfgang Globke. Institut für Algebra und Geometrie Arbeitsgruppe Differentialgeometrie Universität Karlsruhe 1 / 19

Lineare Codes. Dipl.-Inform. Wolfgang Globke. Institut für Algebra und Geometrie Arbeitsgruppe Differentialgeometrie Universität Karlsruhe 1 / 19 Lineare Codes Dipl.-Inform. Wolfgang Globke Institut für Algebra und Geometrie Arbeitsgruppe Differentialgeometrie Universität Karlsruhe 1 / 19 Codes Ein Code ist eine eindeutige Zuordnung von Zeichen

Mehr

Seminararbeit für das SE Reine Mathematik- Graphentheorie

Seminararbeit für das SE Reine Mathematik- Graphentheorie Seminararbeit für das SE Reine Mathematik- Graphentheorie Der binäre Rang, der symplektische Graph, die Spektralzerlegung und rationale Funktionen Vortrag am 24.01.2012 Heike Farkas 0410052 Inhaltsverzeichnis

Mehr

Single Parity check Codes (1)

Single Parity check Codes (1) Single Parity check Codes (1) Der Single Parity check Code (SPC) fügt zu dem Informationsblock u = (u 1, u 2,..., u k ) ein Prüfbit (englisch: Parity) p hinzu: Die Grafik zeigt drei Beispiele solcher Codes

Mehr

Graphen: Einführung. Vorlesung Mathematische Strukturen. Sommersemester 2011

Graphen: Einführung. Vorlesung Mathematische Strukturen. Sommersemester 2011 Graphen: Einführung Vorlesung Mathematische Strukturen Zum Ende der Vorlesung beschäftigen wir uns mit Graphen. Graphen sind netzartige Strukturen, bestehend aus Knoten und Kanten. Sommersemester 20 Prof.

Mehr

Fehlerkorrigierende Codes

Fehlerkorrigierende Codes Fehlerkorrigierende Codes SS 2013 Gerhard Dorfer 2 Inhaltsverzeichnis 1 Fehlerkorrigierende Codes 4 1.1 Einführende Beispiele................................. 4 1.2 Mathematische Grundlagen..............................

Mehr

Codierung, Codes (variabler Länge)

Codierung, Codes (variabler Länge) Codierung, Codes (variabler Länge) A = {a, b, c,...} eine endliche Menge von Nachrichten (Quellalphabet) B = {0, 1} das Kanalalphabet Eine (binäre) Codierung ist eine injektive Abbildung Φ : A B +, falls

Mehr

Frank Weinhold Professur VSR Fakultät für Informatik TU Chemnitz Mai 2011

Frank Weinhold Professur VSR Fakultät für Informatik TU Chemnitz Mai 2011 Rechnernetze Übung 5 Frank Weinhold Professur VSR Fakultät für Informatik TU Chemnitz Mai 2011 Ziel: Nachrichten fehlerfrei übertragen und ökonomisch (wenig Redundanz) übertragen Was ist der Hamming-Abstand?

Mehr

OPERATIONS-RESEARCH (OR)

OPERATIONS-RESEARCH (OR) OPERATIONS-RESEARCH (OR) Man versteht darunter die Anwendung mathematischer Methoden und Modelle zur Vorbereitung optimaler Entscheidungen bei einem Unternehmen. Andere deutsche und englische Bezeichnungen:

Mehr

Lösungen zum 3. Aufgabenblatt

Lösungen zum 3. Aufgabenblatt SS, Lineare Algebra Die Lösungen wurden erstellt von: Isabel Voigt, Vanessa Lamm und Matthias Rehder Hinweis: Eine Liste der zur Bearbeitung verwendeten Literatur ist unter www.mathematiwelt.com aufrufbar.

Mehr

Empfänger. Sender. Fehlererkennung und ggf. Fehlerkorrektur durch redundante Informationen. Längssicherung durch Paritätsbildung (Blockweise)

Empfänger. Sender. Fehlererkennung und ggf. Fehlerkorrektur durch redundante Informationen. Längssicherung durch Paritätsbildung (Blockweise) Datensicherung Bei der digitalen Signalübertragung kann es durch verschiedene Einflüsse, wie induktive und kapazitive Einkopplung oder wechselnde Potentialdifferenzen zwischen Sender und Empfänger zu einer

Mehr

Codes und Codegitter. Katharina Distler. 27. April 2015

Codes und Codegitter. Katharina Distler. 27. April 2015 Codes und Codegitter Katharina Distler 7. April 015 Inhaltsverzeichnis 1 Codes 4 Codegitter 14 Einleitung Die folgende Seminararbeit behandelt das Konzept von Codes und Codegittern. Da sie bei der Informationsübertragung

Mehr

Formelsammlung. Wahrscheinlichkeit und Information

Formelsammlung. Wahrscheinlichkeit und Information Formelsammlung Wahrscheinlichkeit und Information Ein Ereignis x trete mit der Wahrscheinlichkeit p(x) auf, dann ist das Auftreten dieses Ereignisses verbunden mit der Information I( x): mit log 2 (z)

Mehr

0, v 6 = 2 2. 1, v 4 = 1. 2. span(v 1, v 5, v 6 ) = span(v 1, v 2, v 3, v 4, v 5, v 6 ) 4. span(v 1, v 2, v 4 ) = span(v 2, v 3, v 5, v 6 )

0, v 6 = 2 2. 1, v 4 = 1. 2. span(v 1, v 5, v 6 ) = span(v 1, v 2, v 3, v 4, v 5, v 6 ) 4. span(v 1, v 2, v 4 ) = span(v 2, v 3, v 5, v 6 ) Aufgabe 65. Ganz schön span(n)end. Gegeben sei folgende Menge M von 6 Vektoren v, v,..., v 6 R 4 aus Aufgabe P 6: M = v =, v =, v =, v 4 =, v 5 =, v 6 = Welche der folgenden Aussagen sind wahr? span(v,

Mehr

Wie Google Webseiten bewertet. François Bry

Wie Google Webseiten bewertet. François Bry Wie Google Webseiten bewertet François Bry Heu6ge Vorlesung 1. Einleitung 2. Graphen und Matrizen 3. Erste Idee: Ranking als Eigenvektor 4. Fragen: Exisi6ert der Eigenvektor? Usw. 5. Zweite Idee: Die Google

Mehr

LU-Zerlegung. Zusätze zum Gelben Rechenbuch. Peter Furlan. Verlag Martina Furlan. Inhaltsverzeichnis. 1 Definitionen.

LU-Zerlegung. Zusätze zum Gelben Rechenbuch. Peter Furlan. Verlag Martina Furlan. Inhaltsverzeichnis. 1 Definitionen. Zusätze zum Gelben Rechenbuch LU-Zerlegung Peter Furlan Verlag Martina Furlan Inhaltsverzeichnis Definitionen 2 (Allgemeine) LU-Zerlegung 2 3 Vereinfachte LU-Zerlegung 3 4 Lösung eines linearen Gleichungssystems

Mehr

Kapitel 15. Lösung linearer Gleichungssysteme

Kapitel 15. Lösung linearer Gleichungssysteme Kapitel 15. Lösung linearer Gleichungssysteme Lineare Gleichungssysteme Wir befassen uns nun mit der Lösung im allgemeinen nichthomogener linearer Gleichungssysteme in zweifacher Hinsicht. Wir studieren

Mehr

Übung zur Vorlesung. Informationstheorie und Codierung

Übung zur Vorlesung. Informationstheorie und Codierung Übung zur Vorlesung Informationstheorie und Codierung Prof. Dr. Lilia Lajmi Juni 25 Ostfalia Hochschule für angewandte Wissenschaften Hochschule Braunschweig/Wolfenbüttel Postanschrift: Salzdahlumer Str.

Mehr

Kommentierte Musterlösung zur Klausur HM I für Naturwissenschaftler

Kommentierte Musterlösung zur Klausur HM I für Naturwissenschaftler Kommentierte Musterlösung zur Klausur HM I für Naturwissenschaftler Wintersemester 3/4 (.3.4). (a) Für z = + i und z = 3 4i berechne man z z und z z. Die Ergebnisse sind in kartesischer Form anzugeben.

Mehr

4 Greedy-Algorithmen (gierige Algorithmen)

4 Greedy-Algorithmen (gierige Algorithmen) Greedy-Algorithmen (gierige Algorithmen) Greedy-Algorithmen werden oft für die exakte oder approximative Lösung von Optimierungsproblemen verwendet. Typischerweise konstruiert ein Greedy-Algorithmus eine

Mehr

S=[n] Menge von Veranstaltungen J S kompatibel mit maximaler Größe J

S=[n] Menge von Veranstaltungen J S kompatibel mit maximaler Größe J Greedy-Strategie Definition Paradigma Greedy Der Greedy-Ansatz verwendet die Strategie 1 Top-down Auswahl: Bestimme in jedem Schritt eine lokal optimale Lösung, so dass man eine global optimale Lösung

Mehr

Teil III: Routing - Inhalt I. Literatur. Geometric Routing. Voraussetzungen. Unit Disk Graph (UDG) Geometric Routing 29

Teil III: Routing - Inhalt I. Literatur. Geometric Routing. Voraussetzungen. Unit Disk Graph (UDG) Geometric Routing 29 1 29 Teil III: Routing - Inhalt I Literatur Compass & Face Routing Bounded & Adaptive Face Routing Nicht Ω(1) UDG E. Kranakis, H. Singh und Jorge Urrutia: Compass Routing on Geometric Networks. Canadian

Mehr

9 Codes. Hochschule für Angewandte Wissenschaften Hamburg FACHBEREICH ELEKTROTECHNIK UND INFORMATIK DIGITALTECHNIK 9-1

9 Codes. Hochschule für Angewandte Wissenschaften Hamburg FACHBEREICH ELEKTROTECHNIK UND INFORMATIK DIGITALTECHNIK 9-1 9 Codes 9.1 Charakterisierung und Klassifizierung Definition: Das Ergebnis einer eindeutigen Zuordnung zweier Zeichen- bzw. Zahlenmengen wird Code genannt. Die Zuordnung erfolgt über eine arithmetische

Mehr

Binäre lineare Optimierung mit K*BMDs p.1/42

Binäre lineare Optimierung mit K*BMDs p.1/42 Binäre lineare Optimierung mit K*BMDs Ralf Wimmer wimmer@informatik.uni-freiburg.de Institut für Informatik Albert-Ludwigs-Universität Freiburg Binäre lineare Optimierung mit K*BMDs p.1/42 Grundlagen Binäre

Mehr

t r Lineare Codierung von Binärbbäumen (Wörter über dem Alphabet {, }) Beispiel code( ) = code(, t l, t r ) = code(t l ) code(t r )

t r Lineare Codierung von Binärbbäumen (Wörter über dem Alphabet {, }) Beispiel code( ) = code(, t l, t r ) = code(t l ) code(t r ) Definition B : Menge der binären Bäume, rekursiv definiert durch die Regeln: ist ein binärer Baum sind t l, t r binäre Bäume, so ist auch t =, t l, t r ein binärer Baum nur das, was durch die beiden vorigen

Mehr

2.1 Codes: einige Grundbegriffe

2.1 Codes: einige Grundbegriffe Gitter und Codes c Rudolf Scharlau 2. Mai 2009 51 2.1 Codes: einige Grundbegriffe Wir stellen die wichtigsten Grundbegriffe für Codes über dem Alphabet F q, also über einem endlichen Körper mit q Elementen

Mehr

x 2 x 1 x 3 5.1 Lernen mit Entscheidungsbäumen

x 2 x 1 x 3 5.1 Lernen mit Entscheidungsbäumen 5.1 Lernen mit Entscheidungsbäumen Falls zum Beispiel A = {gelb, rot, blau} R 2 und B = {0, 1}, so definiert der folgende Entscheidungsbaum eine Hypothese H : A B (wobei der Attributvektor aus A mit x

Mehr

Ein (7,4)-Code-Beispiel

Ein (7,4)-Code-Beispiel Ein (7,4)-Code-Beispiel Generator-Polynom: P(X) = X 3 + X 2 + 1 Bemerkung: Es ist 7 = 2^3-1, also nach voriger Überlegung sind alle 1-Bit-Fehler korrigierbar Beachte auch d min der Codewörter ist 3, also

Mehr

Grundlagen der Technischen Informatik. 2. Übung

Grundlagen der Technischen Informatik. 2. Übung Grundlagen der Technischen Informatik 2. Übung Christian Knell Keine Garantie für Korrekt-/Vollständigkeit Organisatorisches Übungsblätter zuhause vorbereiten! In der Übung an der Tafel vorrechnen! Bei

Mehr

8 Diskrete Optimierung

8 Diskrete Optimierung 8 Diskrete Optimierung Definition 8.1. Ein Graph G ist ein Paar (V (G), E(G)) besteh aus einer lichen Menge V (G) von Knoten (oder Ecken) und einer Menge E(G) ( ) V (G) 2 von Kanten. Die Ordnung n(g) von

Mehr

Bestimmung einer ersten

Bestimmung einer ersten Kapitel 6 Bestimmung einer ersten zulässigen Basislösung Ein Problem, was man für die Durchführung der Simplexmethode lösen muss, ist die Bestimmung einer ersten zulässigen Basislösung. Wie gut das geht,

Mehr

Index. Chien-Suche, 220 CIRC, 234 Code, 2, 9 äquidistanter, 81

Index. Chien-Suche, 220 CIRC, 234 Code, 2, 9 äquidistanter, 81 Index Abelsche Gruppe, 140 Abgeschlossenheit, 47, 140, 143 Abhängigkeit lineare, 53 Abtastfolge, 226 ACS-Operation, 279 Addition, 46, 163 Alphabet, 1 ARQ, 6, 174 Assoziativität, 47, 52, 140, 143 Audio-CD,

Mehr

Rationale Zahlen. Vergleichen und Ordnen rationaler Zahlen

Rationale Zahlen. Vergleichen und Ordnen rationaler Zahlen Rationale Zahlen Vergleichen und Ordnen rationaler Zahlen Von zwei rationalen Zahlen ist die die kleinere Zahl, die auf der Zahlengeraden weiter links liegt.. Setze das richtige Zeichen. a) -3 4 b) - -3

Mehr

Steinerbäume. Seminarausarbeitung Hochschule Aalen Fakultät für Elektronik und Informatik Studiengang Informatik Schwerpunkt Software Engineering

Steinerbäume. Seminarausarbeitung Hochschule Aalen Fakultät für Elektronik und Informatik Studiengang Informatik Schwerpunkt Software Engineering Steinerbäume Seminarausarbeitung Hochschule Aalen Fakultät für Elektronik und Informatik Studiengang Informatik Schwerpunkt Software Engineering Verfasser Flamur Kastrati Betreuer Prof. Dr. habil. Thomas

Mehr

Anmerkungen zur Übergangsprüfung

Anmerkungen zur Übergangsprüfung DM11 Slide 1 Anmerkungen zur Übergangsprüfung Aufgabeneingrenzung Aufgaben des folgenden Typs werden wegen ihres Schwierigkeitsgrads oder wegen eines ungeeigneten fachlichen Schwerpunkts in der Übergangsprüfung

Mehr

Algorithmen II Vorlesung am 15.11.2012

Algorithmen II Vorlesung am 15.11.2012 Algorithmen II Vorlesung am 15.11.2012 Kreisbasen, Matroide & Algorithmen INSTITUT FÜR THEORETISCHE INFORMATIK PROF. DR. DOROTHEA WAGNER KIT Universität des Landes Baden-Württemberg und Algorithmen nationales

Mehr

6. Bayes-Klassifikation. (Schukat-Talamazzini 2002)

6. Bayes-Klassifikation. (Schukat-Talamazzini 2002) 6. Bayes-Klassifikation (Schukat-Talamazzini 2002) (Böhm 2003) (Klawonn 2004) Der Satz von Bayes: Beweis: Klassifikation mittels des Satzes von Bayes (Klawonn 2004) Allgemeine Definition: Davon zu unterscheiden

Mehr

Übung 13: Quellencodierung

Übung 13: Quellencodierung ZHAW, NTM, FS2008, Rumc, /5 Übung 3: Quellencodierung Aufgabe : Huffmann-Algorithmus. Betrachten Sie die folgende ternäre, gedächtnislose Quelle mit dem Symbolalphabet A = {A,B,C} und den Symbol-Wahrscheinlichkeiten

Mehr

Lineare Gleichungssysteme

Lineare Gleichungssysteme Brückenkurs Mathematik TU Dresden 2015 Lineare Gleichungssysteme Schwerpunkte: Modellbildung geometrische Interpretation Lösungsmethoden Prof. Dr. F. Schuricht TU Dresden, Fachbereich Mathematik auf der

Mehr

Grundlagen der Technischen Informatik. Codierung und Fehlerkorrektur. Kapitel 4.2

Grundlagen der Technischen Informatik. Codierung und Fehlerkorrektur. Kapitel 4.2 Codierung und Fehlerkorrektur Kapitel 4.2 Prof. Dr.-Ing. Jürgen Teich Lehrstuhl für Hardware-Software-Co-Design Technische Informatik - Meilensteine Informationstheorie Claude Elwood Shannon (geb. 1916)

Mehr

Neuronale Netze mit mehreren Schichten

Neuronale Netze mit mehreren Schichten Neuronale Netze mit mehreren Schichten Lehrstuhl für Künstliche Intelligenz Institut für Informatik Friedrich-Alexander-Universität Erlangen-Nürnberg (Lehrstuhl Informatik 8) Neuronale Netze mit mehreren

Mehr

Lineare Algebra und Lösung linearer zeitinvarianter Differentialgleichungssysteme

Lineare Algebra und Lösung linearer zeitinvarianter Differentialgleichungssysteme Übung Lineare Algebra und Lösung linearer zeitinvarianter Differentialgleichungssysteme Diese Übung beschäftigt sich mit Grundbegriffen der linearen Algebra. Im Speziellen werden lineare Abbildungen, sowie

Mehr

Informationsdarstellung im Rechner

Informationsdarstellung im Rechner Informationsdarstellung im Rechner Dr. Christian Herta 15. Oktober 2005 Einführung in die Informatik - Darstellung von Information im Computer Dr. Christian Herta Darstellung von Information im Computer

Mehr

Expander Graphen und Ihre Anwendungen

Expander Graphen und Ihre Anwendungen Expander Graphen und Ihre Anwendungen Alireza Sarveniazi Mathematisches Institut Universität Göttingen 21.04.2006 Alireza Sarveniazi (Universität Göttingen) Expander Graphen und Ihre Anwendungen 21.04.2006

Mehr

Information in einem Computer ist ein

Information in einem Computer ist ein 4 Arithmetik Die in den vorhergehenden Kapiteln vorgestellten Schaltungen haben ausschließlich einfache, Boole sche Signale verarbeitet. In diesem Kapitel wird nun erklärt, wie Prozessoren mit Zahlen umgehen.

Mehr

Def.: Sei Σ eine Menge von Zeichen. Die Menge Σ* aller Zeichenketten (Wörter) über Σ ist die kleinste Menge, für die gilt:

Def.: Sei Σ eine Menge von Zeichen. Die Menge Σ* aller Zeichenketten (Wörter) über Σ ist die kleinste Menge, für die gilt: 8. Grundlgen der Informtionstheorie 8.1 Informtionsgehlt, Entropie, Redundnz Def.: Sei Σ eine Menge von Zeichen. Die Menge Σ* ller Zeichenketten (Wörter) über Σ ist die kleinste Menge, für die gilt: 1.

Mehr

Scheduling und Lineare ProgrammierungNach J. K. Lenstra, D. B. Shmoys und É.

Scheduling und Lineare ProgrammierungNach J. K. Lenstra, D. B. Shmoys und É. Scheduling und Lineare ProgrammierungNach J. K. Lenstra, D. B. Shmoys und É. Tardos Janick Martinez Esturo jmartine@techfak.uni-bielefeld.de xx.08.2007 Sommerakademie Görlitz Arbeitsgruppe 5 Gliederung

Mehr

Numerisches Programmieren

Numerisches Programmieren Technische Universität München SS 2012 Institut für Informatik Prof Dr Thomas Huckle Dipl-Inf Christoph Riesinger Dipl-Math Alexander Breuer Dipl-Math Dipl-Inf Jürgen Bräckle Dr-Ing Markus Kowarschik Numerisches

Mehr

Advanced Encryption Standard. Copyright Stefan Dahler 20. Februar 2010 Version 2.0

Advanced Encryption Standard. Copyright Stefan Dahler 20. Februar 2010 Version 2.0 Advanced Encryption Standard Copyright Stefan Dahler 20. Februar 2010 Version 2.0 Vorwort Diese Präsentation erläutert den Algorithmus AES auf einfachste Art. Mit Hilfe des Wissenschaftlichen Rechners

Mehr

Mathematik II für Studierende der Informatik Kapitel. Kodierungstheorie

Mathematik II für Studierende der Informatik Kapitel. Kodierungstheorie Mathematik II für Studierende der Informatik Kapitel Kodierungstheorie Markus Junker Sommersemester 2011 (korrigierte Version vom Sommersemester 2012) Einführung, Beispiele, Definitionen Ausgangspunkt

Mehr

Entscheidungsbäume. Definition Entscheidungsbaum. Frage: Gibt es einen Sortieralgorithmus mit o(n log n) Vergleichen?

Entscheidungsbäume. Definition Entscheidungsbaum. Frage: Gibt es einen Sortieralgorithmus mit o(n log n) Vergleichen? Entscheidungsbäume Frage: Gibt es einen Sortieralgorithmus mit o(n log n) Vergleichen? Definition Entscheidungsbaum Sei T ein Binärbaum und A = {a 1,..., a n } eine zu sortierenden Menge. T ist ein Entscheidungsbaum

Mehr

Reihungen. Martin Wirsing. in Zusammenarbeit mit Matthias Hölzl und Nora Koch 11/03

Reihungen. Martin Wirsing. in Zusammenarbeit mit Matthias Hölzl und Nora Koch 11/03 Reihungen Martin Wirsing in Zusammenarbeit mit Matthias Hölzl und Nora Koch 11/03 2 Ziele Die Datenstruktur der Reihungen verstehen: mathematisch und im Speicher Grundlegende Algorithmen auf Reihungen

Mehr

Universität Koblenz-Landau, Abteilung Koblenz FB 4 Informatik. Seminar Entscheidungsverfahren für logische Theorien. Endliche Modelle.

Universität Koblenz-Landau, Abteilung Koblenz FB 4 Informatik. Seminar Entscheidungsverfahren für logische Theorien. Endliche Modelle. Universität Koblenz-Landau, Abteilung Koblenz FB 4 Informatik Seminar Entscheidungsverfahren für logische Theorien Tobias Hebel Koblenz, am 18.02.2005 Inhaltsverzeichnis 1 Einleitung... 3 2 Grundlagen...

Mehr

Lineare Programmierung

Lineare Programmierung Lineare Programmierung WS 2003/04 Rolle der Linearen Programmierung für das TSP 1954: Dantzig, Fulkerson & Johnson lösen das TSP für 49 US-Städte (ca. 6.2 10 60 mögliche Touren) 1998: 13.509 Städte in

Mehr

Der Huffman Algorithmus

Der Huffman Algorithmus Der Huffman Algorithmus Für das Folgende setzen wir voraus, dass die Quellensymbole q ν einem Alphabet {q μ } = {A, B, C,...} mit dem Symbolumfang M entstammen und statistisch voneinander unabhängig seien.

Mehr

Informatik I WS 07/08 Tutorium 24

Informatik I WS 07/08 Tutorium 24 Info I Tutorium 24 Informatik I WS 07/08 Tutorium 24 3.2.07 astian Molkenthin E-Mail: infotut@sunshine2k.de Web: http://infotut.sunshine2k.de Organisatorisches / Review is zum 2.2 müssen alle Praxisaufgaben

Mehr

Vorlesungsplan. Von Naïve Bayes zu Bayesischen Netzwerk- Klassifikatoren. Naïve Bayes. Bayesische Netzwerke

Vorlesungsplan. Von Naïve Bayes zu Bayesischen Netzwerk- Klassifikatoren. Naïve Bayes. Bayesische Netzwerke Vorlesungsplan 17.10. Einleitung 24.10. Ein- und Ausgabe 31.10. Reformationstag, Einfache Regeln 7.11. Naïve Bayes, Entscheidungsbäume 14.11. Entscheidungsregeln, Assoziationsregeln 21.11. Lineare Modelle,

Mehr

Modulabschlussklausur Analysis II

Modulabschlussklausur Analysis II Modulabschlussklausur Analysis II. Juli 015 Bearbeitungszeit: 150 min Aufgabe 1 [5/10 Punkte] Es sei a R und f a : R 3 R mit f a (x, y, z) = x cos(y) + z 3 sin(y) + a 3 + (z + ay a y) cos(x) a) Bestimmen

Mehr

Thema: Hamming-Codes. Titelblatt anonymisiert

Thema: Hamming-Codes. Titelblatt anonymisiert Thema: Hamming-Codes Titelblatt anonymisiert Hamming-Codes.Einführung in die Kodierungstheorie... 3. Grundlegendes über Codewörter... 3. Matrizen... 4.3 Die maßgebliche Stelle... 5.Grundlegende Ideen...5

Mehr

Optimalitätskriterien

Optimalitätskriterien Kapitel 4 Optimalitätskriterien Als Optimalitätskriterien bezeichnet man notwendige oder hinreichende Bedingungen dafür, dass ein x 0 Ω R n Lösung eines Optimierungsproblems ist. Diese Kriterien besitzen

Mehr

Gleichungen und Ungleichungen

Gleichungen und Ungleichungen Gleichungen Ungleichungen. Lineare Gleichungen Sei die Gleichung ax = b gegeben, wobei x die Unbekannte ist a, b reelle Zahlen sind. Diese Gleichung hat als Lösung die einzige reelle Zahl x = b, falls

Mehr

DIPLOMARBEIT. Titel der Diplomarbeit. Die Golay Codes. Verfasser. Daniel Eiwen. angestrebter akademischer Grad

DIPLOMARBEIT. Titel der Diplomarbeit. Die Golay Codes. Verfasser. Daniel Eiwen. angestrebter akademischer Grad DIPLOMARBEIT Titel der Diplomarbeit Die Golay Codes Verfasser Daniel Eiwen angestrebter akademischer Grad Magister der Naturwissenschaften (Mag.rer.nat) Wien, im Mai 2008 Studienkennzahl lt. Studienblatt:

Mehr

BITte ein BIT. Vom Bit zum Binärsystem. A Bit Of Magic. 1. Welche Werte kann ein Bit annehmen? 2. Wie viele Zustände können Sie mit 2 Bit darstellen?

BITte ein BIT. Vom Bit zum Binärsystem. A Bit Of Magic. 1. Welche Werte kann ein Bit annehmen? 2. Wie viele Zustände können Sie mit 2 Bit darstellen? BITte ein BIT Vom Bit zum Binärsystem A Bit Of Magic 1. Welche Werte kann ein Bit annehmen? 2. Wie viele Zustände können Sie mit 2 Bit darstellen? 3. Gegeben ist der Bitstrom: 10010110 Was repräsentiert

Mehr

Teil II. Schaltfunktionen

Teil II. Schaltfunktionen Teil II Schaltfunktionen 1 Teil II.1 Zahlendarstellung 2 b-adische Systeme Sei b IN mit b > 1 und E b = {0, 1,..., b 1} (Alphabet). Dann ist jede Fixpunktzahl z (mit n Vorkomma und k Nachkommastellen)

Mehr

Vorlesung 3 MINIMALE SPANNBÄUME

Vorlesung 3 MINIMALE SPANNBÄUME Vorlesung 3 MINIMALE SPANNBÄUME 72 Aufgabe! Szenario: Sie arbeiten für eine Firma, die ein Neubaugebiet ans Netz (Wasser, Strom oder Kabel oder...) anschließt! Ziel: Alle Haushalte ans Netz bringen, dabei

Mehr

Theoretische Informatik SS 04 Übung 1

Theoretische Informatik SS 04 Übung 1 Theoretische Informatik SS 04 Übung 1 Aufgabe 1 Es gibt verschiedene Möglichkeiten, eine natürliche Zahl n zu codieren. In der unären Codierung hat man nur ein Alphabet mit einem Zeichen - sagen wir die

Mehr

WS 2009/10. Diskrete Strukturen

WS 2009/10. Diskrete Strukturen WS 2009/10 Diskrete Strukturen Prof. Dr. J. Esparza Lehrstuhl für Grundlagen der Softwarezuverlässigkeit und theoretische Informatik Fakultät für Informatik Technische Universität München http://www7.in.tum.de/um/courses/ds/ws0910

Mehr

9.2. DER SATZ ÜBER IMPLIZITE FUNKTIONEN 83

9.2. DER SATZ ÜBER IMPLIZITE FUNKTIONEN 83 9.. DER SATZ ÜBER IMPLIZITE FUNKTIONEN 83 Die Grundfrage bei der Anwendung des Satzes über implizite Funktionen betrifft immer die folgende Situation: Wir haben eine Funktion f : V W und eine Stelle x

Mehr

Kompakte Graphmodelle handgezeichneter Bilder. Einbeziehung in Autentizierung und Bilderkennung

Kompakte Graphmodelle handgezeichneter Bilder. Einbeziehung in Autentizierung und Bilderkennung Kompakte Graphmodelle handgezeichneter Bilder Einbeziehung in Autentizierung und Bilderkennung Inhaltsverzeichnis 1 Einleitung Das graphische Model.1 Image Thinning................................. 3.

Mehr

Algebraische Kurven. Vorlesung 26. Die Schnittmultiplizität

Algebraische Kurven. Vorlesung 26. Die Schnittmultiplizität Prof. Dr. H. Brenner Osnabrück SS 2012 Algebraische Kurven Vorlesung 26 Die Schnittmultiplizität Es seien zwei ebene algebraische Kurven C,D A 2 K gegeben, die keine Komponente gemeinsam haben. Dann besteht

Mehr

SLAM. Simultaneous Localization and Mapping. KogSys-Sem-M2: Reading Club - SLAM - Andreas Habermann

SLAM. Simultaneous Localization and Mapping. KogSys-Sem-M2: Reading Club - SLAM - Andreas Habermann SLAM Simultaneous Localization and Mapping KogSys-Sem-M2: Reading Club - SLAM - Andreas Habermann Simultaneous Localization And Mapping SLAM Problematik SLAM Arten SLAM Methoden: (E)KF SLAM GraphSLAM Fast

Mehr

(Lineare) stochastische Optimierung

(Lineare) stochastische Optimierung (Lineare) stochastische Optimierung Bsp: Aus zwei Sorten Rohöl wird Benzin und Heizöl erzeugt. Die Produktivität sowie der Mindestbedarf (pro Woche) und die Kosten sind in folgender Tabelle angegeben:

Mehr

2 Die Darstellung linearer Abbildungen durch Matrizen

2 Die Darstellung linearer Abbildungen durch Matrizen 2 Die Darstellung linearer Abbildungen durch Matrizen V und V seien Vektorräume über einem Körper K. Hom K (V, V ) bezeichnet die Menge der K linearen Abbildungen von V nach V. Wir machen Hom K (V, V )

Mehr

Übungen zum Ferienkurs Lineare Algebra WS 14/15

Übungen zum Ferienkurs Lineare Algebra WS 14/15 Übungen zum Ferienkurs Lineare Algebra WS 14/15 Linearkombinationen, Basen, Lineare Abbildungen 2.1 Lineare Unabhängigkeit Sind die folgenden Vektoren linear unabhängig? (a) 1, 2, 3 im Q Vektorraum R (b)

Mehr

Property Testing in Graphen mit beschränktem Maximalgrad

Property Testing in Graphen mit beschränktem Maximalgrad Property Testing in Graphen mit beschränktem Maximalgrad Björn Schümann Seminar Graphentheorie und Kombinatorik WS 2007-08 Inhaltsverzeichnis 1 Einleitung 2 2 Allgemeine Aussagen zum Property Testing 3

Mehr

Post-quantum cryptography

Post-quantum cryptography Post-quantum cryptography Post-quantum cryptography 1. Komplexität & Quantencomputer 2. Kryptografie in Gittern 3. FHE Eine Revolution im Datenschutz? WIESO? KOMPLEXITÄT Public-Key-Kryptografie Grafiken:

Mehr

Der Golay-Code und das Leech-Gitter

Der Golay-Code und das Leech-Gitter Der Golay-Code und das Leech-Gitter Vortrag zum Seminar Gitter und Codes Nils Malte Pawelzik.5.5 Inhaltsverzeichnis Designs 3. Elementare Eigenschaften eines Designs und die Eindeutigkeit eines - (, 5,

Mehr

Vorkurs Mathematik Übungen zu Differentialgleichungen

Vorkurs Mathematik Übungen zu Differentialgleichungen Vorkurs Mathematik Übungen zu Differentialgleichungen Als bekannt setzen wir die folgenden Umformungen voraus: e ln(f(x)) = f(x) e f(x)+c = e f(x) e c e ln(f(x)) +c = f(x) e c = f(x) c f ( g(x) ) g (x)

Mehr

Werkstatt Multiplikation Posten: 8-Bit Multiplikation. Informationsblatt für die Lehrkraft. 8-Bit Multiplikation

Werkstatt Multiplikation Posten: 8-Bit Multiplikation. Informationsblatt für die Lehrkraft. 8-Bit Multiplikation Informationsblatt für die Lehrkraft 8-Bit Multiplikation Informationsblatt für die Lehrkraft Thema: Schultyp: Vorkenntnisse: Bearbeitungsdauer: 8-Bit Multiplikation (im Binärsystem) Mittelschule, technische

Mehr

Literatur. Dominating Set (DS) Dominating Sets in Sensornetzen. Problem Minimum Dominating Set (MDS)

Literatur. Dominating Set (DS) Dominating Sets in Sensornetzen. Problem Minimum Dominating Set (MDS) Dominating Set 59 Literatur Dominating Set Grundlagen 60 Dominating Set (DS) M. V. Marathe, H. Breu, H.B. Hunt III, S. S. Ravi, and D. J. Rosenkrantz: Simple Heuristics for Unit Disk Graphs. Networks 25,

Mehr

2 Lösungen "Peptide de novo Sequencing"

2 Lösungen Peptide de novo Sequencing Lösungen "Peptide de novo Sequencing". Algorithm : PeptideSequencingOnlySux Input: a spectrum M with array of masses M = {m, m,, m n }, Σ, µ : Σ R >0 Output: the peptide string of the spectrum begin peptide

Mehr

Kapitel 1: Codierungstheorie. 1.2 Quellcodierung 1.3 Fehlererkennende Codes 1.4 Fehlerkorrigierende Codes

Kapitel 1: Codierungstheorie. 1.2 Quellcodierung 1.3 Fehlererkennende Codes 1.4 Fehlerkorrigierende Codes Inhalt: 1.1 Einführung 1.2 Quellcodierung 1.3 Fehlererkennende Codes 1.4 Fehlerkorrigierende Codes 1.1 Einführung In In der der Codierungstheorie unterscheidet man man Quellcodierung und und Kanalcodierung.

Mehr

Lineare Codes. 17.1 Linearcodes

Lineare Codes. 17.1 Linearcodes Teil IV Codes 17 Lineare Codes Lineare Codes werden in Kommunikationssystemen zur sicheren Übertragung von Nachrichten eingesetzt, etwa in der Telekommunikation und bei der Speicherung von Daten auf Compact

Mehr

Kapitel 4. Euklidische Ringe und die Jordansche Normalform. 4.1 Euklidische Ringe

Kapitel 4. Euklidische Ringe und die Jordansche Normalform. 4.1 Euklidische Ringe Kapitel 4 Euklidische Ringe und die Jordansche Normalform 4.1 Euklidische Ringe Die Ringe der ganzen Zahlen, Z, sowie Polynomringe über Körpern, K[X], wobei K ein Körper ist, haben die folgenden Gemeinsamheiten:

Mehr

Teil 1: Digitale Logik

Teil 1: Digitale Logik Teil 1: Digitale Logik Inhalt: Boolesche Algebra kombinatorische Logik sequentielle Logik kurzer Exkurs technologische Grundlagen programmierbare logische Bausteine 1 Analoge und digitale Hardware bei

Mehr

Kompakte Graphmodelle handgezeichneter Bilder

Kompakte Graphmodelle handgezeichneter Bilder Kompakte Graphmodelle handgezeichneter Bilder Einbeziehung in Authentizierung und Bilderkennung Inhaltsverzeichnis Seminar Mustererkennung WS 006/07 Autor: Stefan Lohs 1 Einleitung 1 Das graphische Modell.1

Mehr

Technische Informatik - Eine Einführung

Technische Informatik - Eine Einführung Martin-Luther-Universität Halle-Wittenberg Fachbereich Mathematik und Informatik Lehrstuhl für Technische Informatik Prof. P. Molitor Ausgabe: 2005-02-21 Abgabe: 2005-02-21 Technische Informatik - Eine

Mehr