Codierungstheorie. Statt einer Einleitung. Rudolf Scharlau. 4. April 2006

Größe: px
Ab Seite anzeigen:

Download "Codierungstheorie. Statt einer Einleitung. Rudolf Scharlau. 4. April 2006"

Transkript

1 Codierungstheorie Rudolf Scharlau 4. April 2006 Statt einer Einleitung Im ersten Teil dieser Vorlesung folgen wir eng dem Buch Information and Coding theory von Gareth A. Jones und J. Mary Jones. Technische Bemerkung: Dieses Skript gibt es, um den Tafelanschrieb und das mitschreiben zu entlasten. Es ist aus einem Foliensatz zu dieser Vorlesung entstanden, der durch Erläuterungen und weitere Beispiel an der Tafel ergänzt wird. Für eine minimalsitische Mitschrift gibt es einen breiten Rand. i

2 Codierungstheorie Rudolf Scharlau, SoSe 2006 Codierung diskreter Quellen Gegenstand dieses Kapitels ist eine erste Einführung in die Codierung diskreter Signalquellen. Dabei bedeutet diskret, daß die Quelle oder Nachricht nur einen endlichen Zeichenvorrat benutzt, wie etwa geschriebener Text, im Gegensatz zu Sprache, Musik oder bewegten Bildern (real oder in einem analogen Audio- oder Video-Format). Die Codierung erfolgt in einem festen Alphabet, typischerweise z.b. nur aus zwei Symbolen 0 und bestehend. Die Codierung soll (zunächst) möglichst platzsparend sein: häufig auftretenden Symbolen werden kurze Codewörter und weniger häufig auftretenden Symbolen längere Codewörter zugeordnet. Eine technische Anwendung wäre die Speicherung auf einem zuverlässigem Medium oder eine nicht störanfällige Übertragung wie beim Morsen. Andere Codes wie der 7 oder 8 bit ASCII-Code beachten die Häufigkeit nicht. Längere Codewörter geben die Möglichkeit der Fehlererkennung oder -korrektur; das ist jedoch nicht Thema dieses ersten Kapitels, sondern wird erst später behandelt.. Grundbegriffe und Bezeichnungen Eine (Informations-)Quelle ist gegeben durch zwei Dinge das Quellalphabet S = {s, s 2,..., s q } eine Wahrscheinlichkeitsverteilung P r : S [0, ]. Wir schreiben kurz p i := Pr(s i ), es ist also q i= p i =. Genauer bestimmen diese Daten eine diskrete, gedächtnislose Quelle. Interpretation: Die von der Informationsquelle gesendete Nachricht ist eine Folge von zufälligen Symbolen aus S, genauer eine Folge X X 2...X n... unabhängiger Zufallsvariablen mit Werten in S und Wahrscheinlichkeitsverteilung P r. Beispiel. Die Nachricht wird fair gewürfelt: S = {, 2, 3, 4, 5, 6}, p i = 6, i =,...6. Beispiel.2 Das Wetter am Tag n: S = {gut, mittel, schlecht}, p i = 4, 2, 4. Beispiel.3 Deutscher Text: S = {a, b, c,...,z, }, q = 25, p i die relative Häufigkeit des i-ten Buchstabens in einem typischen Text. Obiges Modell ist wenig geeignet für dieses Beispiel: die Annahme der Unabhängigkeit der X i, d.h. aufeinanderfolgender Buchstaben, ist hier verletzt. Man benötigt Quellen mit Gedächtnis, modelliert durch abhängige Zufallsvariablen.

3 Codierungstheorie Rudolf Scharlau, SoSe Weitere Begriffe und Bezeichnungen Codealphabet T = {t, t 2,..., t r } Wort über T: endliche Folge w = t i t i2... t il T l (formal ein l-tupel, aber ohne Klammern geschrieben) w := l die Länge von w ε T 0 das leere Wort, ε = 0 T = n 0 T n, T + = n>0 T n Codierung: eine Abbildung c : S T +, s i w i sowie ihre Fortsetzung c : S T, s i s i2...s in w i w i2... w in Beispiel.4 T = Z 2 = {0, } sog. binärer Code S = {, 2, 3, 4, 5, 6}, c : S T die Binärdarstellung. Die Codierung von s = 5234 (5 Würfe des Würfels) ist c(s) = 0000 (ohne Trennzeichen!) Als Code C wird das Bild einer Codierung bezeichnet: C := c(s) = {w, w 2,..., w q } T Die w i heißen Codewörter. Ferner setzt man C := c(s ) = {c(s) s S }. Die Elemente von S sind als (mögliche) Nachrichten zu interpretieren, dementsprechend besteht C aus allen möglichen Codierungen (für die gegebene Codierungsregel c) von Nachrichten. Die durchschittliche Wortlänge l(c, P r) einer Quelle mit Code C und Wahrscheinlichkeitsverteilung Pr wird definiert als l(c, Pr) := w C Pr(w)l(w) = q p i w i (in den obigen Bezeichnungen). Im Fall der Gleichverteilung schreiben wir einfach l(c). Beispiel.5 Der Code C = {, 00,, 00, 0, } aus Beispiel.4 hat die durchschnittliche Wortlänge 4 6 = 7 3 i=.2 Eindeutig decodierbare Codes heißt eindeutig decodierbar oder einfach decodierbar, falls die zugehörige Abbildung c : S T injektiv ist. Das heißt, jede Codierung einer Nachricht (Folge von Codewörtern) stammt von genau einer Nachricht (Folge von Symbolen des Quellalphabets). Äquivalent muß gelten: u,...,u m, v,...,v n C, u u m = v v n = m = n, u i = v i für i =,...,n.

4 Codierungstheorie Rudolf Scharlau, SoSe Beispiel.6 Der Code C aus.4 ist nicht decodierbar, denn, 3 d.h.. = alle Faktoren in C, m = 2, n =. Abhilfe: benutze als neue Codierung die Binärdarstellung mit drei Stellen: 00, 2 00, Der neue Code ist also C = {00, 00, 0, 00, 0, 0}. Allgemeiner gilt: Bemerkung.7 Jeder sog. Block-Code C, d.h. v = w =: l für alle v, w C (die Zahl l heißt auch Blocklänge) ist eindeutig decodierbar. Beweis: klar?! Decodiere z.b. im obigen, modifizierten Beispiel t = = zu s = 235. Natürlich sind nicht nur Blockcodes decodierbar, sondern auch viele andere Codes. Beispiel.8 Der Code C = {0, 0, 0} Z 2 ist eindeutig decodierbar. Wenn wir z.b. S = {a, b, c} mit Codierung a 0, b 0, c 0 nehmen, dann wird t = eindeutig decodiert zu s = bbaccaabaac, nämlich mittels der eindeutigen Aufteilung von t in Codewörter. Nun ein notwendiges und hinreichendes Kriterium für eindeutige Decodierbarkeit: Für einen gegebenen Code C T setze C 0 := C, C = {w T u, v, C : v = uw} C n = {w T u C, v C n : v = uw oder u = vw} für n 2. Es besteht als C aus (rechten) Endstücken von Wörtern aus C n derart, daß das Anfangsstück in C liegt, oder aus Endstücken von Wörtern aus C derart, daß das Anfangsstück in C n liegt. Wir überlegen uns, daß die Mengen C n in geeigneter Weise die Hindernisse für eindeutige Decodierbarkeit beschreiben. Nichteindeutige Zerlegungen liefern Codewörter in einem der C n. Hier zwei einfache Fälle dieses Sachverhaltes: a) v = uw mit v, u, w C = w C C. b) u u 2 = v v 2, u, u 2, v, v 2 C, u > v = u 2 C 2 C. Es ist nämlich u = v w für ein w C und weiter wu 2 = v 2, also u 2 C 2 (zweiter Fall in der Definition von C 2 ). In Übung.4 überlegen wir uns, daß umgekehrt ein Element aus C 2 C, bei dem der zweite Fall der Definition von C 2 vorliegt, zwei verschiedene Zerlegungen eines Wortes in zwei Codewörter liefert. Wenn man die C n nacheinander bestimmt, wird man in jedem Beispiel merken, daß die Folge irgendwann anfängt, sich zu wiederholen, ggf. in Form der leeren Menge (wenn ein C n leer ist, dann auch alle folgenden).

5 Codierungstheorie Rudolf Scharlau, SoSe Beispiel.9 Betrachte den eindeutig decodierbaren Code C = {0, 0, 0} aus Beispiel.8. Man überlegt sich schnell C = {, } und weiter C 2 =. Es sind also auch alle höheren C n leer. Für die Frage der eindeutigen Decodierbarkeit ist nicht wichtig, daß C n leer ist, sondern nur, daß es keine Elemente besitzt, die selbst Codewörter sind. Man überlegt sich, daß nicht eindeutige Zerlegungen mit einer größeren Anzahl von Faktoren zu Codewörtern in C n mit größerem n führen, und auch umgekehrt. Präzise und kurz zusammengefasst gilt: Satz.0 (Sardinas-Patterson) Ein Code C ist eindeutig decodierbar genau dann, wenn C C n = für alle n. Wir wollen den Satz nicht allgemein beweisen, werden aber einige weitere spezielle Situationen in den Übungen betrachten. Für den Augenblick merken wir nur an, daß die vorher zu Fuß festgestellte eindeutige Decodierbarkeit des Codes aus.8/.9 natürlich auch aus dem Satz folgt: Beispiel. Der Code C = {0, 0, 0} erfüllt C C n = für alle n, ist also eindeutig decodierbar Als weitere Illustration des Satzes zeigen wir: Beispiel.2 Der Code C = {0,, 2, 20} ist nicht eindeutig decodierbar. Man überlegt hierfür sukzessive: C = {0}; benutze 20 = 2.0 C, wobei 2 C. C 2 = {0}; benutze 0 =.0 C, wobei C. C 3, denn 0 = 0. C, 0 C 2. Wir finden nun aus der Kombination der benutzten Gleichungen zwei gleiche Produkte mit verschiedenen Faktoren, die alle aus C sind: 20. = 2.0. = = (Zerlegung von 20 in zwei bzw. drei Faktoren aus C.) Wir verzichten auf einen vollständigen Beweis des Satzes von Sardinas und Patterson. Wir werden nämlich im folgenden Abschnitt sehen, daß man für praktische Zwecke sowieso die Bedingung der eindeutigen Decodierbarkeit durch eine stärkere, aber gleichzeitig viel einfacherer Bedingung (sog. präfixfreie Codes ) ersetzen muß. In Abschnitt.6 werden wir dann sehen, daß diese stärkere Bedingung für die ereichbare durchschnittliche Wortlänge eines Codes gar keine Einschränkung bedeutet.

6 Codierungstheorie Rudolf Scharlau, SoSe Unmittelbar Decodierbare Codes Die einzelnen Symbole einer Folge von Codewörtern liegen in der Praxis nicht gleichzeitig vor, sondern werden nacheinander gesendet und empfangen (typischerweise mit einer festen Taktfrequenz ). Wenn man diese Zeitabhängigkeit zumindest ein Stück weit im mathematischen Modell mit abbilden will, wird man auf die Frage geführt, in wie weit bereits ein Anfangsstück einer Folge von Symbolen Information über zumindest das erste gesendete Zeichen, also den ersten Faktor einer Zerlegung in Codewörter, enthält. Mit anderen Worten, nach wie vielen Takten (Zeiteinheiten) kann man mit der Decodierung beginnen? Diese Frage führt auf eine echte Verschärfung der Bedingung der Decodierbarkeit. Beispiel.4 Der Code C = {0, 0, } ist eindeutig decodierbar (benutze z.b. den Satz von S-P; es ist C n = {} für alle n ). Wenn t = 0... (mit n Einsen) Teil einer Nachricht (d.h. eines Produktes von Codewörtern) z = t... = ist, so ist der Anfang der Decodierung (Zerlegung in Codewörter) nicht nur von t bzw. n, sondern von der Gesamtzahl m n der Einsen des ersten Einser-Blocks von z abhängig. Falls m gerade ist, beginnt die Zerlegung mit 0, anderenfalls mit 0. Mit dem Beginn der Decodierung muß bis zur nächsten 0 gewartet werden. Beispiel.6 Betrachte den Code D = {0, 0, }. Er entsteht aus dem Code C in.4, indem die Codewörter in umgekehrter Reihenfolge gelesen werden. Um gleich suggestiver sprechen zu können, geben wir den drei Elementen des Quellalphabetes die Namen a, b, c, entsprechend der Reihenfolge der drei Codewörter. Weil C decodierbar ist, folgt das Gleiche auch für D. Alternativ kann man noch einma den Satz von S-P anwenden: es ist (sogar) D =. Anders als bei.4 kann aber hier die Decodierung sofort erfolgen. Genauer gilt offenbar folgendes: wenn die ersten n Symbole bereits decodiert sind und das n + -te Symbol gleich 0 ist, so ist das nächste Symbol der Decodierung gleich a. Wenn das n+-te Symbol gleich, so muß nur noch das n+2-te abgewartet werden: wenn dieses 0 ist, so wird zu b decodiert, sonst zu c. Definition. Ein Code heißt unmittelbar decodierbar (engl. instantaneous), falls für jedes Produkt z = u u 2... u m von Codewörtern und für jede weitere Darstellung z = v v 2... v n y, wobei die v j ebenfalls Codewörter sind und y beliebig ist, gilt n m und v j = u j für j =,..., n. Mit anderen Worten, die ersten n Symbole der Decodierung lassen sich aus v, v 2,..., v n ablesen, egal wie die Forsetzung y aussieht. Der Code aus.4 ist nicht unmittelbar decodierbar, denn 0... = 0... (der letzte Faktor ist kein Codewort, deswegen hier kein Widerspruch zur Decodierbarkeit). Definition. Ein Wort u heißt Präfix eines Wortes v, wenn v von der Form v = uw für ein nichtleeres Wort w ist.

7 Codierungstheorie Rudolf Scharlau, SoSe Ein Codes heißt präfixfrei, falls kein Codewort Präfix eines anderen Codewortes ist. Der Code aus Beispiel.6 ist präfixfrei, der aus.4 ist es nicht. Satz.7 Ein Code ist unmittelbar decodierbar genau dann, wenn er präfixfrei ist..4 Präfixfreie Codes und die Kraft sche Ungleichung Zur Darstellung und Untersuchung präfixfreier Codes über dem Alphabet T = {t,...,t r } werden die Wörter in einem (r + )- valenten Baum organisiert. Zwei Knoten u, v T werden durch eine (aufsteigende) Kante verbunden, wenn v = wt für ein t T ist. Das leere Wort ε ist Wurzel dieses Baumes. Für T = {0, } erhält man den binären Baum mit Valenz ε Bild. Der binäre Baum bis zur Tiefe 2 Ein Wort u ist Präfix eines Wortes v genau dann, wenn u auf dem eindeutig bestimmten Weg von der Wurzel nach v liegt. Man sagt auch: v dominiert u. Diese Dominanz-Relation in einem Baum mit Wurzel ist übrigens eine Halbordnung (aber natürlich keine totale Ordnung). Ein Code ist also präfixfrei, wenn keine zwei seiner Elemente vergleichbar bzgl. Dominanz sind (eine sog. Antikette in der Halbordnung). Beispiel.8 Wir suchen einen präfixfreien binären Code mit q = 5 Codewörtern. Dabei fahren wir die Strategie, jeweils ein möglichst kurzes Wort hinzuzufügen. Also beginnen wir mit w = 0. Für w 2 kommen Wörter 0... nicht mehr in Frage, ebensowenig w 2 = (da noch weitere Wörter gewählt werden müssen). Dieses führt auf w 2 = 0. Dann entfällt, also geht es mit w 3 = 0 weiter. Schließlich ergibt sich C = {0, 0, 0, 0, }.

8 Codierungstheorie Rudolf Scharlau, SoSe C Bild.2 Wir wollen die möglichen Längenverteilungen l, l 2,...,l q eines präfixfreien Codes {w,...,w q } T + verstehen, dabei l i = w i. Das generelle Ziel ist eine möglichst kleine Gesamtlänge q l i bzw. Durchschnittslänge l(c) = q l iq (vergl. Abschnitt.). i= Andererseits wird man bei größerem q gezwungen, auch längere Wörter zu benutzen, wie schon Beispiel.8 zeigt. Für welche q-tupel l,..., l q existiert nun ein präfixfreier Code mit dieser Längenverteilung? Die kritische Größe ist hier nicht die Summe der l i, sondern der Ausdruck q r. li i= Für ein einzelnes Codewort v T, T = r nennen wir die Zahl auch das Gewicht von v (nicht zu verwechseln mit dem in der r v Codierungstheorie betrachteten Hamming-Gewicht). Im binären Fall haben also 0 und das Gewicht 2 ; 00, 0, 0, das Gewicht 4, Wörter der Länge 3 das Gewicht 8 usw. Für festes l gibt es r l Wörter der Länge l, die Summe ihrer Gewichte, also das Gesamtgewicht der entsprechenden Schicht des Baumes ist gleich. Die Idee bei der Definition des Gewichtes ist, daß die Wahl eines Knotens (Codewortes) der Länge l in einem präfixfreien Code alle oberhalb liegenden Knoten eliminiert, dieses ist anschaulich der Bruchteil r l des gesamten Baumes. Beispiel.9 Es gibt keinen binären Baum mit Längenverteilung, 2, 3, 3, 4. Man prüft das direkt nach, kann den Beweis auch wie folgt lesen: w eliminiert die Hälfte aller Wörter für w 2, die Wahl von w 2 insgesamt 2 + 4, die Wahl von w 3 und w 4 insgesamt den Anteil = des Baumes. Somit bleibt keine Möglichkeit für w 5 mehr. i=

9 Codierungstheorie Rudolf Scharlau, SoSe Satz.20 (Kraft sche Ungleichung) a) Für einen präfixfreien Code C mit Alphabetgröße T = r gilt w C. r w b) Seien umgekehrt Zahlen l,..., l q, r gegeben mit q i=. li r Dann gibt es einen Code {w,...,w q } T, dabei T = r mit w i = l i für alle i =,...,q..5 Die McMillan sche Ungleichung Man kann sich fragen, ob man gegenüber der Kraft schen Ungleichung noch etwas gewinnen kann, wenn man die Bedingung präfixfrei abschwächt zu eindeutig decodierbar. Die Antwort lautet nein, obwohl es viele eindeutig decodierbare Codes gibt, die nicht präfixfrei sind. Satz.2 (McMillan, 956) Gegeben sei ein eindeutig decodierbarer Code C T mit T = r und Längenverteilung l, l 2,...,l q, q = C. Dann gilt q. li r i= Folgerung.22 Zu jedem eindeutig decodierbaren Code gibt es einen präfixfreien Code über dem gleichen Alphabet mit gleichen Wortlängen.

Seminar Kompressionsalgorithmen Huffman-Codierung, arithmetische Codierung

Seminar Kompressionsalgorithmen Huffman-Codierung, arithmetische Codierung Huffman-Codierung, arithmetische Codierung Theoretische Informatik RWTH-Aachen 4. April 2012 Übersicht 1 Einführung 2 3 4 5 6 Einführung Datenkompression Disziplin,die Kompressionsalgorithmen entwirft

Mehr

Kapitel 7: Optimalcodierung und Huffman Coding

Kapitel 7: Optimalcodierung und Huffman Coding Kapitel 7: codierung und Huffman Coding Ziele des Kapitels Auftreten von Fehlern bei zu starker Kompression Konstruktion optimaler Codes Huffman Coding 2 Bisher Theorem (Shannon I): Die mittlere Codewortlänge

Mehr

Ι. Einführung in die Codierungstheorie

Ι. Einführung in die Codierungstheorie 1. Allgemeines Ι. Einführung in die Codierungstheorie Codierung: Sicherung von Daten und Nachrichten gegen zufällige Fehler bei der Übertragung oder Speicherung. Ziel der Codierung: Möglichst viele bei

Mehr

Fehlererkennung und Fehlerkorrektur in Codes

Fehlererkennung und Fehlerkorrektur in Codes Fehlererkennung und Fehlerkorrektur in Codes Blockcodes und Hamming Abstand Untersuchungen zu Codierungen von Informationen, die über einen Nachrichtenkanal übertragen werden sollen, konzentrieren sich

Mehr

3 Codierung diskreter Quellen. Quelle Quellcodierer Kanalcodierer reduziert die benötigte Datenmenge. fügt Daten zur Fehlerkorrektur ein.

3 Codierung diskreter Quellen. Quelle Quellcodierer Kanalcodierer reduziert die benötigte Datenmenge. fügt Daten zur Fehlerkorrektur ein. 3 Codierung diskreter Quellen 3 Einführung 32 Ungleichmäßige Codierung 33 Präfix-Codes 34 Grenzen der Code-Effizienz 35 Optimal-Codierung 3 Zusammenfassung < 24 / 228 > 3 Codierung diskreter Quellen Quelle

Mehr

Einleitung. Kapitel 1

Einleitung. Kapitel 1 Kapitel 1 Einleitung In diesem Abschnitt geben wir einen kurzen Überblick über den Inhalt der Vorlesung. Wir werden kurz die wesentlichen Probleme erläutern, die wir ansprechen wollen. Wir werden auch

Mehr

2.7 Der Shannon-Fano-Elias Code

2.7 Der Shannon-Fano-Elias Code 2.7 Der Shannon-Fano-Elias Code Die Huffman-Codierung ist ein asymptotisch optimales Verfahren. Wir haben auch gesehen, dass sich die Huffman-Codierung gut berechnen und dann auch gut decodieren lassen.

Mehr

8 Konvergenzkriterien und Häufungswerte von Folgen in R

8 Konvergenzkriterien und Häufungswerte von Folgen in R 8 Konvergenzkriterien und Häufungswerte von Folgen in R 8.1 Konvergenz monotoner Folgen 8.2 Die Zahl e 8.3 Existenz monotoner Teilfolgen 8.4 Auswahlprinzip von Bolzano-Weierstraß 8.5 Konvergenzkriterium

Mehr

Kapitel 4. Reihen 4.1. Definition und Beispiele

Kapitel 4. Reihen 4.1. Definition und Beispiele Kapitel 4. Reihen 4.1. Definition und Beispiele Ist (a n ) eine Folge von Zahlen, so heißt der formale Ausdruck a ν = a 0 + a 1 + a 2 +... eine Reihe; die einzelnen a ν sind die Glieder dieser Reihe. Um

Mehr

Ü b u n g s b l a t t 15

Ü b u n g s b l a t t 15 Einführung in die Stochastik Sommersemester 07 Dr. Walter Oevel 2. 7. 2007 Ü b u n g s b l a t t 15 Hier ist zusätzliches Übungsmaterial zur Klausurvorbereitung quer durch die Inhalte der Vorlesung. Eine

Mehr

Kap 1: VEKTORRÄUME. (c) (λµ) v = λ (µ v) (b) λ (v + w) = (λ v) + (λ w) (d) 1 v = v

Kap 1: VEKTORRÄUME. (c) (λµ) v = λ (µ v) (b) λ (v + w) = (λ v) + (λ w) (d) 1 v = v Kap 1: VEKTORRÄUME Es sei X eine Menge. Eine Familie von Elementen von X ist eine Abbildung ϕ : I X, i ϕ(i) = x i, wobei die Menge I in diesem Zusammenhang auch Indexmenge genannt wird. Man schreibt vereinfacht

Mehr

2 Rationale und reelle Zahlen

2 Rationale und reelle Zahlen 2 reelle Es gibt Mathematik mit Grenzwert (Analysis) und Mathematik ohne Grenzwert (z.b Algebra). Grenzwerte existieren sicher nur dann, wenn der Zahlbereich vollständig ist, also keine Lücken aufweist

Mehr

Lösungen zum Aufgabenblatt Nr. 1: Konstruktion der reellen Zahlen

Lösungen zum Aufgabenblatt Nr. 1: Konstruktion der reellen Zahlen Lösungen zum Aufgabenblatt Nr. 1: Konstruktion der reellen Zahlen Aufgabe 1: Es sei D die Menge aller rationalen Dedekind-Mengen, also D := { M 2 Q M is Dedekind-Menge }. Auf der Menge D definieren wir

Mehr

Codierungstheorie Rudolf Scharlau, SoSe 2006 9

Codierungstheorie Rudolf Scharlau, SoSe 2006 9 Codierungstheorie Rudolf Scharlau, SoSe 2006 9 2 Optimale Codes Optimalität bezieht sich auf eine gegebene Quelle, d.h. eine Wahrscheinlichkeitsverteilung auf den Symbolen s 1,..., s q des Quellalphabets

Mehr

2 Eulersche Polyederformel und reguläre Polyeder

2 Eulersche Polyederformel und reguläre Polyeder 6 2 Eulersche Polyederformel und reguläre Polyeder 2.1 Eulersche Polyederformel Formal besteht ein Graph aus einer Knotenmenge X und einer Kantenmenge U. Jede Kante u U ist eine zweielementige Teilmenge

Mehr

Stetige Funktionen. Definition. Seien (X, d) und (Y, ϱ) metrische Räume und f : X Y eine Abbildung. D(f) X sei der Definitionsbereich von f.

Stetige Funktionen. Definition. Seien (X, d) und (Y, ϱ) metrische Räume und f : X Y eine Abbildung. D(f) X sei der Definitionsbereich von f. Stetige Funktionen Abbildungen f : X Y, wobei X und Y strukturierte Mengen sind (wie z.b. Vektorräume oder metrische Räume), spielen eine zentrale Rolle in der Mathematik. In der Analysis sind Abbildungen

Mehr

bestehenden sind, weiterhin benutzt werden. Oft beleuchten unterschiedliche Formalismen Dinge nämlich von unterschiedlichen Blickwinkeln.

bestehenden sind, weiterhin benutzt werden. Oft beleuchten unterschiedliche Formalismen Dinge nämlich von unterschiedlichen Blickwinkeln. 2 Endliche Automaten bestehenden sind, weiterhin benutzt werden. Oft beleuchten unterschiedliche Formalismen Dinge nämlich von unterschiedlichen Blickwinkeln. Fragen 1. Sei R = 0 1 + (0 + 1). In welchen

Mehr

Venndiagramm, Grundmenge und leere Menge

Venndiagramm, Grundmenge und leere Menge Venndiagramm, Grundmenge und leere Menge In späteren Kapitel wird manchmal auf die Mengenlehre Bezug genommen. Deshalb sollen hier die wichtigsten Grundlagen und Definitionen dieser Disziplin kurz zusammengefasst

Mehr

Induktive Definitionen

Induktive Definitionen Priv.-Doz. Dr.rer.nat.habil. Karl-Heinz Niggl Technische Universität Ilmenau Fakultät IA, Institut für Theoretische Informatik Fachgebiet Komplexitätstheorie und Effiziente Algorithmen J Induktive Definitionen

Mehr

Randomisierte Algorithmen

Randomisierte Algorithmen Randomisierte Algorithmen Randomisierte Algorithmen 5. Zwei spieltheoretische Aspekte Thomas Worsch Fakultät für Informatik Karlsruher Institut für Technologie Wintersemester 2015/2016 1 / 36 Überblick

Mehr

Zufallsvariablen: Die allgemeine Definition

Zufallsvariablen: Die allgemeine Definition KAPITEL 8 Zufallsvariablen: Die allgemeine Definition 8.1. Zufallsvariablen Bis zu diesem Zeitpunkt haben wir ausschließlich Zufallsvariablen mit endlich oder abzählbar vielen Werten (also diskrete Zufallsvariablen)

Mehr

T (n) = max. g(x)=n t(n) S(n) = max. g(x)=n s(n)

T (n) = max. g(x)=n t(n) S(n) = max. g(x)=n s(n) Beim Logarithmischen Kostenmaß wird, im Gegensatz zum EKM, die Stelligkeit der Werte berücksichtigt und mit in die Laufzeit eingerechnet. Beispiel: R1 := R2 (R3), wobei R2 den Wert 5, R3 den Wert 10 und

Mehr

1 Elemente der Wahrscheinlichkeitstheorie

1 Elemente der Wahrscheinlichkeitstheorie H.-J. Starkloff Unendlichdimensionale Stochastik Kap. 01 11. Oktober 2010 1 1 Elemente der Wahrscheinlichkeitstheorie 1.1 Messbare Räume Gegeben seien eine nichtleere Menge Ω und eine Menge A von Teilmengen

Mehr

Lineare Algebra II 5. Übungsblatt

Lineare Algebra II 5. Übungsblatt Lineare Algebra II Übungsblatt Fachbereich Mathematik SS Prof Dr Kollross / Mai Susanne Kürsten Tristan Alex Gruppenübung Aufgabe G (Algebraisch abgeschlossener Körper) Ein Körper heißt algebraisch abgeschlossen,

Mehr

Informationsgehalt einer Nachricht

Informationsgehalt einer Nachricht Informationsgehalt einer Nachricht Betrachten folgendes Spiel Gegeben: Quelle Q mit unbekannten Symbolen {a 1, a 2 } und p 1 = 0.9, p 2 = 0.1. Zwei Spieler erhalten rundenweise je ein Symbol. Gewinner

Mehr

Im gesamten Kapitel sei Ω eine nichtleere Menge. Wir bezeichnen die Potenzmenge

Im gesamten Kapitel sei Ω eine nichtleere Menge. Wir bezeichnen die Potenzmenge 1 Mengensysteme Ein Mengensystem ist eine Familie von Teilmengen einer Grundmenge und damit eine Teilmenge der Potenzmenge der Grundmenge. In diesem Kapitel untersuchen wir Mengensysteme, die unter bestimmten

Mehr

Definition Information I(p)

Definition Information I(p) Definition Information I(p) Definition I(p) Die Information I(p) eines Symbols mit Quellws p > 0 beträgt I(p) = log 1 p. Die Einheit der Information bezeichnet man als Bit. DiMa II - Vorlesung 03-05.05.2009

Mehr

3. Woche Information, Entropie. 3. Woche: Information, Entropie 45/ 238

3. Woche Information, Entropie. 3. Woche: Information, Entropie 45/ 238 3 Woche Information, Entropie 3 Woche: Information, Entropie 45/ 238 Informationsgehalt einer Nachricht Intuitiv: Je kleiner die Quellws, desto wichtiger oder strukturierter die Information, bzw höher

Mehr

Grundbegriffe der Wahrscheinlichkeitstheorie

Grundbegriffe der Wahrscheinlichkeitstheorie KAPITEL 1 Grundbegriffe der Wahrscheinlichkeitstheorie 1. Zufallsexperimente, Ausgänge, Grundmenge In der Stochastik betrachten wir Zufallsexperimente. Die Ausgänge eines Zufallsexperiments fassen wir

Mehr

Definition Information I(p)

Definition Information I(p) Definition Information I(p) Definition I(p) Die Information I(p) eines Symbols mit Quellws p > 0 ist definiert als I(p) = log 1 p. Die Einheit der Information bezeichnet man als Bit. DiMa II - Vorlesung

Mehr

Redundanz. Technische Informationsquelle Entropie und Redundanz Huffman Codierung. Martin Werner WS 09/10. Martin Werner, Dezember 09 1

Redundanz. Technische Informationsquelle Entropie und Redundanz Huffman Codierung. Martin Werner WS 09/10. Martin Werner, Dezember 09 1 Information, Entropie und Redundanz Technische Informationsquelle Entropie und Redundanz Huffman Codierung Martin Werner WS 9/ Martin Werner, Dezember 9 Information und Daten Informare/ Informatio (lat.)

Mehr

2. Vorlesung. Die Theorie der schwarz-weissen Ketten.

2. Vorlesung. Die Theorie der schwarz-weissen Ketten. 2. Vorlesung. Die Theorie der schwarz-weissen Ketten. Die Theorie der schwarzen Steinchen haben wir jetzt halbwegs vertanden. Statt mit schwarzen Steinen wie die Griechen, wollen wir jetzt mit schwarzen

Mehr

Einführung in die Informatik

Einführung in die Informatik Einführung in die Informatik Klaus Knopper 26.10.2004 Repräsentation von Zahlen Zahlen können auf unterschiedliche Arten dargestellt werden Aufgabe: Zahlen aus der realen Welt müssen im Computer abgebildet

Mehr

λ(a n ) n 1 = (λa n ) n 1. Abbildung 1: Graph einer Folge. b n = arctan(n), f n = cos(nπ), g n = n 2, h n = ( 1) n n.

λ(a n ) n 1 = (λa n ) n 1. Abbildung 1: Graph einer Folge. b n = arctan(n), f n = cos(nπ), g n = n 2, h n = ( 1) n n. Folgen Es sei X eine beliebige Menge. Eine Folge mit Werten in X ist eine Abbildung von N nach X. Es wird also jeder natürlichen Zahl n (dem Index) ein Element a n aus X zugeordnet (das n-te Folgenglied).

Mehr

Folgen und Grenzwerte

Folgen und Grenzwerte Wintersemester 2015/201 Folgen und Grenzwerte von Sven Grützmacher Dieser Vortrag wurde für den (von der Fachschaft organisierten) Vorkurs für die Studienanfänger an der Fakultät für Mathematik und Informatik

Mehr

1. Woche Einführung in die Codierungstheorie, Definition Codes, Präfixcode, kompakte Codes

1. Woche Einführung in die Codierungstheorie, Definition Codes, Präfixcode, kompakte Codes 1 Woche Einführung in die Codierungstheorie, Definition Codes, Präfixcode, kompakte Codes 1 Woche: Einführung in die Codierungstheorie, Definition Codes, Präfixcode, kompakte Codes 5/ 44 Unser Modell Shannon

Mehr

4 Reihen und Finanzmathematik

4 Reihen und Finanzmathematik 4 Reihen und Finanzmathematik 4. Reihen Aus Folgen lassen sich durch Aufaddieren weitere Folgen konstruieren. Das sind die sogenannten Reihen, sie spielen in der Finanzmathematik eine wichtige Rolle. Sei

Mehr

2. Woche Eindeutige Entschlüsselbarleit, Sätze von Kraft und McMillan, Huffmancodierung

2. Woche Eindeutige Entschlüsselbarleit, Sätze von Kraft und McMillan, Huffmancodierung 2 Woche Eindeutige Entschlüsselbarleit, Sätze von Kraft und McMillan, Huffmancodierung 2 Woche: Eindeutige Entschlüsselbarleit, Sätze von Kraft und McMillan, Huffmancodierung 24/ 44 Zwei Beispiele a 0

Mehr

Teil 2: Dynamische Spiele mit vollständigen Informationen

Teil 2: Dynamische Spiele mit vollständigen Informationen Teil : Dynamische Spiele mit vollständigen Informationen Kapitel 5: Grundsätzliches Literatur: Tadelis Chapter 7 Problem Manche Spiele entwickeln sich über die Zeit Dynamik kann aber nicht in Spielen in

Mehr

Unterrichtsmaterialien in digitaler und in gedruckter Form. Auszug aus: Binomialverteilung und Bernoulli- Experiment

Unterrichtsmaterialien in digitaler und in gedruckter Form. Auszug aus: Binomialverteilung und Bernoulli- Experiment Unterrichtsmaterialien in digitaler und in gedruckter Form Auszug aus: Binomialverteilung und Bernoulli- Experiment Das komplette Material finden Sie hier: Download bei School-Scout.de TOSSNET Der persönliche

Mehr

Notation und Einführung

Notation und Einführung Skriptteil zur Vorlesung: Proinformatik - Funktionale Programmierung Dr. Marco Block-Berlitz 30.Juli 2009 Notation und Einführung Der folgende Abschnitt gibt eine kurze Einführung in die Codierungstheorie.

Mehr

1 Varianten von Turingmaschinen

1 Varianten von Turingmaschinen 1 Varianten von Turingmaschinen Es gibt weitere Definitionen für Turingmaschinen. Diese haben sich aber alle als äquivalent herausgestellt. Ein wiederkehrendes Element der Vorlesung: Äquivalenz von Formalismen

Mehr

Übersicht. Aktivitäten-Auswahl-Problem. Greedy Algorithmen. Aktivitäten-Auswahl-Problem. Aktivitäten-Auswahl-Problem. Datenstrukturen & Algorithmen

Übersicht. Aktivitäten-Auswahl-Problem. Greedy Algorithmen. Aktivitäten-Auswahl-Problem. Aktivitäten-Auswahl-Problem. Datenstrukturen & Algorithmen Datenstrukturen & Algorithmen Übersicht Greedy Algorithmen Einführung Aktivitäten-Auswahl-Problem Huffman Codierung Matthias Zwicker Universität Bern Frühling 2009 2 Greedy Algorithmen Entwurfsstrategie

Mehr

Rechenregeln für Summen

Rechenregeln für Summen Rechenregeln für Summen Im Umgang mit Summen sind gewisse Regeln zu beachten. 1 Summe gleicher Summanden Betrachten wir folgende Summe: x Hier enthält x keinen Summationsindex, d.h. es wird x einfach n-mal

Mehr

Rudolf Brinkmann Seite 1 30.04.2008

Rudolf Brinkmann Seite 1 30.04.2008 Rudolf Brinkmann Seite 1 30.04.2008 Der Mengenbegriff und Darstellung von Mengen Eine Menge, ist die Zusammenfassung bestimmter, wohlunterschiedener Objekte unserer Anschauung und unseres Denkens welche

Mehr

Vorlesung 15a. Quellencodieren und Entropie

Vorlesung 15a. Quellencodieren und Entropie Vorlesung 15a Quellencodieren und Entropie 1 1. Volle Binärbäume als gerichtete Graphen und die gewöhnliche Irrfahrt von der Wurzel zu den Blättern 2 3 ein (nicht voller) Binärbaum Merkmale eines Binärbaumes:

Mehr

FÜNFTER VORTRAG ÜBER TRANSEINITE ZAHLEN

FÜNFTER VORTRAG ÜBER TRANSEINITE ZAHLEN FÜNFTER VORTRAG ÜBER TRANSEINITE ZAHLEN Meine Herren! Ich will heute über den Begriff der transfiniten Kardinalzahl vor Ihnen sprechen; und zwar will ich zunächst von einem scheinbaren Widerspruch reden,

Mehr

Isomorphie von Bäumen

Isomorphie von Bäumen Isomorphie von Bäumen Alexandra Weinberger 23. Dezember 2011 Inhaltsverzeichnis 1 Einige Grundlagen und Definitionen 2 1.1 Bäume................................. 3 1.2 Isomorphie..............................

Mehr

Konvergenz von Folgen

Konvergenz von Folgen 6 Konvergenz von Folgen Definition 6.1 Eine Folge in C (oder R) ist eine Abbildung f : N C (oder R). Schreibweise: (a n ) n N, (a n ), a 1, a 2... wobei a n = f(n). Beispiele: 1) (1 + 2 n ) n N, 3 2, 5

Mehr

Diskrete Strukturen und Logik WiSe 2007/08 in Trier. Henning Fernau Universität Trier

Diskrete Strukturen und Logik WiSe 2007/08 in Trier. Henning Fernau Universität Trier Diskrete Strukturen und Logik WiSe 2007/08 in Trier Henning Fernau Universität Trier fernau@uni-trier.de 1 Diskrete Strukturen und Logik Gesamtübersicht Organisatorisches Einführung Logik & Mengenlehre

Mehr

5.1 Affine Räume und affine Abbildungen

5.1 Affine Räume und affine Abbildungen 402 LinAlg II Version 1.2 21. Juli 2006 c Rudolf Scharlau 5.1 Affine Räume und affine Abbildungen Ein affiner Raum besteht aus zwei Mengen P und G zusammen mit einer Relation der Inzidenz zwischen ihnen.

Mehr

Verteilungsfunktionen (in Excel) (1)

Verteilungsfunktionen (in Excel) (1) Verteilungsfunktionen (in Excel) () F(x) Veranschaulichung der Sprungstellen: Erst ab x=4 ist F(x) = 0,75! Eine Minimal kleinere Zahl als 4, bspw. 3,9999999999 gehört noch zu F(x)=0,5! 0,75 0,5 0,25 0

Mehr

Vektorgeometrie Ebenen 1

Vektorgeometrie Ebenen 1 Vektorgeometrie Ebenen 1 Parametergleichung von Ebenen Punkte und Geraden in Ebenen. Spezielle Lagen von Punkten in Bezug auf ein Parallelogramm oder Dreieck. Datei Nr. 63021 Stand 1. Juli 2009 INTERNETBIBLIOTHEK

Mehr

Einführung in die Algebra

Einführung in die Algebra Prof. Dr. H. Brenner Osnabrück SS 2009 Einführung in die Algebra Vorlesung 19 Algebraisch abgeschlossene Körper Wir haben zuletzt erwähnt, dass ein lineares Polynom X a über einem Körper stets irreduzibel

Mehr

Die mathematische Seite

Die mathematische Seite Kellerautomaten In der ersten Vorlesung haben wir den endlichen Automaten kennengelernt. Mit diesem werden wir uns in der zweiten Vorlesung noch etwas eingängiger beschäftigen und bspw. Ansätze zur Konstruktion

Mehr

Konstruktion der reellen Zahlen

Konstruktion der reellen Zahlen Konstruktion der reellen Zahlen Zur Wiederholung: Eine Menge K (mit mindestens zwei Elementen) heißt Körper, wenn für beliebige Elemente x, y K eindeutig eine Summe x+y K und ein Produkt x y K definiert

Mehr

5 Kontinuierliches Wachstum

5 Kontinuierliches Wachstum 5 Kontinuierliches Wachstum Kontinuierlich meßbare Größe Wir betrachten nun eine Größe a, die man kontinuierlich messen kann. Den Wert von a zum Zeitpunkt t schreiben wir nun als a(t). Wir können jedem

Mehr

Terme, Rechengesetze, Gleichungen

Terme, Rechengesetze, Gleichungen Terme, Rechengesetze, Gleichungen Ein Junge kauft sich eine CD zu 15 und eine DVD zu 23. Er bezahlt mit einem 50 - Schein. Wie viel erhält er zurück? Schüler notieren mögliche Rechenwege: (1) 15 + 23 =

Mehr

Definition der Entropie unter Verwendung von supp(p XY )

Definition der Entropie unter Verwendung von supp(p XY ) Definition der Entropie unter Verwendung von supp(p XY ) Wir fassen die Ergebnisse des letzten Abschnitts nochmals kurz zusammen, wobei wir von der zweidimensionalen Zufallsgröße XY mit der Wahrscheinlichkeitsfunktion

Mehr

KAPITEL 1. Martingale

KAPITEL 1. Martingale KAPITEL 1 Martingale 1.1. Stochastische Prozesse Sei (Ω, F, P) ein Wahrscheinlichkeitsraum. Das heißt, Ω ist eine Menge, F ist eine σ-algebra auf Ω, und P ein Wahrscheinlichkeitsmaß auf (Ω, F ). Zuerst

Mehr

Konjunktive und disjunktive Normalformen

Konjunktive und disjunktive Normalformen Konjunktive und disjunktive Normalformen Nachdem gesprochen wurde, wie man Boolesche Terme unter einer Belegung der Variablen interpretiert und dass somit jeder Boolesche Term eine Boolesche Funktion repräsentiert,

Mehr

Diskrete Mathematik II

Diskrete Mathematik II Diskrete Mathematik II Alexander May Fakultät für Mathematik Ruhr-Universität Bochum Sommersemester 2008 DiMA II - Vorlesung 01-07.04.2008 Einführung in die Codierungstheorie, Definition Codes 1 / 36 Organisatorisches

Mehr

3 Reihen. 3.1 Konvergenz und Divergenz. Die Eindeutigkeit nach Satz 13 ergibt schließlich (5). (6) folgt aus (2) und (1) wegen. 1 a +log ba.

3 Reihen. 3.1 Konvergenz und Divergenz. Die Eindeutigkeit nach Satz 13 ergibt schließlich (5). (6) folgt aus (2) und (1) wegen. 1 a +log ba. Die Eindeutigkeit nach Satz 3 ergibt schließlich (5). (6) folgt aus (2) und () wegen Aussage (7) ergibt sich aus () und (6). 0 = log b = log b ( a a) = log b a +log ba. 3 Reihen 3. Konvergenz und Divergenz

Mehr

Einführung in die Codierungstheorie

Einführung in die Codierungstheorie Einführung in die Codierungstheorie Monika König 11.12.2007 Inhaltsverzeichnis 1 Einführung und Definitionen 2 2 Fehlererkennende Codes 3 2.1 Paritycheck - Code............................... 3 2.2 Prüfziffersysteme................................

Mehr

Unendliche Reihen. D.h. Die Summe einer unendlichen Reihe ist der Grenzwert der Folge der Partialsummen.

Unendliche Reihen. D.h. Die Summe einer unendlichen Reihe ist der Grenzwert der Folge der Partialsummen. Unendliche Reihen Wegen der elementaren Eigenschaften der Zahlen ist lar, was unter einer endlichen Summe von Zahlen a + a 2 +... + zu verstehen ist. Vorderhand ist noch nicht erlärt, was unter einer unendlichen

Mehr

Einführung in die Informatik II Aus der Informationstheorie: Datenkompression

Einführung in die Informatik II Aus der Informationstheorie: Datenkompression Einführung in die Informatik II Aus der Informationstheorie: Datenkompression Prof. Bernd Brügge, Ph.D Institut für Informatik Technische Universität München Sommersemester 2 2. Juli 2 Copyright 2 Bernd

Mehr

2. Rechnen mit Wahrscheinlichkeiten

2. Rechnen mit Wahrscheinlichkeiten 2. Rechnen mit Wahrscheinlichkeiten 2.1 Axiome der Wahrscheinlichkeitsrechnung Die Wahrscheinlichkeitsrechnung ist ein Teilgebiet der Mathematik. Es ist üblich, an den Anfang einer mathematischen Theorie

Mehr

Proseminar Datenkompression Suchstrategien und Präfixcodes

Proseminar Datenkompression Suchstrategien und Präfixcodes Proseminar Datenkompression Suchstrategien und Präfixcodes Patrick Sonntag Mittwoch, den 05.02.2003 I. Einführung - Suche elementares Problem in Informatik - hierbei Beschränkung auf binäre Tests nur 2

Mehr

Eine Aussage kann eine Eigenschaft für ein einzelnes, konkretes Objekt behaupten:

Eine Aussage kann eine Eigenschaft für ein einzelnes, konkretes Objekt behaupten: Aussagen Aussagen Eine Aussage kann eine Eigenschaft für ein einzelnes, konkretes Objekt behaupten: verbale Aussage formale Aussage Wahrheitswert 1) 201 ist teilbar durch 3 3 201 wahre Aussage (w.a.) 2)

Mehr

Elemente der Stochastik (SoSe 2016) 9. Übungsblatt

Elemente der Stochastik (SoSe 2016) 9. Übungsblatt Dr. M. Weimar 06.06.2016 Elemente der Stochastik (SoSe 2016) 9. Übungsblatt Aufgabe 1 (2+2+2+2+1=9 Punkte) In einer Urne befinden sich sieben Lose, darunter genau ein Gewinnlos. Diese Lose werden nacheinander

Mehr

Theoretische Grundlagen der Informatik

Theoretische Grundlagen der Informatik Theoretische Grundlagen der Informatik Vorlesung am 10.01.2012 INSTITUT FÜR THEORETISCHE 0 KIT 12.01.2012 Universität des Dorothea Landes Baden-Württemberg Wagner - Theoretische und Grundlagen der Informatik

Mehr

Die Folgerungsbeziehung

Die Folgerungsbeziehung Kapitel 2: Aussagenlogik Abschnitt 2.1: Syntax und Semantik Die Folgerungsbeziehung Definition 2.15 Eine Formel ψ AL folgt aus einer Formelmenge Φ AL (wir schreiben: Φ = ψ), wenn für jede Interpretation

Mehr

Datenstrukturen & Algorithmen

Datenstrukturen & Algorithmen Datenstrukturen & Algorithmen Matthias Zwicker Universität Bern Frühling 2010 Übersicht Rot-schwarz Bäume Eigenschaften Rotationen Einfügen (Löschen) 2 Einführung Binäre Suchbäume Höhe h O(h) für Operationen

Mehr

3.1 Sukzessive Minima und reduzierte Basen: Resultate

3.1 Sukzessive Minima und reduzierte Basen: Resultate Gitter und Codes c Rudolf Scharlau 4. Juni 2009 202 3.1 Sukzessive Minima und reduzierte Basen: Resultate In diesem Abschnitt behandeln wir die Existenz von kurzen Basen, das sind Basen eines Gitters,

Mehr

TEIL 13: DIE EINFACHE LINEARE REGRESSION

TEIL 13: DIE EINFACHE LINEARE REGRESSION TEIL 13: DIE EINFACHE LINEARE REGRESSION Die einfache lineare Regression Grundlagen Die einfache lineare Regression ist ebenfalls den bivariaten Verfahren für metrische Daten zuzuordnen 1 Sie hat einen

Mehr

Lineare Gleichungssysteme

Lineare Gleichungssysteme Lineare Gleichungssysteme 1 Wiederholung Eine Menge von Vektoren a 1, a 2,, a k heisst linear unabhängig, wenn eine Linearkombination c 1 a 1 + c 2 a 2 + + c k a k = k c i a i (1) i=1 nur dann Null sein

Mehr

2.3 Basis und Dimension

2.3 Basis und Dimension Lineare Algebra I WS 205/6 c Rudolf Scharlau 65 2.3 Basis und Dimension In diesem zentralen Abschnitt werden einige für die gesamte Lineare Algebra fundamentale Grundbegriffe eingeführt: Lineare Abhängigkeit

Mehr

Leitfaden. a ist Vielfaches von d und schreiben verkürzt: d a. Ist d kein Teiler von a, so schreiben wir auch: d a. d teilt a oder

Leitfaden. a ist Vielfaches von d und schreiben verkürzt: d a. Ist d kein Teiler von a, so schreiben wir auch: d a. d teilt a oder Algebra und Zahlentheorie Vorlesung Algebra und Zahlentheorie Leitfaden 1 Zahlentheorie in Z Bezeichnungen: Z := {..., 3, 2, 1, 0, 1, 2, 3,...} (ganze Zahlen) und N := {1, 2, 3,...} (natürliche Zahlen

Mehr

Körper- und Galoistheorie

Körper- und Galoistheorie Prof. Dr. H. Brenner Osnabrück SS 2011 Körper- und Galoistheorie Vorlesung 23 Unter den drei klassischen Problemen der antiken Mathematik versteht man (1) die Quadratur des Kreises, (2) die Dreiteilung

Mehr

6. Rechnen mit Matrizen.

6. Rechnen mit Matrizen. 6. Rechnen mit Matrizen. In dieser Vorlesung betrachten wir lineare Gleichungs System. Wir betrachten lineare Gleichungs Systeme wieder von zwei Gesichtspunkten her: dem angewandten Gesichtspunkt und dem

Mehr

Fakultät für Informatik Universität Magdeburg Jürgen Dassow. Literatur

Fakultät für Informatik Universität Magdeburg Jürgen Dassow. Literatur Literatur J.Berstel/D.Perrin, Theorie of Codes. Academic Press, 1985. J. Duske/H.Jürgensen, Kodierungstheorie. BI-Taschenb., Mannheim, 1977. T. Grams, Codierungsverfahren. BI-Taschenbuch, Mannheim, 1986.

Mehr

4 Gleichungen und Ungleichungen

4 Gleichungen und Ungleichungen In diesem Kapitel werden Techniken zur Bestimmung der Lösungsmengen von Gleichungen und Ungleichungen rekapituliert. 4.1 Eindimensionale Gleichungen und Ungleichungen Eine Gleichung oder Ungleichung ohne

Mehr

Allgemeine Definition von statistischer Abhängigkeit (1)

Allgemeine Definition von statistischer Abhängigkeit (1) Allgemeine Definition von statistischer Abhängigkeit (1) Bisher haben wir die statistische Abhängigkeit zwischen Ereignissen nicht besonders beachtet, auch wenn wir sie wie im Fall zweier disjunkter Mengen

Mehr

Einführung in die Mengenlehre

Einführung in die Mengenlehre Einführung in die Mengenlehre Kevin Kaatz, Lern-Online.net im Mai 2009 Lern-Online.net Mathematik-Portal 1 Inhaltsverzeichnis 1 Vorwort und 3 1.1 Vorwort und Literaturempfehlungen............................

Mehr

Analysis I: Übungsblatt 1 Lösungen

Analysis I: Übungsblatt 1 Lösungen Analysis I: Übungsblatt 1 Lösungen Verständnisfragen 1. Was ist Mathematik? Mathematik ist eine Wissenschaft, die selbstgeschaffene, abstrakte Strukturen auf ihre Eigenschaften und Muster hin untersucht.

Mehr

Grundlagen exakter Methoden zur Verschlüsselung von Codewörtern mittels linearer Codes*

Grundlagen exakter Methoden zur Verschlüsselung von Codewörtern mittels linearer Codes* Grundlagen exakter Methoden zur Verschlüsselung von Codewörtern mittels linearer Codes* Andrea Kraft andreakraft@gmx.at Elisabeth Pilgerstorfer elisabeth_pilg@hotmail.com Johannes Kepler Universität Linz

Mehr

6. Induktives Beweisen - Themenübersicht

6. Induktives Beweisen - Themenübersicht 6. Induktives Beweisen - Themenübersicht Ordnungsrelationen Partielle Ordnungen Quasiordnungen Totale Ordnungen Striktordnungen Ordnungen und Teilstrukturen Noethersche Induktion Anwendung: Terminierungsbeweise

Mehr

4.3 Bilinearformen. 312 LinAlg II Version Juni 2006 c Rudolf Scharlau

4.3 Bilinearformen. 312 LinAlg II Version Juni 2006 c Rudolf Scharlau 312 LinAlg II Version 0 20. Juni 2006 c Rudolf Scharlau 4.3 Bilinearformen Bilinearformen wurden bereits im Abschnitt 2.8 eingeführt; siehe die Definition 2.8.1. Die dort behandelten Skalarprodukte sind

Mehr

Eine kurze Methode, Summen unendlicher Reihen durch Differentialformeln zu untersuchen

Eine kurze Methode, Summen unendlicher Reihen durch Differentialformeln zu untersuchen Eine kurze Methode, Summen unendlicher Reihen durch Differentialformeln zu untersuchen Leonhard Euler Auch wenn ich diesen Gegenstand schon des Öfteren betrachtet habe, sind die meisten Dinge, die sich

Mehr

Unter dem Symbol n! (gelesen n Fakultät) versteht man das Produkt der natürlichen Zahlen von 1 bis n.

Unter dem Symbol n! (gelesen n Fakultät) versteht man das Produkt der natürlichen Zahlen von 1 bis n. Die Fakultät Definition: Unter dem Symbol n! (gelesen n Fakultät) versteht man das Produkt der natürlichen Zahlen von 1 bis n. n! = 1 2 3... (n 2) (n 1) n Zusätzlich wird definiert 0! = 1 Wie aus der Definition

Mehr

Kombinatorik: Abzählverfahren (Teschl/Teschl 7) Summenregel. Allgemeiner

Kombinatorik: Abzählverfahren (Teschl/Teschl 7) Summenregel. Allgemeiner Kombinatorik: Abzählverfahren (Teschl/Teschl 7) Fragestellung: Wie viele verschiedene Möglichkeiten gibt es, Elemente auszuwählen, z. B. Anzahl verschiedener möglicher Passwörter, IPAdressen, Zahlenkombinationen

Mehr

8. Übungsblatt zur Mathematik I für Maschinenbau

8. Übungsblatt zur Mathematik I für Maschinenbau Fachbereich Mathematik Prof. Dr. M. Joswig Dr. habil. Sören Kraußhar Dipl.-Math. Katja Kulas 8. Übungsblatt zur Mathematik I für Maschinenbau Gruppenübung WS / 6..-.. Aufgabe G (Matrixinversion mit Gauß-Algorithmus

Mehr

Algorithmus zur Berechnung der Jordannormalform

Algorithmus zur Berechnung der Jordannormalform Algorithmus zur Berechnung der Jordannormalform Olivier Sète 19. Januar 2011 Inhaltsverzeichnis 1 Motivation 1 2 Algorithmus Wie und warum funktioniert das? 2 2.1 Zutat 1 Für einen Jordanblock.........................

Mehr

2.6 Stetigkeit und Grenzwerte

2.6 Stetigkeit und Grenzwerte 2.6 Stetigkeit und Grenzwerte Anschaulich gesprochen ist eine Funktion stetig, wenn ihr Graph sich zeichnen lässt, ohne den Stift abzusetzen. Das ist natürlich keine präzise mathematische Definition und

Mehr

Einfache Parkettierungen

Einfache Parkettierungen Einfache Definitionen: Unter einer Parkettierung (auch Pflasterung oder Parkett genannt) verstehen wir eine überlappungsfreie Überdeckung der Ebene durch Polygone. Ein Polygon (auch Vieleck oder n-eck

Mehr

Kurzzusammenstellung der in der Vorlesung behandelten impliziten Gleichungen und deren Ableitungen

Kurzzusammenstellung der in der Vorlesung behandelten impliziten Gleichungen und deren Ableitungen Kurzzusammenstellung der in der Vorlesung behandelten impliziten Gleichungen und deren Ableitungen Einleitung: Funktion mit einer Veränderlichen Als Einleitung haben wir folgende Funktion besprochen: y

Mehr

Übung zur Vorlesung Diskrete Mathematik (MAT.107) Blatt Beispiellösungen Abgabefrist:

Übung zur Vorlesung Diskrete Mathematik (MAT.107) Blatt Beispiellösungen Abgabefrist: Svenja Hüning, Michael Kerber, Hannah Schreiber WS 2016/2017 Übung zur Vorlesung Diskrete Mathematik (MAT.107) Blatt Beispiellösungen Abgabefrist: Hinweise: Dieses Blatt präsentiert Beispiellösungen zu

Mehr

Diskrete Optimierungsverfahren zur Lösung von Sudokus

Diskrete Optimierungsverfahren zur Lösung von Sudokus Diskrete Optimierungsverfahren zur Lösung von Sudokus Seminarvortrag von Daniel Scholz am 6. Dezember 2006 Am Beispiel der Lösung von Sudokurätseln mit Hilfe der linearen Optimierung werden verschiedenen

Mehr

Vektoren und Matrizen

Vektoren und Matrizen Vektoren und Matrizen Einführung: Wie wir gesehen haben, trägt der R 2, also die Menge aller Zahlenpaare, eine Körperstruktur mit der Multiplikation (a + bi(c + di ac bd + (ad + bci Man kann jedoch zeigen,

Mehr

Referat zum Thema Huffman-Codes

Referat zum Thema Huffman-Codes Referat zum Thema Huffman-Codes Darko Ostricki Yüksel Kahraman 05.02.2004 1 Huffman-Codes Huffman-Codes ( David A. Huffman, 1951) sind Präfix-Codes und das beste - optimale - Verfahren für die Codierung

Mehr