Implementierung von Huffmans Konstruktion optimaler Präfixcodes

Größe: px
Ab Seite anzeigen:

Download "Implementierung von Huffmans Konstruktion optimaler Präfixcodes"

Transkript

1 Implementierung von Huffmans Konstruktion optimaler Präfixcodes Huffmans Konstruktion schrittweise Freq d proc s Häufigkeitsverteilung der Symbole (sortiert) map x / rhs x = lhs x, StringTools:-CharacterFrequencies s f1 d Freq "abracadabra" f1 := 1 = "c", 1 = "d", 2 = "b", 2 = "r", 5 = "a" HuffmanStep dproc flist T set `=` einzelner Schritt in der Huffmann-Konstruktion if nops flist = 1 then rhs flist else flist 3..K1 union lhs flist 1 C lhs flist 2 = rhs flist 1, rhs flist 2 fi; (1.1) HuffmanStep f1 HuffmanStep % HuffmanStep % HuffmanStep % HuffmanStep % 2 = "b", 2 = "r", 2 = "c", "d", 5 = "a" 2 = "c", "d", 4 = "b", "r", 5 = "a" 5 = "a", 6 = "c", "d", "b", "r" 11 = "a", "c", "d", "b", "r" "a", "c", "d", "b", "r" HuffmanTree dproc s T string Iterative Konstruktion des Huffman-Baumes zum string s mju=mittlere erwartete Wortlänge local sfreq, symb, i, mju; sfreq d Freq s ; symb d nops sfreq ; mju d 0; for i from 1 to symb K 1 do print sfreq ; mju d mju C lhs sfreq 1 C lhs sfreq 2 ; sfreq d HuffmanStep sfreq od; (1.2) (1.3) (1.4) (1.5) (1.6)

2 sfreq d HuffmanStep sfreq ; mju sfreq, evalf length s ht d HuffmanTree "abracadabra" ht := "a", "c", "d", "b", "r", HuffmanCoding dproc ht, p d "" binäre Huffman-Codierung für Huffman-Baum ht if ht T string then ht = p else procname ht 1, cat p, 0, procname ht 2, cat p, 1 fi hc d HuffmanCoding ht 1 hc := "a" = "0", "c" = "100", "d" = "101", "b" = "110", "r" = "111" CodeString dproc s T string, HCT list `=` ` ` codiert string s gemäss binärer Codierung HC s darf nur Symbole aus dem Alphabet von HC haben local hctab; hctab d table HC ; cat map x/hctab x, StringTools:-Explode s ; cs d CodeString "abracadabra", hc cs := " " StringTools:-Entropy "abracadabra" HuffmanTree "abracadabra" "a", "c", "d", "b", "r", mu d % 2 length cs length "abracadabra" $mu StringTools:-Entropy cs µ := (1.7) (1.8) (1.9) (1.10) (1.11) (1.12) (1.13) (1.14) (1.15) Huffman-Codierung und Decodierung (A. Mihailovs)

3 HuffmanEncode dproc s code from Alec Mihailovs (mapleprimes 2009) local C, T, HuffmanTree, HuffmanCoding; HuffmanTree d s / if nops s % 1 then rhs s else procname s 3..K1 union lhs s 1 C lhs s 2 = rhs s 1, rhs s 2 fi; HuffmanCoding dproc s, p d "" if s T string then s = p else procname s 1, cat p, 0, procname s 2, cat p, 1 fi end; if _nrest = 1 then T d _rest else T d HuffmanTree map x / rhs x = lhs x, StringTools:-CharacterFrequencies s fi; C d table HuffmanCoding T ; cat map x / C x, StringTools:-Explode s, T HuffmanDecode dproc b, T code from Alec Mihailovs (mapleprimes 2009) local h, i, j, ans; ans d Array 1..length b ; h d T; j d 0; for i to length b do if b i = "0" then h d h 1 else h d h 2 fi; if h T string then j d j C 1; ans j d h; h d T fi od; StringTools:-Implode seq i, i = ans 1..j HuffmanEncode "abracadabra" " ", "a", "c", "d", "b", "r" HuffmanDecode % "abracadabra" (2.1) (2.2) Textbeispiel text2 d "Problemfach Mathe Vielleicht, vielleicht auch nicht Mathe bleibt ein rätselhaftes Fach: So fällt es Grundschülern offenbar schwer, Wahrscheinlichkeiten richtig einzuschätzen. Viele Zweit- und Viertklässler scheiterten an der Frage, ob ein Ereignis unmöglich oder

4 nur unwahrscheinlich ist. Doch auch in Klasse sechs fielen die Tests eher mäßig aus. Grundschulkinder haben offenbar große Schwierigkeiten, Wahrscheinlichkeiten und komplexe Matheaufgaben richtig zu beurteilen. Dies zeigt eine Studie der Ludwig-Maximilians- Universität (LMU) und der Technischen Universität (TUM) in München. Dafür wurden die mathematischen Fähigkeiten von rund 160 Schülern aus den Klassen zwei, vier und sechs untersucht. Um herauszufinden, wie erfolgreich Kinder Verständnis für wissenschaftliche Beweisführungen und Wahrscheinlichkeiten entwickeln, zeigten die Forscher den Kindern, wie Bäume auf zwei verschiedene Sorten Dünger reagierten: Mit Dünger aus einer blauen Packung wuchsen 24 Bäume gut, 12 gingen ein. Mit Dünger aus einer gelben Packung wuchsen drei Bäume gut, einer ging ein. Die meisten Schüler hielten jedoch den Dünger aus der blauen Packung für besser. Sogar viele Sechstklässler wählen die falsche Strategie und missachten die Proportionen, sagt TUM-Didaktikerin Professor Kristina Reiss. Sie vergleichen stattdessen die Differenz aus 24 und 12 mit der Differenz aus 3 und 1. Deshalb kommen sie auf einen vermeintlich besseren Wert für den blauen Dünger. Unmöglich oder unwahrscheinlich? Nun ist Düngemitteleinsatz nicht gerade ein lebensnahes Beispiel für Grundschüler - wenn auch besser geeignet als etwa das Rechnen mit Kinderleichen, wie das im vergangenen Jahr ein japanischer Lehrer mit seinen Schüler versucht hatte. Im Alltag jedoch muss jeder Mensch immer wieder Wahrscheinlichkeiten einschätzen und Schlussfolgerungen aus wissenschaftlichen Ergebnissen ziehen - egal ob es um den Einsatz beim Lotto oder die Erfolgschancen medizinischer Therapien geht. Die Grundlagen für diese Fähigkeiten werden dabei schon in der Grundschule gelegt. Stochastik, die Vereinigung von Wahrscheinlichkeitstheorie und Statistik, wird an den meisten Schulen allerdings erst in der Oberstufe unterrichtet. Aber schon zwischen unmöglich und unwahrscheinlich zu unterscheiden, fiel den Schülern schwer. Noch in der vierten Klasse halten es viele Kinder für unmöglich, aus einem Sack mit 99 blauen und einem roten Würfel den roten zu ziehen. Den Kinder fehlen das Verständnis für Zufall und Wahrscheinlichkeit sowie Strategien, um Daten zu analysieren - obwohl sie in diesem Alter bereits ausgeprägte kognitive Kompetenzen entwickelt haben, sagt LMU-Entwicklungspsychologin Beate Sodian. Beispielsweise verstehen schon Zweitklässler intuitiv, dass eine große Datenmenge aussagekräftiger ist als eine geringere. Die Wissenschaftler wollen nun solche Kompetenzen der Kinder

5 identifizieren und darauf aufbauend Methoden entwickeln, wie das Wahrscheinlichkeitsverständnis im Unterricht gefördert werden kann. " : HT2 d HuffmanTree text2 HT2 := "t", "g", "w", "D", "S", "s", "r", "0", "3", "6", "?", "E", "W", ",", "p", "F", "G", "L", "T", "!", "I", "J", "A", "m", ".", "!", "f", "z", "!", "d", " ", "u", "l", "K", "P", "V", "M", "Z", "!", "B", "o", "c", "e", "!", " ", "a", "i", "n", "b", "k", "O", "(", "1", "-", "2", "j", ")", "4", "9", ":", "N", "R", "x", "y", "U", "v", "h", T2, M2 d op HT2 : HuffmanEncode text2 " \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ (3.1) (3.2)

6 \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \

7 \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \

8 \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \

9 \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \

10 \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ ", "t", "g", "w", "D", "S", "s", "r", "0", "3", "6", "?", "E", "W", ",", "p", "F", "G", "L", "T", "!", "I", "J", "A", "m", ".", "!", "f", "z", "!", "d", " ", "u", "l", "K", "P", "V", "M", "Z", "!", "B", "o", "c", "e", "!", " ", "a", "i", "n", "b", "k", "O", "(", "1", "-", "2", "j", ")", "4", "9", ":", "N", "R", "x", "y", "U", "v", "h" HuffmanDecode % "Problemfach Mathe Vielleicht, vielleicht auch nicht Mathe bleibt ein rätselhaftes Fach: So fällt es Grundschülern offenbar schwer, Wahrscheinlichkeiten richtig einzuschätzen. Viele Zweit- und Viertklässler scheiterten an der Frage, ob ein Ereignis unmöglich oder nur unwahrscheinlich ist. Doch auch in Klasse sechs fielen die Tests eher mäßig aus. Grundschulkinder haben offenbar große Schwierigkeiten, Wahrscheinlichkeiten und komplexe Matheaufgaben richtig zu (3.3)

11 beurteilen. Dies zeigt eine Studie der Ludwig-Maximilians- Universität (LMU) und der Technischen Universität (TUM) in München. Dafür wurden die mathematischen Fähigkeiten von rund 160 Schülern aus den Klassen zwei, vier und sechs untersucht. Um herauszufinden, wie erfolgreich Kinder Verständnis für wissenschaftliche Beweisführungen und Wahrscheinlichkeiten entwickeln, zeigten die Forscher den Kindern, wie Bäume auf zwei verschiedene Sorten Dünger reagierten: Mit Dünger aus einer blauen Packung wuchsen 24 Bäume gut, 12 gingen ein. Mit Dünger aus einer gelben Packung wuchsen drei Bäume gut, einer ging ein. Die meisten Schüler hielten jedoch den Dünger aus der blauen Packung für besser. Sogar viele Sechstklässler wählen die falsche Strategie und missachten die Proportionen, sagt TUM-Didaktikerin Professor Kristina Reiss. Sie vergleichen stattdessen die Differenz aus 24 und 12 mit der Differenz aus 3 und 1. Deshalb kommen sie auf einen vermeintlich besseren Wert für den blauen Dünger. Unmöglich oder unwahrscheinlich? Nun ist Düngemitteleinsatz nicht gerade ein lebensnahes Beispiel für Grundschüler - wenn auch besser geeignet als etwa das Rechnen mit Kinderleichen, wie das im vergangenen Jahr ein japanischer Lehrer mit seinen Schüler versucht hatte. Im Alltag jedoch muss jeder Mensch immer wieder Wahrscheinlichkeiten einschätzen und Schlussfolgerungen aus wissenschaftlichen Ergebnissen ziehen - egal ob es um den Einsatz beim Lotto oder die Erfolgschancen medizinischer Therapien geht. Die Grundlagen für diese Fähigkeiten werden dabei schon in der Grundschule gelegt. Stochastik, die Vereinigung von Wahrscheinlichkeitstheorie und Statistik, wird an den meisten Schulen allerdings erst in der Oberstufe unterrichtet. Aber schon zwischen unmöglich und unwahrscheinlich zu unterscheiden, fiel den Schülern schwer. Noch in der vierten Klasse halten es viele Kinder für unmöglich, aus einem Sack mit 99 blauen und einem roten Würfel den roten zu ziehen. Den Kinder fehlen das Verständnis für Zufall und Wahrscheinlichkeit sowie Strategien, um Daten zu analysieren - obwohl sie in

12 diesem Alter bereits ausgeprägte kognitive Kompetenzen entwickelt haben, sagt LMU-Entwicklungspsychologin Beate Sodian. Beispielsweise verstehen schon Zweitklässler intuitiv, dass eine große Datenmenge aussagekräftiger ist als eine geringere. Die Wissenschaftler wollen nun solche Kompetenzen der Kinder identifizieren und darauf aufbauend Methoden entwickeln, wie das Wahrscheinlichkeitsverständnis im Unterricht gefördert t d time : bin2 d HuffmanEncode text2 : time K t; t d time : HuffmanDecode bin2 : time K t; length text2 StringTools:-Entropy text2 M2 length text2 $M2 length bin2 1 mu d 1 StringTools:-Entropy bin2 1 werden kann. " µ := (3.4) (3.5) (3.6) (3.7) (3.8) (3.9) (3.10) (3.11) (3.12)

2. Woche Eindeutige Entschlüsselbarleit, Sätze von Kraft und McMillan, Huffmancodierung

2. Woche Eindeutige Entschlüsselbarleit, Sätze von Kraft und McMillan, Huffmancodierung 2 Woche Eindeutige Entschlüsselbarleit, Sätze von Kraft und McMillan, Huffmancodierung 2 Woche: Eindeutige Entschlüsselbarleit, Sätze von Kraft und McMillan, Huffmancodierung 24/ 44 Zwei Beispiele a 0

Mehr

21. Greedy Algorithmen. Aktivitätenauswahl, Fractional Knapsack Problem, Huffman Coding Cormen et al, Kap. 16.1, 16.3

21. Greedy Algorithmen. Aktivitätenauswahl, Fractional Knapsack Problem, Huffman Coding Cormen et al, Kap. 16.1, 16.3 581 21. Greedy Algorithmen Aktivitätenauswahl, Fractional Knapsack Problem, Huffman Coding Cormen et al, Kap. 16.1, 16.3 Aktivitäten Auswahl 582 Koordination von Aktivitäten, die gemeinsame Resource exklusiv

Mehr

Wann sind Codes eindeutig entschlüsselbar?

Wann sind Codes eindeutig entschlüsselbar? Wann sind Codes eindeutig entschlüsselbar? Definition Suffix Sei C ein Code. Ein Folge s {0, 1} heißt Suffix in C falls 1 c i, c j C : c i = c j s oder 2 c C und einen Suffix s in C: s = cs oder 3 c C

Mehr

Kompetenzen von Grundschülern bei der Bearbeitung von Aufgaben zur Wahrscheinlichkeitsrechnung

Kompetenzen von Grundschülern bei der Bearbeitung von Aufgaben zur Wahrscheinlichkeitsrechnung Kompetenzen von Grundschülern bei der Bearbeitung von Aufgaben zur Wahrscheinlichkeitsrechnung BERND NEUBERT, GIEßEN Zusammenfassung: Im Artikel wird dargestellt, welche Kompetenzen Grundschüler verschiedener

Mehr

16 - Kompressionsverfahren für Texte

16 - Kompressionsverfahren für Texte 16 - Kompressionsverfahren für Texte Prof. Dr. S. Albers Kompressionsverfahren für Texte Verlustfreie Kompression Original kann perfekt rekonstruiert werden Beispiele: Huffman Code, Lauflängencodierung,

Mehr

Kompressionsverfahren für Texte

Kompressionsverfahren für Texte Kompressionsverfahren für Texte Prof. Dr. S. Albers Prof. Dr. Th. Ottmann 1 Zeichenkettenverarbeitung Suche in Texten, Textindizes Mustererkennung (Pattern-Matching) Verschlüsseln Komprimiern Analysieren

Mehr

Einführung in die Wahrscheinlichkeitsrechnung

Einführung in die Wahrscheinlichkeitsrechnung Marco Cattaneo Institut für Statistik Ludwig-Maximilians-Universität München Sommersemester 2011 1. Wahrscheinlichkeitsrechnung 2. Diskrete Zufallsvariable 3. Stetige Zufallsvariable 4. Grenzwertsätze

Mehr

Strings. Stringsuche, Boyer-Moore, Textkompression, Huffman Codes.

Strings. Stringsuche, Boyer-Moore, Textkompression, Huffman Codes. Strings Stringsuche, Boyer-Moore, Textkompression, Huffman Codes. Suche Substring Häufiges Problem Relevante Beispiele: Suche ein Schlagwort in einem Buch Alphabet: A-Za-z0-9 Suche Virussignatur auf der

Mehr

Daten und Zufall. eine gar nicht sooo neue Leitidee im Bildungsplan Mathematik Grundschule. SINUS September 2012 Benedikt Rocksien 1

Daten und Zufall. eine gar nicht sooo neue Leitidee im Bildungsplan Mathematik Grundschule. SINUS September 2012 Benedikt Rocksien 1 Daten und Zufall eine gar nicht sooo neue Leitidee im Bildungsplan Mathematik Grundschule SINUS September 2012 Benedikt Rocksien 1 Mathematikunterricht in der Grundschule Allgemeine mathematische Kompetenzen

Mehr

Übung: Quicksort. Erster Schritt zu Quicksort: Felder "partitionieren"

Übung: Quicksort. Erster Schritt zu Quicksort: Felder partitionieren Übung: Quicksort In der Vorlesung haben wir zum Sortieren die Prozedur mergesort kennen gelernt. Heute besprechen wir einen weiteren berühmten Sortieralgorithmus: quicksort Im Gegensatz zu mergesort, lässt

Mehr

Dynamisches Huffman-Verfahren

Dynamisches Huffman-Verfahren Dynamisches Huffman-Verfahren - Adaptive Huffman Coding - von Michael Brückner 1. Einleitung 2. Der Huffman-Algorithmus 3. Übergang zu einem dynamischen Verfahren 4. Der FGK-Algorithmus 5. Überblick über

Mehr

Miller-Rabin-Demo. Miller-Rabin-Test. with Statistics : with numtheory : with LinearAlgebra :

Miller-Rabin-Demo. Miller-Rabin-Test. with Statistics : with numtheory : with LinearAlgebra : Miller-Rabin-Demo with Statistics : with numtheory : with LinearAlgebra : Miller-Rabin-Test MRsteps dproc N, aa Test, ob a ein Miller-Rabin-Zeuge für die Zusammengesetztheit von N ist: Antwort "true" besagt,

Mehr

Aufgabe: Platz-effiziente Kompression von Textdaten

Aufgabe: Platz-effiziente Kompression von Textdaten 7.3 Huffman-Bäume Anwendung von Binärbäumen Aufgabe: Platz-effiziente Kompression von Textdaten Standardcodierungen von Textdaten ISO-8859-1: 8 Bit pro Zeichen UTF-16: 16 Bit pro Zeichen Codierungen mit

Mehr

VORSCHAU. zur Vollversion. Gewinnchancen beim Kugelziehen einschätzen. Welchen Sack sollte Tom wählen, wenn a) Gelb gewinnt? b) Rot gewinnt?

VORSCHAU. zur Vollversion. Gewinnchancen beim Kugelziehen einschätzen. Welchen Sack sollte Tom wählen, wenn a) Gelb gewinnt? b) Rot gewinnt? 1 Gewinnchancen beim Kugelziehen einschätzen 1. Tom kann einen Sack wählen. Er zieht daraus eine Kugel. 1 2 Welchen Sack sollte Tom wählen, wenn a) Gelb gewinnt? b) Rot gewinnt? 2. Tom zieht 2 Kugeln aus

Mehr

Computer Science Unplugged Algorithmen zur Textkompression

Computer Science Unplugged Algorithmen zur Textkompression Proseminar Computer Science Unplugged Algorithmen zur Textkompression Harald Zauner 12. November 2004 Zusammenfassung Trotz der rasch zunehmenden Speicherkapazität heutiger Speichermedien besteht nach

Mehr

Sortieren. Maple sortiert; Unordnung schaffen. > restart;

Sortieren. Maple sortiert; Unordnung schaffen. > restart; restart; Sortieren Maple sortiert; Unordnung schaffen Vorbemerkung: Maple kann schon selber sortieren. Dazu erzeugen wir erstmal eine unsortierte Liste: > r := rand(1..100): > l := [seq(r(), i=1..10)];

Mehr

Gierige Algorithmen Interval Scheduling

Gierige Algorithmen Interval Scheduling Gierige Algorithmen Interval Scheduling IntervalScheduling(s,f). n length[s] 2. A {} 3. j 4. for i 2 to n do 5. if s[i] f[j] then 6. A A {i} 7. j i 8. return A Gierige Algorithmen Interval Scheduling Beweisidee:

Mehr

Ansätze zur Erfassung von Faktoren durch Prüfungsaufgaben. (Diskussionen in Dagstuhl sowie mit Prof. Nickolaus, Technikpädagogik, U Stuttgart)

Ansätze zur Erfassung von Faktoren durch Prüfungsaufgaben. (Diskussionen in Dagstuhl sowie mit Prof. Nickolaus, Technikpädagogik, U Stuttgart) Taxonomie + Schwierigkeit Ansätze zur Erfassung von Faktoren durch Prüfungsaufgaben. (Diskussionen in Dagstuhl sowie mit Prof. Nickolaus, Technikpädagogik, U Stuttgart) Beurteilen Synthese Konstruktion

Mehr

Entropie. Um der Begriff der Entropie zu erläutern brauchen wir erst mal einige Definitionen, z.b.

Entropie. Um der Begriff der Entropie zu erläutern brauchen wir erst mal einige Definitionen, z.b. Entropie Grundlegend für das Verständnis des Begriffes der Komprimierung ist der Begriff der Entropie. In der Physik ist die Entropie ein Maß für die Unordnung eines Systems. In der Informationstheorie

Mehr

Image Compression. Vorlesung FH-Hagenberg DSB

Image Compression. Vorlesung FH-Hagenberg DSB Image Compression Vorlesung FH-Hagenberg DSB Kompression Encoder Decoder Beseitigung der unnötigen Daten... Redundanz Inhalte Redundanz Loss-less Compression Hufmann Coding Runlength Coding Lossy Compression

Mehr

Einleitung. Kapitel 1

Einleitung. Kapitel 1 Kapitel 1 Einleitung In diesem Abschnitt geben wir einen kurzen Überblick über den Inhalt der Vorlesung. Wir werden kurz die wesentlichen Probleme erläutern, die wir ansprechen wollen. Wir werden auch

Mehr

Suche in Texten. Verschiedene Szenarios: Dynamische Texte. Texteditoren Symbolmanipulatoren. Statische Texte

Suche in Texten. Verschiedene Szenarios: Dynamische Texte. Texteditoren Symbolmanipulatoren. Statische Texte Suche in Texten Suche in Texten Verschiedene Szenarios: Dynamische Texte Texteditoren Symbolmanipulatoren Statische Texte Literaturdatenbanken Bibliothekssysteme Gen-Datenbanken WWW-Verzeichnisse 2 Suche

Mehr

Spalten aufsummieren?!

Spalten aufsummieren?! News Artikel Foren Projekte Links Über Redscope Join List Random Previous Next Startseite Foren Allgemeine Fragen zu SAS Spalten aufsummieren?! 5 July, 2010-11:59 Student- Hallo liebe SAS-Gemeinschaft

Mehr

21. Dynamic Programming III

21. Dynamic Programming III Approximation 21. Dynamic Programming III FPTAS [Ottman/Widmayer, Kap. 7.2, 7.3, Cormen et al, Kap. 15,35.5] Sei ein ε (, 1) gegeben. Sei I eine bestmögliche Auswahl. Suchen eine gültige Auswahl I mit

Mehr

Kapitel 7: Optimalcodierung und Huffman Coding

Kapitel 7: Optimalcodierung und Huffman Coding Kapitel 7: codierung und Huffman Coding Ziele des Kapitels Auftreten von Fehlern bei zu starker Kompression Konstruktion optimaler Codes Huffman Coding 2 Bisher Theorem (Shannon I): Die mittlere Codewortlänge

Mehr

3. Woche Information, Entropie. 3. Woche: Information, Entropie 45/ 238

3. Woche Information, Entropie. 3. Woche: Information, Entropie 45/ 238 3 Woche Information, Entropie 3 Woche: Information, Entropie 45/ 238 Informationsgehalt einer Nachricht Intuitiv: Je kleiner die Quellws, desto wichtiger oder strukturierter die Information, bzw höher

Mehr

Mathematik am Abendgymnasium Münster

Mathematik am Abendgymnasium Münster Verantwortlich für eine gute Ausbildung sind: Dr. Jörg Hettwer (Mathe, Chemie, Physik und Informatik) Anne Köster-Kummer (Mathe, Biologie) Mirja Rösler (Mathe, Biologie) Dr. Boris Rüping (Mathe, Biologie)

Mehr

Inhaltsübersicht. Vorwort 15. Vorwort zur deutschen Ausgabe 22. Kapitel 1 Elemente der Programmierung 25. Kapitel 2 Funktionen und Module 203

Inhaltsübersicht. Vorwort 15. Vorwort zur deutschen Ausgabe 22. Kapitel 1 Elemente der Programmierung 25. Kapitel 2 Funktionen und Module 203 Inhaltsübersicht Vorwort 15 Vorwort zur deutschen Ausgabe 22 Kapitel 1 Elemente der Programmierung 25 Kapitel 2 Funktionen und Module 203 Kapitel 3 Objektorientierte Programmierung 335 Kapitel 4 Algorithmen

Mehr

Übersicht. Aktivitäten-Auswahl-Problem. Greedy Algorithmen. Aktivitäten-Auswahl-Problem. Aktivitäten-Auswahl-Problem. Datenstrukturen & Algorithmen

Übersicht. Aktivitäten-Auswahl-Problem. Greedy Algorithmen. Aktivitäten-Auswahl-Problem. Aktivitäten-Auswahl-Problem. Datenstrukturen & Algorithmen Datenstrukturen & Algorithmen Übersicht Greedy Algorithmen Einführung Aktivitäten-Auswahl-Problem Huffman Codierung Matthias Zwicker Universität Bern Frühling 2009 2 Greedy Algorithmen Entwurfsstrategie

Mehr

Übung zur Vorlesung Digitale Medien. Doris Hausen Ludwig-Maximilians-Universität München Wintersemester 2010/2011

Übung zur Vorlesung Digitale Medien. Doris Hausen Ludwig-Maximilians-Universität München Wintersemester 2010/2011 Übung zur Vorlesung Digitale Medien Doris Hausen Ludwig-Maximilians-Universität München Wintersemester 2010/2011 1 Übungsbetrieb Informationen zu den Übungen: http://www.medien.ifi.lmu.de/dm http://www.die-informatiker.net

Mehr

(Prüfungs-)Aufgaben zur Codierungstheorie

(Prüfungs-)Aufgaben zur Codierungstheorie (Prüfungs-)Aufgaben zur Codierungstheorie 1) Gegeben sei die folgende CCITT2-Codierung der Dezimalziffern: Dezimal CCITT2 0 0 1 1 0 1 1 1 1 1 0 1 2 1 1 0 0 1 3 1 0 0 0 0 4 0 1 0 1 0 5 0 0 0 0 1 6 1 0 1

Mehr

Mehrere Datensätze zu einem Datensatz zusammenführen

Mehrere Datensätze zu einem Datensatz zusammenführen News Artikel Foren Projekte Links Über Redscope Join List Random Previous Next Startseite Foren ETL & Base SAS Mehrere Datensätze zu einem Datensatz zusammenführen 3 November, 2008-23:42 wlohr Hallo zusammen!

Mehr

Ü b u n g s b l a t t 4

Ü b u n g s b l a t t 4 Einführung in die Stochastik Sommersemester 07 Dr. Walter Oevel 30. 4. 2007 Ü b u n g s b l a t t 4 Mit und gekennzeichnete Aufgaben können zum Sammeln von Bonuspunkten verwendet werden. Lösungen von -Aufgaben

Mehr

Bereiche der Stochastik

Bereiche der Stochastik Statistik Wahrscheinlichkeit Kombinatorik Bereiche der Stochastik Kombinatorik Hans Freudenthal: Einfache Kombinatorik ist das Rückgrat elementarer Wahrscheinlichkeitsrechnung. Die Lehrkraft bereitet sich

Mehr

13 Berechenbarkeit und Aufwandsabschätzung

13 Berechenbarkeit und Aufwandsabschätzung 13 Berechenbarkeit und Aufwandsabschätzung 13.1 Berechenbarkeit Frage: Gibt es für jede Funktion, die mathematisch spezifiziert werden kann, ein Programm, das diese Funktion berechnet? Antwort: Nein! [Turing

Mehr

Mathematik. Mathematische Leitidee: Daten, Häufigkeit und Wahrscheinlichkeit. Aufgabe Nr./Jahr: 16/2010. Bezug zum Lehrplan NRW:

Mathematik. Mathematische Leitidee: Daten, Häufigkeit und Wahrscheinlichkeit. Aufgabe Nr./Jahr: 16/2010. Bezug zum Lehrplan NRW: Mathematik Mathematische Leitidee: Daten, Häufigkeit und Wahrscheinlichkeit Aufgabe Nr./Jahr: 16/2010 Bezug zum Lehrplan NRW: Prozessbezogener Bereich (Kap. 2.1) Prozessbezogene Kompetenzen (Kap. 3.1)

Mehr

Datenstrukturen. Ziele

Datenstrukturen. Ziele Datenstrukturen Ziele Nutzen von Datenstrukturen Funktionsweise verstehen Eigenen Datenstrukturen bauen Vordefinierte Datenstrukturen kennen Hiflsmethoden komplexer Datenstrukten kennen Datenstrukturen

Mehr

12. Gruppenübung zur Linearen Algebra I

12. Gruppenübung zur Linearen Algebra I 2. Gruppenübung zur Linearen Algebra I > restart; > with(linalg): Warning, new definition for norm Warning, new definition for trace Zuerst definieren wir uns die Hilfsfunktion linindep (vgl.. Übung),

Mehr

3.2. Divide-and-Conquer-Methoden

3.2. Divide-and-Conquer-Methoden LUDWIG- MAXIMILIANS- UNIVERSITY MUNICH DEPARTMENT INSTITUTE FOR INFORMATICS DATABASE 3.2. Divide-and-Conquer-Methoden Divide-and-Conquer-Methoden Einfache Sortieralgorithmen reduzieren die Größe des noch

Mehr

Kapitel 1: Informationsverarbeitung durch Programme

Kapitel 1: Informationsverarbeitung durch Programme LUDWIG- MAXIMILIANS- UNIVERSITY MUNICH DEPARTMENT INSTITUTE FOR INFORMATICS Skript zur Vorlesung: Einführung in die Informatik: Systeme und Anwendungen Sommersemester 2018 Kapitel 1: Informationsverarbeitung

Mehr

KLAUSUR zum Kurs Elementare Zahlentheorie mit Maple (01202) WS 2014/15

KLAUSUR zum Kurs Elementare Zahlentheorie mit Maple (01202) WS 2014/15 FernUniversität in Hagen FAKULTÄT für Mathematik und Informatik Bitte hier unbedingt Matrikelnummer und Adresse eintragen, sonst keine Bearbeitung möglich. Postanschrift: FernUniversität 58084 Hagen (Name,

Mehr

Import von Text-Dateien. Einzelne Wörter einlesen.

Import von Text-Dateien. Einzelne Wörter einlesen. News Artikel Foren Projekte Links Über Redscope Join List Random Previous Next Startseite Foren Allgemeine Fragen zu SAS Import von Text-Dateien. Einzelne Wörter einlesen. 28 April, 2009-10:14 beznika

Mehr

Biometrische und Ökonometrische Methoden I Lösungen 9

Biometrische und Ökonometrische Methoden I Lösungen 9 TECHNISCHE UNIVERSITÄT MÜNCHEN - WEIHENSTEPHAN WS 00/01 MATHEMATIK UND STATISTIK, INFORMATIONS- UND DOKUMENTATIONSZENTRUM Biometrische und Ökonometrische Methoden I Lösungen 9 1. a) MTB > Retrieve "H:\STUDENT\MINITAB\OPELVW.MTW".

Mehr

Informationsgehalt einer Nachricht

Informationsgehalt einer Nachricht Informationsgehalt einer Nachricht Betrachten folgendes Spiel Gegeben: Quelle Q mit unbekannten Symbolen {a 1, a 2 } und p 1 = 0.9, p 2 = 0.1. Zwei Spieler erhalten rundenweise je ein Symbol. Gewinner

Mehr

3 Codierung diskreter Quellen. Quelle Quellcodierer Kanalcodierer reduziert die benötigte Datenmenge. fügt Daten zur Fehlerkorrektur ein.

3 Codierung diskreter Quellen. Quelle Quellcodierer Kanalcodierer reduziert die benötigte Datenmenge. fügt Daten zur Fehlerkorrektur ein. 3 Codierung diskreter Quellen 3 Einführung 32 Ungleichmäßige Codierung 33 Präfix-Codes 34 Grenzen der Code-Effizienz 35 Optimal-Codierung 3 Zusammenfassung < 24 / 228 > 3 Codierung diskreter Quellen Quelle

Mehr

Beispiel: Zeigen Sie, dass H(x) = H 0 = I gilt, wenn alle Zeichen gleichwahrscheinlich sind.

Beispiel: Zeigen Sie, dass H(x) = H 0 = I gilt, wenn alle Zeichen gleichwahrscheinlich sind. 1 2 Im ersten Schritt werden wir uns mit dem Begriff und der Definition der Information beschäftigen. Ferner werden die notwendigen math. Grundlagen zur Quellencodierung gelegt. Behandelt werden Huffman,

Mehr

6 Ü B E R S E T Z U N G E N U N D C O D I E R U N G E N. 6.1 von wörtern zu zahlen und zurück Dezimaldarstellung von Zahlen Num 10

6 Ü B E R S E T Z U N G E N U N D C O D I E R U N G E N. 6.1 von wörtern zu zahlen und zurück Dezimaldarstellung von Zahlen Num 10 6 Ü B E R S E T Z U N G E N U N D C O D I E R U N G E N 6.1 von wörtern zu zahlen und zurück 6.1.1 Dezimaldarstellung von Zahlen Num 10 Num10(ε) = 0 (6.1) für jedes w Z 10 für jedes x Z 10 Num 10 (wx)

Mehr

Grundlagen: Algorithmen und Datenstrukturen

Grundlagen: Algorithmen und Datenstrukturen Grundlagen: Algorithmen und Datenstrukturen Prof. Dr. Hanjo Täubig Lehrstuhl für Effiziente Algorithmen (Prof. Dr. Ernst W. Mayr) Institut für Informatik Technische Universität München Sommersemester 00

Mehr

Jede Kombination von 7 Spalten erzeugen

Jede Kombination von 7 Spalten erzeugen News Artikel Foren Projekte Links Über Redscope Join List Random Previous Next Startseite Foren ETL & Base SAS Jede Kombination von 7 Spalten erzeugen 14 May, 2007-16:22 HansKneilmann Hallo, ein Kollege

Mehr

Suchen und Sortieren Sortieren. Heaps

Suchen und Sortieren Sortieren. Heaps Suchen und Heaps (Folie 156, Seite 56 im Skript) Definition Ein Heap ist ein Binärbaum, der die Heapeigenschaft hat (Kinder sind größer als der Vater), bis auf die letzte Ebene vollständig besetzt ist,

Mehr

Kompression. Kompression. Beseitigung der unnötigen Daten... Redundanz. Folie 2

Kompression. Kompression. Beseitigung der unnötigen Daten... Redundanz. Folie 2 Kompression Kompression Encoder Decoder Beseitigung der unnötigen Daten... Redundanz Folie 2 1 Inhalte Redundanz Channel Encoding Loss-less Compression Hufmann Coding Runlength Coding Lossy Compression

Mehr

Syntax natürlicher Sprachen

Syntax natürlicher Sprachen Syntax natürlicher Sprachen 02: Grammatik und Bäume Martin Schmitt Ludwig-Maximilians-Universität München 25.10.2017 Martin Schmitt (LMU) Syntax natürlicher Sprachen 25.10.2017 1 1 Syntax im NLTK 2 Grammatik

Mehr

Kapitel 1: Informationsverarbeitung durch Programme

Kapitel 1: Informationsverarbeitung durch Programme LUDWIG- MAXIMILIANS- UNIVERSITY MUNICH DEPARTMENT INSTITUTE FOR INFORMATICS Skript zur Vorlesung: Einführung in die Informatik: Systeme und Anwendungen Sommersemester 2009 Kapitel 1: Informationsverarbeitung

Mehr

Daten und Zufall. eine gar nicht sooo neue Leitidee im Bildungsplan Mathematik Grundschule. SINUS September 2012 Benedikt Rocksien 1

Daten und Zufall. eine gar nicht sooo neue Leitidee im Bildungsplan Mathematik Grundschule. SINUS September 2012 Benedikt Rocksien 1 Daten und Zufall eine gar nicht sooo neue Leitidee im Bildungsplan Mathematik Grundschule SINUS September 2012 Benedikt Rocksien 1 Es hängt an der Wand, macht Ticktack, und wenn es runterfällt, geht die

Mehr

Algorithmen und Datenstrukturen (für ET/IT) Programm heute. Wintersemester 2012/13. Dr. Tobias Lasser. 7 Fortgeschrittene Datenstrukturen

Algorithmen und Datenstrukturen (für ET/IT) Programm heute. Wintersemester 2012/13. Dr. Tobias Lasser. 7 Fortgeschrittene Datenstrukturen Algorithmen und Datenstrukturen (für ET/IT) Wintersemester 202/3 Dr. Tobias Lasser Computer Aided Medical Procedures Technische Universität München Programm heute 7 Fortgeschrittene Datenstrukturen 8 Such-Algorithmen

Mehr

Übung zu Algorithmen und Datenstrukturen (für ET/IT)

Übung zu Algorithmen und Datenstrukturen (für ET/IT) Übung zu Algorithmen und Datenstrukturen (für ET/IT) Wintersemester 2012/13 Jakob Vogel Computer-Aided Medical Procedures Technische Universität München Komplexität von Programmen Laufzeit kann näherungsweise

Mehr

Kap. 4.7 Skiplisten. 14./15. VO DAP2 SS /16. Juni 2009

Kap. 4.7 Skiplisten. 14./15. VO DAP2 SS /16. Juni 2009 Kap. 4.7 Skiplisten Professor Dr. Lehrstuhl für Algorithm Engineering, LS11 Fakultät für Informatik, TU Dortmund 14./15. VO DAP2 SS 2008 9./16. Juni 2009 1 2. Übungstest Termin: Di 16. Juni 2009 im AudiMax,

Mehr

Daten, Häufigkeiten, Wahrscheinlichkeiten

Daten, Häufigkeiten, Wahrscheinlichkeiten Daten, Häufigkeiten, Wahrscheinlichkeiten Ein neuer Bereich im Lehrplan Mathematik Die acht Bereiche des Faches Mathematik Prozessbezogene Bereiche Problemlösen / kreativ sein Inhaltsbezogene Bereiche

Mehr

I: Daten und Codierung

I: Daten und Codierung Weitere Übungen zu Daten und Codierungen. Bearbeitet das neu Arbeitsblatt mit Barcodes und Eiercodes. https://www.youtube.com/watch?v=_ecwoc7kwte http://www.ardmediathek.de/tv/wissen-macht-ah/%c3%9cberraschungsbesuch/das-

Mehr

Funktionale Programmierung mit Haskell

Funktionale Programmierung mit Haskell Funktionale Programmierung mit Haskell Prof. Dr. Hans J. Schneider Lehrstuhl für Programmiersprachen und Programmiermethodik Friedrich-Alexander-Universität Erlangen-Nürnberg Sommersemester 2011 I. Die

Mehr

INSERTION-SORT: Ja, Es wird immer das erste, kleinste Element an die neue Liste angehängt.

INSERTION-SORT: Ja, Es wird immer das erste, kleinste Element an die neue Liste angehängt. Aufgabe 1 INSERTION-SORT: Ja, Es wird immer das erste, kleinste Element an die neue Liste angehängt. QUICK-SORT: Hängt davon ab ob PARTITION stabil ist. MERGE-SORT: Ja, Splitten, sowie Mergen ist stabil.

Mehr

Übrigens: um den Algorithmus im Unterricht einzuführen, sind keine Formeln notwendig! Warum reicht die normale ASCII-Codierung nicht aus?

Übrigens: um den Algorithmus im Unterricht einzuführen, sind keine Formeln notwendig! Warum reicht die normale ASCII-Codierung nicht aus? Huffman-Code Dieser Text ist als Hintergrundinformation ausschliesslich für die Lehrperson gedacht. Der Text ist deshalb eher technisch gehalten. Er lehnt sich an das entsprechende Kapitel in "Turing Omnibus"

Mehr

h = 1 7 ( ) = 21 7 = 3

h = 1 7 ( ) = 21 7 = 3 Zur mittleren Höhe von Binärbäumen mittlere Höhe von Binärbäumen Entropie gewichtete mittlere Höhe von Binärbäumen Quellcodierung, Datenkompression Shannons Theorem optimale Quellcodierung (Huffman) wobei

Mehr

Biometrische und Ökonometrische Methoden I! Lösungen 9

Biometrische und Ökonometrische Methoden I! Lösungen 9 TECHNISCHE UNIVERSITÄT MÜNCHEN - WEIHENSTEPHAN WS 98/99 MATHEMATIK UND STATISTIK, INFORMATIONS- UND DOKUMENTATIONSZENTRUM Biometrische und Ökonometrische Methoden I! Lösungen 9 1. a) MTB > name c1 'DM'

Mehr

DEMO für STOCHASTIK. Testen von Hypothesen. Datei Nr INTERNETBIBLIOTHEK FÜR SCHULMATHEMATIK.

DEMO für  STOCHASTIK. Testen von Hypothesen. Datei Nr INTERNETBIBLIOTHEK FÜR SCHULMATHEMATIK. STOCHASTIK Testen von Hypothesen Teil 1 rundlagen der Signifikanztests Hier: Berechnungen mit Binomialverteilung Datei Nr. 35010 Stand: 9. November 2013 FRIEDRICH W. BUCKEL INTERNETBIBLIOTHEK FÜR SCHULMATHEMATIK

Mehr

Statistik (für Biol./Pharm. Wiss.) Einführung

Statistik (für Biol./Pharm. Wiss.) Einführung Statistik (für Biol./Pharm. Wiss.) Einführung Warum Statistik? 2 Warum Statistik? ALLTAG Beratungsdienst: Fast täglich haben wir Anfragen aus dem Bereich Life Sciences! Statistik ist aus den Life Sciences

Mehr

Beuth Hochschule Hash-Tabellen WS17/18, S. 1

Beuth Hochschule Hash-Tabellen WS17/18, S. 1 Beuth Hochschule Hash-Tabellen WS17/18, S. 1 Hash-Tabellen Binäres Suchen (in einer sortierten Reihung oder in einem sortierten binären Baum) ist sehr schnell (O(log(n))). Es gibt aber (erstaunlicherweise)

Mehr

Lehrer- und Selbsteinschätzung von Motivation und Kreativität von hochleistenden Schülern

Lehrer- und Selbsteinschätzung von Motivation und Kreativität von hochleistenden Schülern Lehrer- und Selbsteinschätzung von Motivation und Kreativität von en Schülern Detlef Urhahne Psychology of Excellence in Business and Education Ludwig-Maximilians-Universität München Gliederung Theoretischer

Mehr

Graphalgorithmen Minimale Spannbäume. Kruskal: Minimaler Spannbaum

Graphalgorithmen Minimale Spannbäume. Kruskal: Minimaler Spannbaum Kruskal: Minimaler Spannbaum (Folie 414, Seite 78 im Skript) 4 6 2 3 1 2 5 3 7 1 4 Kruskals Algorithmus Implementierung (Folie 415, Seite 78 im Skript) Algorithmus function Kruskal(G, w) : A := ; for each

Mehr

Referat zum Thema Huffman-Codes

Referat zum Thema Huffman-Codes Referat zum Thema Huffman-Codes Darko Ostricki Yüksel Kahraman 05.02.2004 1 Huffman-Codes Huffman-Codes ( David A. Huffman, 1951) sind Präfix-Codes und das beste - optimale - Verfahren für die Codierung

Mehr

Maple-Test zur LVA 'Computermathematik', SS Gruppe weiß

Maple-Test zur LVA 'Computermathematik', SS Gruppe weiß Maple-Test zur LVA 'Computermathematik', SS 2011 Gruppe weiß *** ANMERKUNGEN UND LÖSUNGSHINWEISE *** Aufgabe Punkte ---------------------------------- 1 / 2 2 / 3 3 / 3 4 / 5 5 / 6 6 / 4 7 / 3 8 / 4 ------------------------------------

Mehr

Kinga Szűcs Friedrich-Schiller-Universität Jena Fakultät für Mathematik und Informatik Abteilung Didaktik

Kinga Szűcs Friedrich-Schiller-Universität Jena Fakultät für Mathematik und Informatik Abteilung Didaktik Beurteilende Statistik im Mathematikunterricht Kinga Szűcs Friedrich-Schiller-Universität Jena Fakultät für Mathematik und Informatik Abteilung Didaktik 20.11.2014 Gliederung Anliegen der beurteilenden

Mehr

Digitale Medien. Übung

Digitale Medien. Übung Digitale Medien Übung Übungsbetrieb Informationen zu den Übungen: http://www.medien.ifi.lmu.de/dm http://www.die-informatiker.net Zwei Stunden pro Woche Praktische Anwendungen des theoretischen Vorlesungsstoffs

Mehr

Wie muss der Eingabetext beschaffen sein, damit er sich gut komprimieren lässt?

Wie muss der Eingabetext beschaffen sein, damit er sich gut komprimieren lässt? Lernaufgabe 1a Beim Kofferpacken können wir durch Druck die Luft herauslassen und bringen somit mehr Kleidungsstücke in den Koffer. Im Unterricht haben wir vom Huffman-Code gehört und wissen, dass er nach

Mehr

Mathe III. Garance PARIS. Mathematische Grundlagen III. Informationstheorie. 20. Juni /1

Mathe III. Garance PARIS. Mathematische Grundlagen III. Informationstheorie. 20. Juni /1 Mathematische Grundlagen III Informationstheorie 20 Juni 20 / Informationstheorie Ein Gerüst, um über den Informationsgehalt von (linguistischen) Ereignissen nachzudenken Einige Beispiele für Anwendungen:

Mehr

Im Leben ist nichts gewiss - außer dem Tod und den Steuern

Im Leben ist nichts gewiss - außer dem Tod und den Steuern Stochastik für Klasse - Joachim engel@ph-ludwigsburg.de www.joachimengel.eu Jahrestagung Mathematik der GHS-Seminare,. Oktober 00 Im Leben ist nichts gewiss - außer dem Tod und den Steuern SERJ - Statistics

Mehr

INFORMATIK FÜR BIOLOGEN

INFORMATIK FÜR BIOLOGEN Technische Universität Dresden 15012015 Institut für Theoretische Informatik Professur für Automatentheorie INFORMATIK FÜR BIOLOGEN Musterklausur WS 2014/15 Studiengang Biologie und Molekulare Biotechnologie

Mehr

Informatik-Seminar Thema 6: Bäume

Informatik-Seminar Thema 6: Bäume Informatik-Seminar 2003 - Thema 6: Bäume Robin Brandt 14. November 2003 1 Robin Brandt Informatik-Seminar 2003 - Thema 6: Bäume Übersicht Definition Eigenschaften Operationen Idee Beispiel Datendefinition

Mehr

Übungsstunde 5. Einführung in die Programmierung

Übungsstunde 5. Einführung in die Programmierung Übungsstunde 5 Einführung in die Programmierung Probleme bei Übung 4 [TODO Assistent] Nachbesprechung Übung 5 Aufgabe 1: Testen mit JUnit Aufgabe 2: Wörter Raten do-while benötigt keinen Dummy-Wert für

Mehr

Programmierung für Mathematik HS11

Programmierung für Mathematik HS11 software evolution & architecture lab Programmierung für Mathematik HS11 Übung 8 1 Aufgabe: Codeverständnis (Repetition) 1.1 Lernziele 1. Code verstehen können. 2. Fehler im Code finden und korrigieren

Mehr

Die Begriffe»sicher«,»möglich«und»unmöglich«

Die Begriffe»sicher«,»möglich«und»unmöglich« 6 Wahrscheinlichkeit Wahrscheinlichkeit Kompetenz 1 Die Begriffe»sicher«,»möglich«und»unmöglich«VORANSI 1. Kreuzt an und schreibt eine kurze Begründung auf. a) Jonas zieht eine Kugel. Was ist wahrscheinlicher?

Mehr

Einführung in die Informatik II Aus der Informationstheorie: Datenkompression

Einführung in die Informatik II Aus der Informationstheorie: Datenkompression Einführung in die Informatik II Aus der Informationstheorie: Datenkompression Prof. Bernd Brügge, Ph.D Institut für Informatik Technische Universität München Sommersemester 2 2. Juli 2 Copyright 2 Bernd

Mehr

Einführung in die Wahrscheinlichkeitsrechnung

Einführung in die Wahrscheinlichkeitsrechnung Einführung in die Wahrscheinlichkeitsrechnung Sven Garbade Fakultät für Angewandte Psychologie SRH Hochschule Heidelberg sven.garbade@hochschule-heidelberg.de Statistik 1 S. Garbade (SRH Heidelberg) Wahrscheinlichkeitsrechnung

Mehr

Randomisierte Algorithmen 2. Erste Beispiele

Randomisierte Algorithmen 2. Erste Beispiele Randomisierte Algorithmen Randomisierte Algorithmen 2. Erste Beispiele Thomas Worsch Fakultät für Informatik Karlsruher Institut für Technologie Wintersemester 2016/2017 1 / 35 Randomisierter Identitätstest

Mehr

2. AuD Tafelübung T-C3

2. AuD Tafelübung T-C3 2. AuD Tafelübung T-C3 Simon Ruderich 3. November 2010 Organisatorisches Bearbeitung der Praxisaufgaben Bereits vorhandene Klassen, Methoden, Variablen,... dürfen nicht verändert werden! Eigene Klassen,

Mehr

Wahrscheinlichkeitsraum Modellbildung und distanzierte Rationalität Diskrete Wahrscheinlichkeitsräume Kombinatorik

Wahrscheinlichkeitsraum Modellbildung und distanzierte Rationalität Diskrete Wahrscheinlichkeitsräume Kombinatorik Zählalgorithmus Zählalgorithmus = Produktregel der Kombinatorik = allgemeines Zählprinzip Beispiel Wie viele Menüs kann man aus 3 Vorspeisen, 5 Hauptgerichten und 2 Nachspeisen zusammenstellen, wenn Geschmacksfragen

Mehr

Übung Algorithmen und Datenstrukturen

Übung Algorithmen und Datenstrukturen Übung Algorithmen und Datenstrukturen Sommersemester 216 Patrick Schäfer, Humboldt-Universität zu Berlin Agenda Vorstellung des 6. Übungsblatts. Hashing Binäre Suchbäume AVL-Bäume 2 Aufgabe: Hashing mit

Mehr

ADS: Algorithmen und Datenstrukturen 2

ADS: Algorithmen und Datenstrukturen 2 ADS: Algorithmen und Datenstrukturen 2 Teil 6 Prof. Dr. Gerhard Heyer Institut für Informatik Abteilung Automatische Sprachverarbeitung Universität Leipzig 16. Mai 2018 [Letzte Aktualisierung: 18/05/2018,

Mehr

Berühmte Informatiker

Berühmte Informatiker Berühmte Informatiker Teil 11: Leslie Lamport 1941 - Friedrich L. Bauer 1924 - Leslie Lamport * 1941 in New York Mathematiker, Informatiker und Programmierer Bachelor in Mathematik 1960 am Massachusetts

Mehr

ADS: Algorithmen und Datenstrukturen 2

ADS: Algorithmen und Datenstrukturen 2 ADS: Algorithmen und Datenstrukturen 2 Teil 4 Prof. Dr. Gerhard Heyer Institut für Informatik Abteilung Automatische Sprachverarbeitung Universität Leipzig 24. April 2019 [Letzte Aktualisierung: 24/04/2019,

Mehr

Medienbildung am Studienseminar GHRF Projekttage Medienbildung Leitung: Dietlind Dietrich / Morten Giesen / Amrei Vieser

Medienbildung am Studienseminar GHRF Projekttage Medienbildung Leitung: Dietlind Dietrich / Morten Giesen / Amrei Vieser Medienbildung am Studienseminar GHRF Projekttage Medienbildung Leitung: Dietlind Dietrich / Morten Giesen / Amrei Vieser 1. Was ist ein außerschulischer Lernort? 2. Die MathCityMap 3. Erfahrungen aus der

Mehr

Informatik II, SS 2014

Informatik II, SS 2014 Informatik II SS 2014 (Algorithmen & Datenstrukturen) Vorlesung 7 (21.5.2014) Binäre Suche, Hashtabellen I Algorithmen und Komplexität Abstrakte Datentypen : Dictionary Dictionary: (auch: Maps, assoziative

Mehr