Implementierung von Huffmans Konstruktion optimaler Präfixcodes
|
|
- Christoph Kaufman
- vor 5 Jahren
- Abrufe
Transkript
1 Implementierung von Huffmans Konstruktion optimaler Präfixcodes Huffmans Konstruktion schrittweise Freq d proc s Häufigkeitsverteilung der Symbole (sortiert) map x / rhs x = lhs x, StringTools:-CharacterFrequencies s f1 d Freq "abracadabra" f1 := 1 = "c", 1 = "d", 2 = "b", 2 = "r", 5 = "a" HuffmanStep dproc flist T set `=` einzelner Schritt in der Huffmann-Konstruktion if nops flist = 1 then rhs flist else flist 3..K1 union lhs flist 1 C lhs flist 2 = rhs flist 1, rhs flist 2 fi; (1.1) HuffmanStep f1 HuffmanStep % HuffmanStep % HuffmanStep % HuffmanStep % 2 = "b", 2 = "r", 2 = "c", "d", 5 = "a" 2 = "c", "d", 4 = "b", "r", 5 = "a" 5 = "a", 6 = "c", "d", "b", "r" 11 = "a", "c", "d", "b", "r" "a", "c", "d", "b", "r" HuffmanTree dproc s T string Iterative Konstruktion des Huffman-Baumes zum string s mju=mittlere erwartete Wortlänge local sfreq, symb, i, mju; sfreq d Freq s ; symb d nops sfreq ; mju d 0; for i from 1 to symb K 1 do print sfreq ; mju d mju C lhs sfreq 1 C lhs sfreq 2 ; sfreq d HuffmanStep sfreq od; (1.2) (1.3) (1.4) (1.5) (1.6)
2 sfreq d HuffmanStep sfreq ; mju sfreq, evalf length s ht d HuffmanTree "abracadabra" ht := "a", "c", "d", "b", "r", HuffmanCoding dproc ht, p d "" binäre Huffman-Codierung für Huffman-Baum ht if ht T string then ht = p else procname ht 1, cat p, 0, procname ht 2, cat p, 1 fi hc d HuffmanCoding ht 1 hc := "a" = "0", "c" = "100", "d" = "101", "b" = "110", "r" = "111" CodeString dproc s T string, HCT list `=` ` ` codiert string s gemäss binärer Codierung HC s darf nur Symbole aus dem Alphabet von HC haben local hctab; hctab d table HC ; cat map x/hctab x, StringTools:-Explode s ; cs d CodeString "abracadabra", hc cs := " " StringTools:-Entropy "abracadabra" HuffmanTree "abracadabra" "a", "c", "d", "b", "r", mu d % 2 length cs length "abracadabra" $mu StringTools:-Entropy cs µ := (1.7) (1.8) (1.9) (1.10) (1.11) (1.12) (1.13) (1.14) (1.15) Huffman-Codierung und Decodierung (A. Mihailovs)
3 HuffmanEncode dproc s code from Alec Mihailovs (mapleprimes 2009) local C, T, HuffmanTree, HuffmanCoding; HuffmanTree d s / if nops s % 1 then rhs s else procname s 3..K1 union lhs s 1 C lhs s 2 = rhs s 1, rhs s 2 fi; HuffmanCoding dproc s, p d "" if s T string then s = p else procname s 1, cat p, 0, procname s 2, cat p, 1 fi end; if _nrest = 1 then T d _rest else T d HuffmanTree map x / rhs x = lhs x, StringTools:-CharacterFrequencies s fi; C d table HuffmanCoding T ; cat map x / C x, StringTools:-Explode s, T HuffmanDecode dproc b, T code from Alec Mihailovs (mapleprimes 2009) local h, i, j, ans; ans d Array 1..length b ; h d T; j d 0; for i to length b do if b i = "0" then h d h 1 else h d h 2 fi; if h T string then j d j C 1; ans j d h; h d T fi od; StringTools:-Implode seq i, i = ans 1..j HuffmanEncode "abracadabra" " ", "a", "c", "d", "b", "r" HuffmanDecode % "abracadabra" (2.1) (2.2) Textbeispiel text2 d "Problemfach Mathe Vielleicht, vielleicht auch nicht Mathe bleibt ein rätselhaftes Fach: So fällt es Grundschülern offenbar schwer, Wahrscheinlichkeiten richtig einzuschätzen. Viele Zweit- und Viertklässler scheiterten an der Frage, ob ein Ereignis unmöglich oder
4 nur unwahrscheinlich ist. Doch auch in Klasse sechs fielen die Tests eher mäßig aus. Grundschulkinder haben offenbar große Schwierigkeiten, Wahrscheinlichkeiten und komplexe Matheaufgaben richtig zu beurteilen. Dies zeigt eine Studie der Ludwig-Maximilians- Universität (LMU) und der Technischen Universität (TUM) in München. Dafür wurden die mathematischen Fähigkeiten von rund 160 Schülern aus den Klassen zwei, vier und sechs untersucht. Um herauszufinden, wie erfolgreich Kinder Verständnis für wissenschaftliche Beweisführungen und Wahrscheinlichkeiten entwickeln, zeigten die Forscher den Kindern, wie Bäume auf zwei verschiedene Sorten Dünger reagierten: Mit Dünger aus einer blauen Packung wuchsen 24 Bäume gut, 12 gingen ein. Mit Dünger aus einer gelben Packung wuchsen drei Bäume gut, einer ging ein. Die meisten Schüler hielten jedoch den Dünger aus der blauen Packung für besser. Sogar viele Sechstklässler wählen die falsche Strategie und missachten die Proportionen, sagt TUM-Didaktikerin Professor Kristina Reiss. Sie vergleichen stattdessen die Differenz aus 24 und 12 mit der Differenz aus 3 und 1. Deshalb kommen sie auf einen vermeintlich besseren Wert für den blauen Dünger. Unmöglich oder unwahrscheinlich? Nun ist Düngemitteleinsatz nicht gerade ein lebensnahes Beispiel für Grundschüler - wenn auch besser geeignet als etwa das Rechnen mit Kinderleichen, wie das im vergangenen Jahr ein japanischer Lehrer mit seinen Schüler versucht hatte. Im Alltag jedoch muss jeder Mensch immer wieder Wahrscheinlichkeiten einschätzen und Schlussfolgerungen aus wissenschaftlichen Ergebnissen ziehen - egal ob es um den Einsatz beim Lotto oder die Erfolgschancen medizinischer Therapien geht. Die Grundlagen für diese Fähigkeiten werden dabei schon in der Grundschule gelegt. Stochastik, die Vereinigung von Wahrscheinlichkeitstheorie und Statistik, wird an den meisten Schulen allerdings erst in der Oberstufe unterrichtet. Aber schon zwischen unmöglich und unwahrscheinlich zu unterscheiden, fiel den Schülern schwer. Noch in der vierten Klasse halten es viele Kinder für unmöglich, aus einem Sack mit 99 blauen und einem roten Würfel den roten zu ziehen. Den Kinder fehlen das Verständnis für Zufall und Wahrscheinlichkeit sowie Strategien, um Daten zu analysieren - obwohl sie in diesem Alter bereits ausgeprägte kognitive Kompetenzen entwickelt haben, sagt LMU-Entwicklungspsychologin Beate Sodian. Beispielsweise verstehen schon Zweitklässler intuitiv, dass eine große Datenmenge aussagekräftiger ist als eine geringere. Die Wissenschaftler wollen nun solche Kompetenzen der Kinder
5 identifizieren und darauf aufbauend Methoden entwickeln, wie das Wahrscheinlichkeitsverständnis im Unterricht gefördert werden kann. " : HT2 d HuffmanTree text2 HT2 := "t", "g", "w", "D", "S", "s", "r", "0", "3", "6", "?", "E", "W", ",", "p", "F", "G", "L", "T", "!", "I", "J", "A", "m", ".", "!", "f", "z", "!", "d", " ", "u", "l", "K", "P", "V", "M", "Z", "!", "B", "o", "c", "e", "!", " ", "a", "i", "n", "b", "k", "O", "(", "1", "-", "2", "j", ")", "4", "9", ":", "N", "R", "x", "y", "U", "v", "h", T2, M2 d op HT2 : HuffmanEncode text2 " \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ (3.1) (3.2)
6 \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \
7 \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \
8 \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \
9 \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \
10 \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ ", "t", "g", "w", "D", "S", "s", "r", "0", "3", "6", "?", "E", "W", ",", "p", "F", "G", "L", "T", "!", "I", "J", "A", "m", ".", "!", "f", "z", "!", "d", " ", "u", "l", "K", "P", "V", "M", "Z", "!", "B", "o", "c", "e", "!", " ", "a", "i", "n", "b", "k", "O", "(", "1", "-", "2", "j", ")", "4", "9", ":", "N", "R", "x", "y", "U", "v", "h" HuffmanDecode % "Problemfach Mathe Vielleicht, vielleicht auch nicht Mathe bleibt ein rätselhaftes Fach: So fällt es Grundschülern offenbar schwer, Wahrscheinlichkeiten richtig einzuschätzen. Viele Zweit- und Viertklässler scheiterten an der Frage, ob ein Ereignis unmöglich oder nur unwahrscheinlich ist. Doch auch in Klasse sechs fielen die Tests eher mäßig aus. Grundschulkinder haben offenbar große Schwierigkeiten, Wahrscheinlichkeiten und komplexe Matheaufgaben richtig zu (3.3)
11 beurteilen. Dies zeigt eine Studie der Ludwig-Maximilians- Universität (LMU) und der Technischen Universität (TUM) in München. Dafür wurden die mathematischen Fähigkeiten von rund 160 Schülern aus den Klassen zwei, vier und sechs untersucht. Um herauszufinden, wie erfolgreich Kinder Verständnis für wissenschaftliche Beweisführungen und Wahrscheinlichkeiten entwickeln, zeigten die Forscher den Kindern, wie Bäume auf zwei verschiedene Sorten Dünger reagierten: Mit Dünger aus einer blauen Packung wuchsen 24 Bäume gut, 12 gingen ein. Mit Dünger aus einer gelben Packung wuchsen drei Bäume gut, einer ging ein. Die meisten Schüler hielten jedoch den Dünger aus der blauen Packung für besser. Sogar viele Sechstklässler wählen die falsche Strategie und missachten die Proportionen, sagt TUM-Didaktikerin Professor Kristina Reiss. Sie vergleichen stattdessen die Differenz aus 24 und 12 mit der Differenz aus 3 und 1. Deshalb kommen sie auf einen vermeintlich besseren Wert für den blauen Dünger. Unmöglich oder unwahrscheinlich? Nun ist Düngemitteleinsatz nicht gerade ein lebensnahes Beispiel für Grundschüler - wenn auch besser geeignet als etwa das Rechnen mit Kinderleichen, wie das im vergangenen Jahr ein japanischer Lehrer mit seinen Schüler versucht hatte. Im Alltag jedoch muss jeder Mensch immer wieder Wahrscheinlichkeiten einschätzen und Schlussfolgerungen aus wissenschaftlichen Ergebnissen ziehen - egal ob es um den Einsatz beim Lotto oder die Erfolgschancen medizinischer Therapien geht. Die Grundlagen für diese Fähigkeiten werden dabei schon in der Grundschule gelegt. Stochastik, die Vereinigung von Wahrscheinlichkeitstheorie und Statistik, wird an den meisten Schulen allerdings erst in der Oberstufe unterrichtet. Aber schon zwischen unmöglich und unwahrscheinlich zu unterscheiden, fiel den Schülern schwer. Noch in der vierten Klasse halten es viele Kinder für unmöglich, aus einem Sack mit 99 blauen und einem roten Würfel den roten zu ziehen. Den Kinder fehlen das Verständnis für Zufall und Wahrscheinlichkeit sowie Strategien, um Daten zu analysieren - obwohl sie in
12 diesem Alter bereits ausgeprägte kognitive Kompetenzen entwickelt haben, sagt LMU-Entwicklungspsychologin Beate Sodian. Beispielsweise verstehen schon Zweitklässler intuitiv, dass eine große Datenmenge aussagekräftiger ist als eine geringere. Die Wissenschaftler wollen nun solche Kompetenzen der Kinder identifizieren und darauf aufbauend Methoden entwickeln, wie das Wahrscheinlichkeitsverständnis im Unterricht gefördert t d time : bin2 d HuffmanEncode text2 : time K t; t d time : HuffmanDecode bin2 : time K t; length text2 StringTools:-Entropy text2 M2 length text2 $M2 length bin2 1 mu d 1 StringTools:-Entropy bin2 1 werden kann. " µ := (3.4) (3.5) (3.6) (3.7) (3.8) (3.9) (3.10) (3.11) (3.12)
2. Woche Eindeutige Entschlüsselbarleit, Sätze von Kraft und McMillan, Huffmancodierung
2 Woche Eindeutige Entschlüsselbarleit, Sätze von Kraft und McMillan, Huffmancodierung 2 Woche: Eindeutige Entschlüsselbarleit, Sätze von Kraft und McMillan, Huffmancodierung 24/ 44 Zwei Beispiele a 0
Mehr21. Greedy Algorithmen. Aktivitätenauswahl, Fractional Knapsack Problem, Huffman Coding Cormen et al, Kap. 16.1, 16.3
581 21. Greedy Algorithmen Aktivitätenauswahl, Fractional Knapsack Problem, Huffman Coding Cormen et al, Kap. 16.1, 16.3 Aktivitäten Auswahl 582 Koordination von Aktivitäten, die gemeinsame Resource exklusiv
MehrWann sind Codes eindeutig entschlüsselbar?
Wann sind Codes eindeutig entschlüsselbar? Definition Suffix Sei C ein Code. Ein Folge s {0, 1} heißt Suffix in C falls 1 c i, c j C : c i = c j s oder 2 c C und einen Suffix s in C: s = cs oder 3 c C
MehrKompetenzen von Grundschülern bei der Bearbeitung von Aufgaben zur Wahrscheinlichkeitsrechnung
Kompetenzen von Grundschülern bei der Bearbeitung von Aufgaben zur Wahrscheinlichkeitsrechnung BERND NEUBERT, GIEßEN Zusammenfassung: Im Artikel wird dargestellt, welche Kompetenzen Grundschüler verschiedener
Mehr16 - Kompressionsverfahren für Texte
16 - Kompressionsverfahren für Texte Prof. Dr. S. Albers Kompressionsverfahren für Texte Verlustfreie Kompression Original kann perfekt rekonstruiert werden Beispiele: Huffman Code, Lauflängencodierung,
MehrKompressionsverfahren für Texte
Kompressionsverfahren für Texte Prof. Dr. S. Albers Prof. Dr. Th. Ottmann 1 Zeichenkettenverarbeitung Suche in Texten, Textindizes Mustererkennung (Pattern-Matching) Verschlüsseln Komprimiern Analysieren
MehrEinführung in die Wahrscheinlichkeitsrechnung
Marco Cattaneo Institut für Statistik Ludwig-Maximilians-Universität München Sommersemester 2011 1. Wahrscheinlichkeitsrechnung 2. Diskrete Zufallsvariable 3. Stetige Zufallsvariable 4. Grenzwertsätze
MehrStrings. Stringsuche, Boyer-Moore, Textkompression, Huffman Codes.
Strings Stringsuche, Boyer-Moore, Textkompression, Huffman Codes. Suche Substring Häufiges Problem Relevante Beispiele: Suche ein Schlagwort in einem Buch Alphabet: A-Za-z0-9 Suche Virussignatur auf der
MehrDaten und Zufall. eine gar nicht sooo neue Leitidee im Bildungsplan Mathematik Grundschule. SINUS September 2012 Benedikt Rocksien 1
Daten und Zufall eine gar nicht sooo neue Leitidee im Bildungsplan Mathematik Grundschule SINUS September 2012 Benedikt Rocksien 1 Mathematikunterricht in der Grundschule Allgemeine mathematische Kompetenzen
MehrÜbung: Quicksort. Erster Schritt zu Quicksort: Felder "partitionieren"
Übung: Quicksort In der Vorlesung haben wir zum Sortieren die Prozedur mergesort kennen gelernt. Heute besprechen wir einen weiteren berühmten Sortieralgorithmus: quicksort Im Gegensatz zu mergesort, lässt
MehrDynamisches Huffman-Verfahren
Dynamisches Huffman-Verfahren - Adaptive Huffman Coding - von Michael Brückner 1. Einleitung 2. Der Huffman-Algorithmus 3. Übergang zu einem dynamischen Verfahren 4. Der FGK-Algorithmus 5. Überblick über
MehrMiller-Rabin-Demo. Miller-Rabin-Test. with Statistics : with numtheory : with LinearAlgebra :
Miller-Rabin-Demo with Statistics : with numtheory : with LinearAlgebra : Miller-Rabin-Test MRsteps dproc N, aa Test, ob a ein Miller-Rabin-Zeuge für die Zusammengesetztheit von N ist: Antwort "true" besagt,
MehrAufgabe: Platz-effiziente Kompression von Textdaten
7.3 Huffman-Bäume Anwendung von Binärbäumen Aufgabe: Platz-effiziente Kompression von Textdaten Standardcodierungen von Textdaten ISO-8859-1: 8 Bit pro Zeichen UTF-16: 16 Bit pro Zeichen Codierungen mit
MehrVORSCHAU. zur Vollversion. Gewinnchancen beim Kugelziehen einschätzen. Welchen Sack sollte Tom wählen, wenn a) Gelb gewinnt? b) Rot gewinnt?
1 Gewinnchancen beim Kugelziehen einschätzen 1. Tom kann einen Sack wählen. Er zieht daraus eine Kugel. 1 2 Welchen Sack sollte Tom wählen, wenn a) Gelb gewinnt? b) Rot gewinnt? 2. Tom zieht 2 Kugeln aus
MehrComputer Science Unplugged Algorithmen zur Textkompression
Proseminar Computer Science Unplugged Algorithmen zur Textkompression Harald Zauner 12. November 2004 Zusammenfassung Trotz der rasch zunehmenden Speicherkapazität heutiger Speichermedien besteht nach
MehrSortieren. Maple sortiert; Unordnung schaffen. > restart;
restart; Sortieren Maple sortiert; Unordnung schaffen Vorbemerkung: Maple kann schon selber sortieren. Dazu erzeugen wir erstmal eine unsortierte Liste: > r := rand(1..100): > l := [seq(r(), i=1..10)];
MehrGierige Algorithmen Interval Scheduling
Gierige Algorithmen Interval Scheduling IntervalScheduling(s,f). n length[s] 2. A {} 3. j 4. for i 2 to n do 5. if s[i] f[j] then 6. A A {i} 7. j i 8. return A Gierige Algorithmen Interval Scheduling Beweisidee:
MehrAnsätze zur Erfassung von Faktoren durch Prüfungsaufgaben. (Diskussionen in Dagstuhl sowie mit Prof. Nickolaus, Technikpädagogik, U Stuttgart)
Taxonomie + Schwierigkeit Ansätze zur Erfassung von Faktoren durch Prüfungsaufgaben. (Diskussionen in Dagstuhl sowie mit Prof. Nickolaus, Technikpädagogik, U Stuttgart) Beurteilen Synthese Konstruktion
MehrEntropie. Um der Begriff der Entropie zu erläutern brauchen wir erst mal einige Definitionen, z.b.
Entropie Grundlegend für das Verständnis des Begriffes der Komprimierung ist der Begriff der Entropie. In der Physik ist die Entropie ein Maß für die Unordnung eines Systems. In der Informationstheorie
MehrImage Compression. Vorlesung FH-Hagenberg DSB
Image Compression Vorlesung FH-Hagenberg DSB Kompression Encoder Decoder Beseitigung der unnötigen Daten... Redundanz Inhalte Redundanz Loss-less Compression Hufmann Coding Runlength Coding Lossy Compression
MehrEinleitung. Kapitel 1
Kapitel 1 Einleitung In diesem Abschnitt geben wir einen kurzen Überblick über den Inhalt der Vorlesung. Wir werden kurz die wesentlichen Probleme erläutern, die wir ansprechen wollen. Wir werden auch
MehrSuche in Texten. Verschiedene Szenarios: Dynamische Texte. Texteditoren Symbolmanipulatoren. Statische Texte
Suche in Texten Suche in Texten Verschiedene Szenarios: Dynamische Texte Texteditoren Symbolmanipulatoren Statische Texte Literaturdatenbanken Bibliothekssysteme Gen-Datenbanken WWW-Verzeichnisse 2 Suche
MehrSpalten aufsummieren?!
News Artikel Foren Projekte Links Über Redscope Join List Random Previous Next Startseite Foren Allgemeine Fragen zu SAS Spalten aufsummieren?! 5 July, 2010-11:59 Student- Hallo liebe SAS-Gemeinschaft
Mehr21. Dynamic Programming III
Approximation 21. Dynamic Programming III FPTAS [Ottman/Widmayer, Kap. 7.2, 7.3, Cormen et al, Kap. 15,35.5] Sei ein ε (, 1) gegeben. Sei I eine bestmögliche Auswahl. Suchen eine gültige Auswahl I mit
MehrKapitel 7: Optimalcodierung und Huffman Coding
Kapitel 7: codierung und Huffman Coding Ziele des Kapitels Auftreten von Fehlern bei zu starker Kompression Konstruktion optimaler Codes Huffman Coding 2 Bisher Theorem (Shannon I): Die mittlere Codewortlänge
Mehr3. Woche Information, Entropie. 3. Woche: Information, Entropie 45/ 238
3 Woche Information, Entropie 3 Woche: Information, Entropie 45/ 238 Informationsgehalt einer Nachricht Intuitiv: Je kleiner die Quellws, desto wichtiger oder strukturierter die Information, bzw höher
MehrMathematik am Abendgymnasium Münster
Verantwortlich für eine gute Ausbildung sind: Dr. Jörg Hettwer (Mathe, Chemie, Physik und Informatik) Anne Köster-Kummer (Mathe, Biologie) Mirja Rösler (Mathe, Biologie) Dr. Boris Rüping (Mathe, Biologie)
MehrInhaltsübersicht. Vorwort 15. Vorwort zur deutschen Ausgabe 22. Kapitel 1 Elemente der Programmierung 25. Kapitel 2 Funktionen und Module 203
Inhaltsübersicht Vorwort 15 Vorwort zur deutschen Ausgabe 22 Kapitel 1 Elemente der Programmierung 25 Kapitel 2 Funktionen und Module 203 Kapitel 3 Objektorientierte Programmierung 335 Kapitel 4 Algorithmen
MehrÜbersicht. Aktivitäten-Auswahl-Problem. Greedy Algorithmen. Aktivitäten-Auswahl-Problem. Aktivitäten-Auswahl-Problem. Datenstrukturen & Algorithmen
Datenstrukturen & Algorithmen Übersicht Greedy Algorithmen Einführung Aktivitäten-Auswahl-Problem Huffman Codierung Matthias Zwicker Universität Bern Frühling 2009 2 Greedy Algorithmen Entwurfsstrategie
MehrÜbung zur Vorlesung Digitale Medien. Doris Hausen Ludwig-Maximilians-Universität München Wintersemester 2010/2011
Übung zur Vorlesung Digitale Medien Doris Hausen Ludwig-Maximilians-Universität München Wintersemester 2010/2011 1 Übungsbetrieb Informationen zu den Übungen: http://www.medien.ifi.lmu.de/dm http://www.die-informatiker.net
Mehr(Prüfungs-)Aufgaben zur Codierungstheorie
(Prüfungs-)Aufgaben zur Codierungstheorie 1) Gegeben sei die folgende CCITT2-Codierung der Dezimalziffern: Dezimal CCITT2 0 0 1 1 0 1 1 1 1 1 0 1 2 1 1 0 0 1 3 1 0 0 0 0 4 0 1 0 1 0 5 0 0 0 0 1 6 1 0 1
MehrMehrere Datensätze zu einem Datensatz zusammenführen
News Artikel Foren Projekte Links Über Redscope Join List Random Previous Next Startseite Foren ETL & Base SAS Mehrere Datensätze zu einem Datensatz zusammenführen 3 November, 2008-23:42 wlohr Hallo zusammen!
MehrÜ b u n g s b l a t t 4
Einführung in die Stochastik Sommersemester 07 Dr. Walter Oevel 30. 4. 2007 Ü b u n g s b l a t t 4 Mit und gekennzeichnete Aufgaben können zum Sammeln von Bonuspunkten verwendet werden. Lösungen von -Aufgaben
MehrBereiche der Stochastik
Statistik Wahrscheinlichkeit Kombinatorik Bereiche der Stochastik Kombinatorik Hans Freudenthal: Einfache Kombinatorik ist das Rückgrat elementarer Wahrscheinlichkeitsrechnung. Die Lehrkraft bereitet sich
Mehr13 Berechenbarkeit und Aufwandsabschätzung
13 Berechenbarkeit und Aufwandsabschätzung 13.1 Berechenbarkeit Frage: Gibt es für jede Funktion, die mathematisch spezifiziert werden kann, ein Programm, das diese Funktion berechnet? Antwort: Nein! [Turing
MehrMathematik. Mathematische Leitidee: Daten, Häufigkeit und Wahrscheinlichkeit. Aufgabe Nr./Jahr: 16/2010. Bezug zum Lehrplan NRW:
Mathematik Mathematische Leitidee: Daten, Häufigkeit und Wahrscheinlichkeit Aufgabe Nr./Jahr: 16/2010 Bezug zum Lehrplan NRW: Prozessbezogener Bereich (Kap. 2.1) Prozessbezogene Kompetenzen (Kap. 3.1)
MehrDatenstrukturen. Ziele
Datenstrukturen Ziele Nutzen von Datenstrukturen Funktionsweise verstehen Eigenen Datenstrukturen bauen Vordefinierte Datenstrukturen kennen Hiflsmethoden komplexer Datenstrukten kennen Datenstrukturen
Mehr12. Gruppenübung zur Linearen Algebra I
2. Gruppenübung zur Linearen Algebra I > restart; > with(linalg): Warning, new definition for norm Warning, new definition for trace Zuerst definieren wir uns die Hilfsfunktion linindep (vgl.. Übung),
Mehr3.2. Divide-and-Conquer-Methoden
LUDWIG- MAXIMILIANS- UNIVERSITY MUNICH DEPARTMENT INSTITUTE FOR INFORMATICS DATABASE 3.2. Divide-and-Conquer-Methoden Divide-and-Conquer-Methoden Einfache Sortieralgorithmen reduzieren die Größe des noch
MehrKapitel 1: Informationsverarbeitung durch Programme
LUDWIG- MAXIMILIANS- UNIVERSITY MUNICH DEPARTMENT INSTITUTE FOR INFORMATICS Skript zur Vorlesung: Einführung in die Informatik: Systeme und Anwendungen Sommersemester 2018 Kapitel 1: Informationsverarbeitung
MehrKLAUSUR zum Kurs Elementare Zahlentheorie mit Maple (01202) WS 2014/15
FernUniversität in Hagen FAKULTÄT für Mathematik und Informatik Bitte hier unbedingt Matrikelnummer und Adresse eintragen, sonst keine Bearbeitung möglich. Postanschrift: FernUniversität 58084 Hagen (Name,
MehrImport von Text-Dateien. Einzelne Wörter einlesen.
News Artikel Foren Projekte Links Über Redscope Join List Random Previous Next Startseite Foren Allgemeine Fragen zu SAS Import von Text-Dateien. Einzelne Wörter einlesen. 28 April, 2009-10:14 beznika
MehrBiometrische und Ökonometrische Methoden I Lösungen 9
TECHNISCHE UNIVERSITÄT MÜNCHEN - WEIHENSTEPHAN WS 00/01 MATHEMATIK UND STATISTIK, INFORMATIONS- UND DOKUMENTATIONSZENTRUM Biometrische und Ökonometrische Methoden I Lösungen 9 1. a) MTB > Retrieve "H:\STUDENT\MINITAB\OPELVW.MTW".
MehrInformationsgehalt einer Nachricht
Informationsgehalt einer Nachricht Betrachten folgendes Spiel Gegeben: Quelle Q mit unbekannten Symbolen {a 1, a 2 } und p 1 = 0.9, p 2 = 0.1. Zwei Spieler erhalten rundenweise je ein Symbol. Gewinner
Mehr3 Codierung diskreter Quellen. Quelle Quellcodierer Kanalcodierer reduziert die benötigte Datenmenge. fügt Daten zur Fehlerkorrektur ein.
3 Codierung diskreter Quellen 3 Einführung 32 Ungleichmäßige Codierung 33 Präfix-Codes 34 Grenzen der Code-Effizienz 35 Optimal-Codierung 3 Zusammenfassung < 24 / 228 > 3 Codierung diskreter Quellen Quelle
MehrBeispiel: Zeigen Sie, dass H(x) = H 0 = I gilt, wenn alle Zeichen gleichwahrscheinlich sind.
1 2 Im ersten Schritt werden wir uns mit dem Begriff und der Definition der Information beschäftigen. Ferner werden die notwendigen math. Grundlagen zur Quellencodierung gelegt. Behandelt werden Huffman,
Mehr6 Ü B E R S E T Z U N G E N U N D C O D I E R U N G E N. 6.1 von wörtern zu zahlen und zurück Dezimaldarstellung von Zahlen Num 10
6 Ü B E R S E T Z U N G E N U N D C O D I E R U N G E N 6.1 von wörtern zu zahlen und zurück 6.1.1 Dezimaldarstellung von Zahlen Num 10 Num10(ε) = 0 (6.1) für jedes w Z 10 für jedes x Z 10 Num 10 (wx)
MehrGrundlagen: Algorithmen und Datenstrukturen
Grundlagen: Algorithmen und Datenstrukturen Prof. Dr. Hanjo Täubig Lehrstuhl für Effiziente Algorithmen (Prof. Dr. Ernst W. Mayr) Institut für Informatik Technische Universität München Sommersemester 00
MehrJede Kombination von 7 Spalten erzeugen
News Artikel Foren Projekte Links Über Redscope Join List Random Previous Next Startseite Foren ETL & Base SAS Jede Kombination von 7 Spalten erzeugen 14 May, 2007-16:22 HansKneilmann Hallo, ein Kollege
MehrSuchen und Sortieren Sortieren. Heaps
Suchen und Heaps (Folie 156, Seite 56 im Skript) Definition Ein Heap ist ein Binärbaum, der die Heapeigenschaft hat (Kinder sind größer als der Vater), bis auf die letzte Ebene vollständig besetzt ist,
MehrKompression. Kompression. Beseitigung der unnötigen Daten... Redundanz. Folie 2
Kompression Kompression Encoder Decoder Beseitigung der unnötigen Daten... Redundanz Folie 2 1 Inhalte Redundanz Channel Encoding Loss-less Compression Hufmann Coding Runlength Coding Lossy Compression
MehrSyntax natürlicher Sprachen
Syntax natürlicher Sprachen 02: Grammatik und Bäume Martin Schmitt Ludwig-Maximilians-Universität München 25.10.2017 Martin Schmitt (LMU) Syntax natürlicher Sprachen 25.10.2017 1 1 Syntax im NLTK 2 Grammatik
MehrKapitel 1: Informationsverarbeitung durch Programme
LUDWIG- MAXIMILIANS- UNIVERSITY MUNICH DEPARTMENT INSTITUTE FOR INFORMATICS Skript zur Vorlesung: Einführung in die Informatik: Systeme und Anwendungen Sommersemester 2009 Kapitel 1: Informationsverarbeitung
MehrDaten und Zufall. eine gar nicht sooo neue Leitidee im Bildungsplan Mathematik Grundschule. SINUS September 2012 Benedikt Rocksien 1
Daten und Zufall eine gar nicht sooo neue Leitidee im Bildungsplan Mathematik Grundschule SINUS September 2012 Benedikt Rocksien 1 Es hängt an der Wand, macht Ticktack, und wenn es runterfällt, geht die
MehrAlgorithmen und Datenstrukturen (für ET/IT) Programm heute. Wintersemester 2012/13. Dr. Tobias Lasser. 7 Fortgeschrittene Datenstrukturen
Algorithmen und Datenstrukturen (für ET/IT) Wintersemester 202/3 Dr. Tobias Lasser Computer Aided Medical Procedures Technische Universität München Programm heute 7 Fortgeschrittene Datenstrukturen 8 Such-Algorithmen
MehrÜbung zu Algorithmen und Datenstrukturen (für ET/IT)
Übung zu Algorithmen und Datenstrukturen (für ET/IT) Wintersemester 2012/13 Jakob Vogel Computer-Aided Medical Procedures Technische Universität München Komplexität von Programmen Laufzeit kann näherungsweise
MehrKap. 4.7 Skiplisten. 14./15. VO DAP2 SS /16. Juni 2009
Kap. 4.7 Skiplisten Professor Dr. Lehrstuhl für Algorithm Engineering, LS11 Fakultät für Informatik, TU Dortmund 14./15. VO DAP2 SS 2008 9./16. Juni 2009 1 2. Übungstest Termin: Di 16. Juni 2009 im AudiMax,
MehrDaten, Häufigkeiten, Wahrscheinlichkeiten
Daten, Häufigkeiten, Wahrscheinlichkeiten Ein neuer Bereich im Lehrplan Mathematik Die acht Bereiche des Faches Mathematik Prozessbezogene Bereiche Problemlösen / kreativ sein Inhaltsbezogene Bereiche
MehrI: Daten und Codierung
Weitere Übungen zu Daten und Codierungen. Bearbeitet das neu Arbeitsblatt mit Barcodes und Eiercodes. https://www.youtube.com/watch?v=_ecwoc7kwte http://www.ardmediathek.de/tv/wissen-macht-ah/%c3%9cberraschungsbesuch/das-
MehrFunktionale Programmierung mit Haskell
Funktionale Programmierung mit Haskell Prof. Dr. Hans J. Schneider Lehrstuhl für Programmiersprachen und Programmiermethodik Friedrich-Alexander-Universität Erlangen-Nürnberg Sommersemester 2011 I. Die
MehrINSERTION-SORT: Ja, Es wird immer das erste, kleinste Element an die neue Liste angehängt.
Aufgabe 1 INSERTION-SORT: Ja, Es wird immer das erste, kleinste Element an die neue Liste angehängt. QUICK-SORT: Hängt davon ab ob PARTITION stabil ist. MERGE-SORT: Ja, Splitten, sowie Mergen ist stabil.
MehrÜbrigens: um den Algorithmus im Unterricht einzuführen, sind keine Formeln notwendig! Warum reicht die normale ASCII-Codierung nicht aus?
Huffman-Code Dieser Text ist als Hintergrundinformation ausschliesslich für die Lehrperson gedacht. Der Text ist deshalb eher technisch gehalten. Er lehnt sich an das entsprechende Kapitel in "Turing Omnibus"
Mehrh = 1 7 ( ) = 21 7 = 3
Zur mittleren Höhe von Binärbäumen mittlere Höhe von Binärbäumen Entropie gewichtete mittlere Höhe von Binärbäumen Quellcodierung, Datenkompression Shannons Theorem optimale Quellcodierung (Huffman) wobei
MehrBiometrische und Ökonometrische Methoden I! Lösungen 9
TECHNISCHE UNIVERSITÄT MÜNCHEN - WEIHENSTEPHAN WS 98/99 MATHEMATIK UND STATISTIK, INFORMATIONS- UND DOKUMENTATIONSZENTRUM Biometrische und Ökonometrische Methoden I! Lösungen 9 1. a) MTB > name c1 'DM'
MehrDEMO für STOCHASTIK. Testen von Hypothesen. Datei Nr INTERNETBIBLIOTHEK FÜR SCHULMATHEMATIK.
STOCHASTIK Testen von Hypothesen Teil 1 rundlagen der Signifikanztests Hier: Berechnungen mit Binomialverteilung Datei Nr. 35010 Stand: 9. November 2013 FRIEDRICH W. BUCKEL INTERNETBIBLIOTHEK FÜR SCHULMATHEMATIK
MehrStatistik (für Biol./Pharm. Wiss.) Einführung
Statistik (für Biol./Pharm. Wiss.) Einführung Warum Statistik? 2 Warum Statistik? ALLTAG Beratungsdienst: Fast täglich haben wir Anfragen aus dem Bereich Life Sciences! Statistik ist aus den Life Sciences
MehrBeuth Hochschule Hash-Tabellen WS17/18, S. 1
Beuth Hochschule Hash-Tabellen WS17/18, S. 1 Hash-Tabellen Binäres Suchen (in einer sortierten Reihung oder in einem sortierten binären Baum) ist sehr schnell (O(log(n))). Es gibt aber (erstaunlicherweise)
MehrLehrer- und Selbsteinschätzung von Motivation und Kreativität von hochleistenden Schülern
Lehrer- und Selbsteinschätzung von Motivation und Kreativität von en Schülern Detlef Urhahne Psychology of Excellence in Business and Education Ludwig-Maximilians-Universität München Gliederung Theoretischer
MehrGraphalgorithmen Minimale Spannbäume. Kruskal: Minimaler Spannbaum
Kruskal: Minimaler Spannbaum (Folie 414, Seite 78 im Skript) 4 6 2 3 1 2 5 3 7 1 4 Kruskals Algorithmus Implementierung (Folie 415, Seite 78 im Skript) Algorithmus function Kruskal(G, w) : A := ; for each
MehrReferat zum Thema Huffman-Codes
Referat zum Thema Huffman-Codes Darko Ostricki Yüksel Kahraman 05.02.2004 1 Huffman-Codes Huffman-Codes ( David A. Huffman, 1951) sind Präfix-Codes und das beste - optimale - Verfahren für die Codierung
MehrMaple-Test zur LVA 'Computermathematik', SS Gruppe weiß
Maple-Test zur LVA 'Computermathematik', SS 2011 Gruppe weiß *** ANMERKUNGEN UND LÖSUNGSHINWEISE *** Aufgabe Punkte ---------------------------------- 1 / 2 2 / 3 3 / 3 4 / 5 5 / 6 6 / 4 7 / 3 8 / 4 ------------------------------------
MehrKinga Szűcs Friedrich-Schiller-Universität Jena Fakultät für Mathematik und Informatik Abteilung Didaktik
Beurteilende Statistik im Mathematikunterricht Kinga Szűcs Friedrich-Schiller-Universität Jena Fakultät für Mathematik und Informatik Abteilung Didaktik 20.11.2014 Gliederung Anliegen der beurteilenden
MehrDigitale Medien. Übung
Digitale Medien Übung Übungsbetrieb Informationen zu den Übungen: http://www.medien.ifi.lmu.de/dm http://www.die-informatiker.net Zwei Stunden pro Woche Praktische Anwendungen des theoretischen Vorlesungsstoffs
MehrWie muss der Eingabetext beschaffen sein, damit er sich gut komprimieren lässt?
Lernaufgabe 1a Beim Kofferpacken können wir durch Druck die Luft herauslassen und bringen somit mehr Kleidungsstücke in den Koffer. Im Unterricht haben wir vom Huffman-Code gehört und wissen, dass er nach
MehrMathe III. Garance PARIS. Mathematische Grundlagen III. Informationstheorie. 20. Juni /1
Mathematische Grundlagen III Informationstheorie 20 Juni 20 / Informationstheorie Ein Gerüst, um über den Informationsgehalt von (linguistischen) Ereignissen nachzudenken Einige Beispiele für Anwendungen:
MehrIm Leben ist nichts gewiss - außer dem Tod und den Steuern
Stochastik für Klasse - Joachim engel@ph-ludwigsburg.de www.joachimengel.eu Jahrestagung Mathematik der GHS-Seminare,. Oktober 00 Im Leben ist nichts gewiss - außer dem Tod und den Steuern SERJ - Statistics
MehrINFORMATIK FÜR BIOLOGEN
Technische Universität Dresden 15012015 Institut für Theoretische Informatik Professur für Automatentheorie INFORMATIK FÜR BIOLOGEN Musterklausur WS 2014/15 Studiengang Biologie und Molekulare Biotechnologie
MehrInformatik-Seminar Thema 6: Bäume
Informatik-Seminar 2003 - Thema 6: Bäume Robin Brandt 14. November 2003 1 Robin Brandt Informatik-Seminar 2003 - Thema 6: Bäume Übersicht Definition Eigenschaften Operationen Idee Beispiel Datendefinition
MehrÜbungsstunde 5. Einführung in die Programmierung
Übungsstunde 5 Einführung in die Programmierung Probleme bei Übung 4 [TODO Assistent] Nachbesprechung Übung 5 Aufgabe 1: Testen mit JUnit Aufgabe 2: Wörter Raten do-while benötigt keinen Dummy-Wert für
MehrProgrammierung für Mathematik HS11
software evolution & architecture lab Programmierung für Mathematik HS11 Übung 8 1 Aufgabe: Codeverständnis (Repetition) 1.1 Lernziele 1. Code verstehen können. 2. Fehler im Code finden und korrigieren
MehrDie Begriffe»sicher«,»möglich«und»unmöglich«
6 Wahrscheinlichkeit Wahrscheinlichkeit Kompetenz 1 Die Begriffe»sicher«,»möglich«und»unmöglich«VORANSI 1. Kreuzt an und schreibt eine kurze Begründung auf. a) Jonas zieht eine Kugel. Was ist wahrscheinlicher?
MehrEinführung in die Informatik II Aus der Informationstheorie: Datenkompression
Einführung in die Informatik II Aus der Informationstheorie: Datenkompression Prof. Bernd Brügge, Ph.D Institut für Informatik Technische Universität München Sommersemester 2 2. Juli 2 Copyright 2 Bernd
MehrEinführung in die Wahrscheinlichkeitsrechnung
Einführung in die Wahrscheinlichkeitsrechnung Sven Garbade Fakultät für Angewandte Psychologie SRH Hochschule Heidelberg sven.garbade@hochschule-heidelberg.de Statistik 1 S. Garbade (SRH Heidelberg) Wahrscheinlichkeitsrechnung
MehrRandomisierte Algorithmen 2. Erste Beispiele
Randomisierte Algorithmen Randomisierte Algorithmen 2. Erste Beispiele Thomas Worsch Fakultät für Informatik Karlsruher Institut für Technologie Wintersemester 2016/2017 1 / 35 Randomisierter Identitätstest
Mehr2. AuD Tafelübung T-C3
2. AuD Tafelübung T-C3 Simon Ruderich 3. November 2010 Organisatorisches Bearbeitung der Praxisaufgaben Bereits vorhandene Klassen, Methoden, Variablen,... dürfen nicht verändert werden! Eigene Klassen,
MehrWahrscheinlichkeitsraum Modellbildung und distanzierte Rationalität Diskrete Wahrscheinlichkeitsräume Kombinatorik
Zählalgorithmus Zählalgorithmus = Produktregel der Kombinatorik = allgemeines Zählprinzip Beispiel Wie viele Menüs kann man aus 3 Vorspeisen, 5 Hauptgerichten und 2 Nachspeisen zusammenstellen, wenn Geschmacksfragen
MehrÜbung Algorithmen und Datenstrukturen
Übung Algorithmen und Datenstrukturen Sommersemester 216 Patrick Schäfer, Humboldt-Universität zu Berlin Agenda Vorstellung des 6. Übungsblatts. Hashing Binäre Suchbäume AVL-Bäume 2 Aufgabe: Hashing mit
MehrADS: Algorithmen und Datenstrukturen 2
ADS: Algorithmen und Datenstrukturen 2 Teil 6 Prof. Dr. Gerhard Heyer Institut für Informatik Abteilung Automatische Sprachverarbeitung Universität Leipzig 16. Mai 2018 [Letzte Aktualisierung: 18/05/2018,
MehrBerühmte Informatiker
Berühmte Informatiker Teil 11: Leslie Lamport 1941 - Friedrich L. Bauer 1924 - Leslie Lamport * 1941 in New York Mathematiker, Informatiker und Programmierer Bachelor in Mathematik 1960 am Massachusetts
MehrADS: Algorithmen und Datenstrukturen 2
ADS: Algorithmen und Datenstrukturen 2 Teil 4 Prof. Dr. Gerhard Heyer Institut für Informatik Abteilung Automatische Sprachverarbeitung Universität Leipzig 24. April 2019 [Letzte Aktualisierung: 24/04/2019,
MehrMedienbildung am Studienseminar GHRF Projekttage Medienbildung Leitung: Dietlind Dietrich / Morten Giesen / Amrei Vieser
Medienbildung am Studienseminar GHRF Projekttage Medienbildung Leitung: Dietlind Dietrich / Morten Giesen / Amrei Vieser 1. Was ist ein außerschulischer Lernort? 2. Die MathCityMap 3. Erfahrungen aus der
MehrInformatik II, SS 2014
Informatik II SS 2014 (Algorithmen & Datenstrukturen) Vorlesung 7 (21.5.2014) Binäre Suche, Hashtabellen I Algorithmen und Komplexität Abstrakte Datentypen : Dictionary Dictionary: (auch: Maps, assoziative
Mehr