Implementierung von Huffmans Konstruktion optimaler Präfixcodes
|
|
|
- Christoph Kaufman
- vor 6 Jahren
- Abrufe
Transkript
1 Implementierung von Huffmans Konstruktion optimaler Präfixcodes Huffmans Konstruktion schrittweise Freq d proc s Häufigkeitsverteilung der Symbole (sortiert) map x / rhs x = lhs x, StringTools:-CharacterFrequencies s f1 d Freq "abracadabra" f1 := 1 = "c", 1 = "d", 2 = "b", 2 = "r", 5 = "a" HuffmanStep dproc flist T set `=` einzelner Schritt in der Huffmann-Konstruktion if nops flist = 1 then rhs flist else flist 3..K1 union lhs flist 1 C lhs flist 2 = rhs flist 1, rhs flist 2 fi; (1.1) HuffmanStep f1 HuffmanStep % HuffmanStep % HuffmanStep % HuffmanStep % 2 = "b", 2 = "r", 2 = "c", "d", 5 = "a" 2 = "c", "d", 4 = "b", "r", 5 = "a" 5 = "a", 6 = "c", "d", "b", "r" 11 = "a", "c", "d", "b", "r" "a", "c", "d", "b", "r" HuffmanTree dproc s T string Iterative Konstruktion des Huffman-Baumes zum string s mju=mittlere erwartete Wortlänge local sfreq, symb, i, mju; sfreq d Freq s ; symb d nops sfreq ; mju d 0; for i from 1 to symb K 1 do print sfreq ; mju d mju C lhs sfreq 1 C lhs sfreq 2 ; sfreq d HuffmanStep sfreq od; (1.2) (1.3) (1.4) (1.5) (1.6)
2 sfreq d HuffmanStep sfreq ; mju sfreq, evalf length s ht d HuffmanTree "abracadabra" ht := "a", "c", "d", "b", "r", HuffmanCoding dproc ht, p d "" binäre Huffman-Codierung für Huffman-Baum ht if ht T string then ht = p else procname ht 1, cat p, 0, procname ht 2, cat p, 1 fi hc d HuffmanCoding ht 1 hc := "a" = "0", "c" = "100", "d" = "101", "b" = "110", "r" = "111" CodeString dproc s T string, HCT list `=` ` ` codiert string s gemäss binärer Codierung HC s darf nur Symbole aus dem Alphabet von HC haben local hctab; hctab d table HC ; cat map x/hctab x, StringTools:-Explode s ; cs d CodeString "abracadabra", hc cs := " " StringTools:-Entropy "abracadabra" HuffmanTree "abracadabra" "a", "c", "d", "b", "r", mu d % 2 length cs length "abracadabra" $mu StringTools:-Entropy cs µ := (1.7) (1.8) (1.9) (1.10) (1.11) (1.12) (1.13) (1.14) (1.15) Huffman-Codierung und Decodierung (A. Mihailovs)
3 HuffmanEncode dproc s code from Alec Mihailovs (mapleprimes 2009) local C, T, HuffmanTree, HuffmanCoding; HuffmanTree d s / if nops s % 1 then rhs s else procname s 3..K1 union lhs s 1 C lhs s 2 = rhs s 1, rhs s 2 fi; HuffmanCoding dproc s, p d "" if s T string then s = p else procname s 1, cat p, 0, procname s 2, cat p, 1 fi end; if _nrest = 1 then T d _rest else T d HuffmanTree map x / rhs x = lhs x, StringTools:-CharacterFrequencies s fi; C d table HuffmanCoding T ; cat map x / C x, StringTools:-Explode s, T HuffmanDecode dproc b, T code from Alec Mihailovs (mapleprimes 2009) local h, i, j, ans; ans d Array 1..length b ; h d T; j d 0; for i to length b do if b i = "0" then h d h 1 else h d h 2 fi; if h T string then j d j C 1; ans j d h; h d T fi od; StringTools:-Implode seq i, i = ans 1..j HuffmanEncode "abracadabra" " ", "a", "c", "d", "b", "r" HuffmanDecode % "abracadabra" (2.1) (2.2) Textbeispiel text2 d "Problemfach Mathe Vielleicht, vielleicht auch nicht Mathe bleibt ein rätselhaftes Fach: So fällt es Grundschülern offenbar schwer, Wahrscheinlichkeiten richtig einzuschätzen. Viele Zweit- und Viertklässler scheiterten an der Frage, ob ein Ereignis unmöglich oder
4 nur unwahrscheinlich ist. Doch auch in Klasse sechs fielen die Tests eher mäßig aus. Grundschulkinder haben offenbar große Schwierigkeiten, Wahrscheinlichkeiten und komplexe Matheaufgaben richtig zu beurteilen. Dies zeigt eine Studie der Ludwig-Maximilians- Universität (LMU) und der Technischen Universität (TUM) in München. Dafür wurden die mathematischen Fähigkeiten von rund 160 Schülern aus den Klassen zwei, vier und sechs untersucht. Um herauszufinden, wie erfolgreich Kinder Verständnis für wissenschaftliche Beweisführungen und Wahrscheinlichkeiten entwickeln, zeigten die Forscher den Kindern, wie Bäume auf zwei verschiedene Sorten Dünger reagierten: Mit Dünger aus einer blauen Packung wuchsen 24 Bäume gut, 12 gingen ein. Mit Dünger aus einer gelben Packung wuchsen drei Bäume gut, einer ging ein. Die meisten Schüler hielten jedoch den Dünger aus der blauen Packung für besser. Sogar viele Sechstklässler wählen die falsche Strategie und missachten die Proportionen, sagt TUM-Didaktikerin Professor Kristina Reiss. Sie vergleichen stattdessen die Differenz aus 24 und 12 mit der Differenz aus 3 und 1. Deshalb kommen sie auf einen vermeintlich besseren Wert für den blauen Dünger. Unmöglich oder unwahrscheinlich? Nun ist Düngemitteleinsatz nicht gerade ein lebensnahes Beispiel für Grundschüler - wenn auch besser geeignet als etwa das Rechnen mit Kinderleichen, wie das im vergangenen Jahr ein japanischer Lehrer mit seinen Schüler versucht hatte. Im Alltag jedoch muss jeder Mensch immer wieder Wahrscheinlichkeiten einschätzen und Schlussfolgerungen aus wissenschaftlichen Ergebnissen ziehen - egal ob es um den Einsatz beim Lotto oder die Erfolgschancen medizinischer Therapien geht. Die Grundlagen für diese Fähigkeiten werden dabei schon in der Grundschule gelegt. Stochastik, die Vereinigung von Wahrscheinlichkeitstheorie und Statistik, wird an den meisten Schulen allerdings erst in der Oberstufe unterrichtet. Aber schon zwischen unmöglich und unwahrscheinlich zu unterscheiden, fiel den Schülern schwer. Noch in der vierten Klasse halten es viele Kinder für unmöglich, aus einem Sack mit 99 blauen und einem roten Würfel den roten zu ziehen. Den Kinder fehlen das Verständnis für Zufall und Wahrscheinlichkeit sowie Strategien, um Daten zu analysieren - obwohl sie in diesem Alter bereits ausgeprägte kognitive Kompetenzen entwickelt haben, sagt LMU-Entwicklungspsychologin Beate Sodian. Beispielsweise verstehen schon Zweitklässler intuitiv, dass eine große Datenmenge aussagekräftiger ist als eine geringere. Die Wissenschaftler wollen nun solche Kompetenzen der Kinder
5 identifizieren und darauf aufbauend Methoden entwickeln, wie das Wahrscheinlichkeitsverständnis im Unterricht gefördert werden kann. " : HT2 d HuffmanTree text2 HT2 := "t", "g", "w", "D", "S", "s", "r", "0", "3", "6", "?", "E", "W", ",", "p", "F", "G", "L", "T", "!", "I", "J", "A", "m", ".", "!", "f", "z", "!", "d", " ", "u", "l", "K", "P", "V", "M", "Z", "!", "B", "o", "c", "e", "!", " ", "a", "i", "n", "b", "k", "O", "(", "1", "-", "2", "j", ")", "4", "9", ":", "N", "R", "x", "y", "U", "v", "h", T2, M2 d op HT2 : HuffmanEncode text2 " \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ (3.1) (3.2)
6 \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \
7 \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \
8 \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \
9 \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \
10 \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ ", "t", "g", "w", "D", "S", "s", "r", "0", "3", "6", "?", "E", "W", ",", "p", "F", "G", "L", "T", "!", "I", "J", "A", "m", ".", "!", "f", "z", "!", "d", " ", "u", "l", "K", "P", "V", "M", "Z", "!", "B", "o", "c", "e", "!", " ", "a", "i", "n", "b", "k", "O", "(", "1", "-", "2", "j", ")", "4", "9", ":", "N", "R", "x", "y", "U", "v", "h" HuffmanDecode % "Problemfach Mathe Vielleicht, vielleicht auch nicht Mathe bleibt ein rätselhaftes Fach: So fällt es Grundschülern offenbar schwer, Wahrscheinlichkeiten richtig einzuschätzen. Viele Zweit- und Viertklässler scheiterten an der Frage, ob ein Ereignis unmöglich oder nur unwahrscheinlich ist. Doch auch in Klasse sechs fielen die Tests eher mäßig aus. Grundschulkinder haben offenbar große Schwierigkeiten, Wahrscheinlichkeiten und komplexe Matheaufgaben richtig zu (3.3)
11 beurteilen. Dies zeigt eine Studie der Ludwig-Maximilians- Universität (LMU) und der Technischen Universität (TUM) in München. Dafür wurden die mathematischen Fähigkeiten von rund 160 Schülern aus den Klassen zwei, vier und sechs untersucht. Um herauszufinden, wie erfolgreich Kinder Verständnis für wissenschaftliche Beweisführungen und Wahrscheinlichkeiten entwickeln, zeigten die Forscher den Kindern, wie Bäume auf zwei verschiedene Sorten Dünger reagierten: Mit Dünger aus einer blauen Packung wuchsen 24 Bäume gut, 12 gingen ein. Mit Dünger aus einer gelben Packung wuchsen drei Bäume gut, einer ging ein. Die meisten Schüler hielten jedoch den Dünger aus der blauen Packung für besser. Sogar viele Sechstklässler wählen die falsche Strategie und missachten die Proportionen, sagt TUM-Didaktikerin Professor Kristina Reiss. Sie vergleichen stattdessen die Differenz aus 24 und 12 mit der Differenz aus 3 und 1. Deshalb kommen sie auf einen vermeintlich besseren Wert für den blauen Dünger. Unmöglich oder unwahrscheinlich? Nun ist Düngemitteleinsatz nicht gerade ein lebensnahes Beispiel für Grundschüler - wenn auch besser geeignet als etwa das Rechnen mit Kinderleichen, wie das im vergangenen Jahr ein japanischer Lehrer mit seinen Schüler versucht hatte. Im Alltag jedoch muss jeder Mensch immer wieder Wahrscheinlichkeiten einschätzen und Schlussfolgerungen aus wissenschaftlichen Ergebnissen ziehen - egal ob es um den Einsatz beim Lotto oder die Erfolgschancen medizinischer Therapien geht. Die Grundlagen für diese Fähigkeiten werden dabei schon in der Grundschule gelegt. Stochastik, die Vereinigung von Wahrscheinlichkeitstheorie und Statistik, wird an den meisten Schulen allerdings erst in der Oberstufe unterrichtet. Aber schon zwischen unmöglich und unwahrscheinlich zu unterscheiden, fiel den Schülern schwer. Noch in der vierten Klasse halten es viele Kinder für unmöglich, aus einem Sack mit 99 blauen und einem roten Würfel den roten zu ziehen. Den Kinder fehlen das Verständnis für Zufall und Wahrscheinlichkeit sowie Strategien, um Daten zu analysieren - obwohl sie in
12 diesem Alter bereits ausgeprägte kognitive Kompetenzen entwickelt haben, sagt LMU-Entwicklungspsychologin Beate Sodian. Beispielsweise verstehen schon Zweitklässler intuitiv, dass eine große Datenmenge aussagekräftiger ist als eine geringere. Die Wissenschaftler wollen nun solche Kompetenzen der Kinder identifizieren und darauf aufbauend Methoden entwickeln, wie das Wahrscheinlichkeitsverständnis im Unterricht gefördert t d time : bin2 d HuffmanEncode text2 : time K t; t d time : HuffmanDecode bin2 : time K t; length text2 StringTools:-Entropy text2 M2 length text2 $M2 length bin2 1 mu d 1 StringTools:-Entropy bin2 1 werden kann. " µ := (3.4) (3.5) (3.6) (3.7) (3.8) (3.9) (3.10) (3.11) (3.12)
2. Woche Eindeutige Entschlüsselbarleit, Sätze von Kraft und McMillan, Huffmancodierung
2 Woche Eindeutige Entschlüsselbarleit, Sätze von Kraft und McMillan, Huffmancodierung 2 Woche: Eindeutige Entschlüsselbarleit, Sätze von Kraft und McMillan, Huffmancodierung 24/ 44 Zwei Beispiele a 0
21. Greedy Algorithmen. Aktivitätenauswahl, Fractional Knapsack Problem, Huffman Coding Cormen et al, Kap. 16.1, 16.3
581 21. Greedy Algorithmen Aktivitätenauswahl, Fractional Knapsack Problem, Huffman Coding Cormen et al, Kap. 16.1, 16.3 Aktivitäten Auswahl 582 Koordination von Aktivitäten, die gemeinsame Resource exklusiv
Wann sind Codes eindeutig entschlüsselbar?
Wann sind Codes eindeutig entschlüsselbar? Definition Suffix Sei C ein Code. Ein Folge s {0, 1} heißt Suffix in C falls 1 c i, c j C : c i = c j s oder 2 c C und einen Suffix s in C: s = cs oder 3 c C
Kompetenzen von Grundschülern bei der Bearbeitung von Aufgaben zur Wahrscheinlichkeitsrechnung
Kompetenzen von Grundschülern bei der Bearbeitung von Aufgaben zur Wahrscheinlichkeitsrechnung BERND NEUBERT, GIEßEN Zusammenfassung: Im Artikel wird dargestellt, welche Kompetenzen Grundschüler verschiedener
16 - Kompressionsverfahren für Texte
16 - Kompressionsverfahren für Texte Prof. Dr. S. Albers Kompressionsverfahren für Texte Verlustfreie Kompression Original kann perfekt rekonstruiert werden Beispiele: Huffman Code, Lauflängencodierung,
Kompressionsverfahren für Texte
Kompressionsverfahren für Texte Prof. Dr. S. Albers Prof. Dr. Th. Ottmann 1 Zeichenkettenverarbeitung Suche in Texten, Textindizes Mustererkennung (Pattern-Matching) Verschlüsseln Komprimiern Analysieren
Einführung in die Wahrscheinlichkeitsrechnung
Marco Cattaneo Institut für Statistik Ludwig-Maximilians-Universität München Sommersemester 2011 1. Wahrscheinlichkeitsrechnung 2. Diskrete Zufallsvariable 3. Stetige Zufallsvariable 4. Grenzwertsätze
Strings. Stringsuche, Boyer-Moore, Textkompression, Huffman Codes.
Strings Stringsuche, Boyer-Moore, Textkompression, Huffman Codes. Suche Substring Häufiges Problem Relevante Beispiele: Suche ein Schlagwort in einem Buch Alphabet: A-Za-z0-9 Suche Virussignatur auf der
Daten und Zufall. eine gar nicht sooo neue Leitidee im Bildungsplan Mathematik Grundschule. SINUS September 2012 Benedikt Rocksien 1
Daten und Zufall eine gar nicht sooo neue Leitidee im Bildungsplan Mathematik Grundschule SINUS September 2012 Benedikt Rocksien 1 Mathematikunterricht in der Grundschule Allgemeine mathematische Kompetenzen
Übung: Quicksort. Erster Schritt zu Quicksort: Felder "partitionieren"
Übung: Quicksort In der Vorlesung haben wir zum Sortieren die Prozedur mergesort kennen gelernt. Heute besprechen wir einen weiteren berühmten Sortieralgorithmus: quicksort Im Gegensatz zu mergesort, lässt
Dynamisches Huffman-Verfahren
Dynamisches Huffman-Verfahren - Adaptive Huffman Coding - von Michael Brückner 1. Einleitung 2. Der Huffman-Algorithmus 3. Übergang zu einem dynamischen Verfahren 4. Der FGK-Algorithmus 5. Überblick über
Miller-Rabin-Demo. Miller-Rabin-Test. with Statistics : with numtheory : with LinearAlgebra :
Miller-Rabin-Demo with Statistics : with numtheory : with LinearAlgebra : Miller-Rabin-Test MRsteps dproc N, aa Test, ob a ein Miller-Rabin-Zeuge für die Zusammengesetztheit von N ist: Antwort "true" besagt,
Aufgabe: Platz-effiziente Kompression von Textdaten
7.3 Huffman-Bäume Anwendung von Binärbäumen Aufgabe: Platz-effiziente Kompression von Textdaten Standardcodierungen von Textdaten ISO-8859-1: 8 Bit pro Zeichen UTF-16: 16 Bit pro Zeichen Codierungen mit
VORSCHAU. zur Vollversion. Gewinnchancen beim Kugelziehen einschätzen. Welchen Sack sollte Tom wählen, wenn a) Gelb gewinnt? b) Rot gewinnt?
1 Gewinnchancen beim Kugelziehen einschätzen 1. Tom kann einen Sack wählen. Er zieht daraus eine Kugel. 1 2 Welchen Sack sollte Tom wählen, wenn a) Gelb gewinnt? b) Rot gewinnt? 2. Tom zieht 2 Kugeln aus
Computer Science Unplugged Algorithmen zur Textkompression
Proseminar Computer Science Unplugged Algorithmen zur Textkompression Harald Zauner 12. November 2004 Zusammenfassung Trotz der rasch zunehmenden Speicherkapazität heutiger Speichermedien besteht nach
Sortieren. Maple sortiert; Unordnung schaffen. > restart;
restart; Sortieren Maple sortiert; Unordnung schaffen Vorbemerkung: Maple kann schon selber sortieren. Dazu erzeugen wir erstmal eine unsortierte Liste: > r := rand(1..100): > l := [seq(r(), i=1..10)];
Gierige Algorithmen Interval Scheduling
Gierige Algorithmen Interval Scheduling IntervalScheduling(s,f). n length[s] 2. A {} 3. j 4. for i 2 to n do 5. if s[i] f[j] then 6. A A {i} 7. j i 8. return A Gierige Algorithmen Interval Scheduling Beweisidee:
Entropie. Um der Begriff der Entropie zu erläutern brauchen wir erst mal einige Definitionen, z.b.
Entropie Grundlegend für das Verständnis des Begriffes der Komprimierung ist der Begriff der Entropie. In der Physik ist die Entropie ein Maß für die Unordnung eines Systems. In der Informationstheorie
Image Compression. Vorlesung FH-Hagenberg DSB
Image Compression Vorlesung FH-Hagenberg DSB Kompression Encoder Decoder Beseitigung der unnötigen Daten... Redundanz Inhalte Redundanz Loss-less Compression Hufmann Coding Runlength Coding Lossy Compression
Spalten aufsummieren?!
News Artikel Foren Projekte Links Über Redscope Join List Random Previous Next Startseite Foren Allgemeine Fragen zu SAS Spalten aufsummieren?! 5 July, 2010-11:59 Student- Hallo liebe SAS-Gemeinschaft
Kapitel 7: Optimalcodierung und Huffman Coding
Kapitel 7: codierung und Huffman Coding Ziele des Kapitels Auftreten von Fehlern bei zu starker Kompression Konstruktion optimaler Codes Huffman Coding 2 Bisher Theorem (Shannon I): Die mittlere Codewortlänge
3. Woche Information, Entropie. 3. Woche: Information, Entropie 45/ 238
3 Woche Information, Entropie 3 Woche: Information, Entropie 45/ 238 Informationsgehalt einer Nachricht Intuitiv: Je kleiner die Quellws, desto wichtiger oder strukturierter die Information, bzw höher
Mathematik am Abendgymnasium Münster
Verantwortlich für eine gute Ausbildung sind: Dr. Jörg Hettwer (Mathe, Chemie, Physik und Informatik) Anne Köster-Kummer (Mathe, Biologie) Mirja Rösler (Mathe, Biologie) Dr. Boris Rüping (Mathe, Biologie)
Inhaltsübersicht. Vorwort 15. Vorwort zur deutschen Ausgabe 22. Kapitel 1 Elemente der Programmierung 25. Kapitel 2 Funktionen und Module 203
Inhaltsübersicht Vorwort 15 Vorwort zur deutschen Ausgabe 22 Kapitel 1 Elemente der Programmierung 25 Kapitel 2 Funktionen und Module 203 Kapitel 3 Objektorientierte Programmierung 335 Kapitel 4 Algorithmen
Übersicht. Aktivitäten-Auswahl-Problem. Greedy Algorithmen. Aktivitäten-Auswahl-Problem. Aktivitäten-Auswahl-Problem. Datenstrukturen & Algorithmen
Datenstrukturen & Algorithmen Übersicht Greedy Algorithmen Einführung Aktivitäten-Auswahl-Problem Huffman Codierung Matthias Zwicker Universität Bern Frühling 2009 2 Greedy Algorithmen Entwurfsstrategie
(Prüfungs-)Aufgaben zur Codierungstheorie
(Prüfungs-)Aufgaben zur Codierungstheorie 1) Gegeben sei die folgende CCITT2-Codierung der Dezimalziffern: Dezimal CCITT2 0 0 1 1 0 1 1 1 1 1 0 1 2 1 1 0 0 1 3 1 0 0 0 0 4 0 1 0 1 0 5 0 0 0 0 1 6 1 0 1
Mehrere Datensätze zu einem Datensatz zusammenführen
News Artikel Foren Projekte Links Über Redscope Join List Random Previous Next Startseite Foren ETL & Base SAS Mehrere Datensätze zu einem Datensatz zusammenführen 3 November, 2008-23:42 wlohr Hallo zusammen!
Ü b u n g s b l a t t 4
Einführung in die Stochastik Sommersemester 07 Dr. Walter Oevel 30. 4. 2007 Ü b u n g s b l a t t 4 Mit und gekennzeichnete Aufgaben können zum Sammeln von Bonuspunkten verwendet werden. Lösungen von -Aufgaben
Bereiche der Stochastik
Statistik Wahrscheinlichkeit Kombinatorik Bereiche der Stochastik Kombinatorik Hans Freudenthal: Einfache Kombinatorik ist das Rückgrat elementarer Wahrscheinlichkeitsrechnung. Die Lehrkraft bereitet sich
Mathematik. Mathematische Leitidee: Daten, Häufigkeit und Wahrscheinlichkeit. Aufgabe Nr./Jahr: 16/2010. Bezug zum Lehrplan NRW:
Mathematik Mathematische Leitidee: Daten, Häufigkeit und Wahrscheinlichkeit Aufgabe Nr./Jahr: 16/2010 Bezug zum Lehrplan NRW: Prozessbezogener Bereich (Kap. 2.1) Prozessbezogene Kompetenzen (Kap. 3.1)
Datenstrukturen. Ziele
Datenstrukturen Ziele Nutzen von Datenstrukturen Funktionsweise verstehen Eigenen Datenstrukturen bauen Vordefinierte Datenstrukturen kennen Hiflsmethoden komplexer Datenstrukten kennen Datenstrukturen
3.2. Divide-and-Conquer-Methoden
LUDWIG- MAXIMILIANS- UNIVERSITY MUNICH DEPARTMENT INSTITUTE FOR INFORMATICS DATABASE 3.2. Divide-and-Conquer-Methoden Divide-and-Conquer-Methoden Einfache Sortieralgorithmen reduzieren die Größe des noch
Kapitel 1: Informationsverarbeitung durch Programme
LUDWIG- MAXIMILIANS- UNIVERSITY MUNICH DEPARTMENT INSTITUTE FOR INFORMATICS Skript zur Vorlesung: Einführung in die Informatik: Systeme und Anwendungen Sommersemester 2018 Kapitel 1: Informationsverarbeitung
KLAUSUR zum Kurs Elementare Zahlentheorie mit Maple (01202) WS 2014/15
FernUniversität in Hagen FAKULTÄT für Mathematik und Informatik Bitte hier unbedingt Matrikelnummer und Adresse eintragen, sonst keine Bearbeitung möglich. Postanschrift: FernUniversität 58084 Hagen (Name,
Import von Text-Dateien. Einzelne Wörter einlesen.
News Artikel Foren Projekte Links Über Redscope Join List Random Previous Next Startseite Foren Allgemeine Fragen zu SAS Import von Text-Dateien. Einzelne Wörter einlesen. 28 April, 2009-10:14 beznika
Biometrische und Ökonometrische Methoden I Lösungen 9
TECHNISCHE UNIVERSITÄT MÜNCHEN - WEIHENSTEPHAN WS 00/01 MATHEMATIK UND STATISTIK, INFORMATIONS- UND DOKUMENTATIONSZENTRUM Biometrische und Ökonometrische Methoden I Lösungen 9 1. a) MTB > Retrieve "H:\STUDENT\MINITAB\OPELVW.MTW".
Informationsgehalt einer Nachricht
Informationsgehalt einer Nachricht Betrachten folgendes Spiel Gegeben: Quelle Q mit unbekannten Symbolen {a 1, a 2 } und p 1 = 0.9, p 2 = 0.1. Zwei Spieler erhalten rundenweise je ein Symbol. Gewinner
3 Codierung diskreter Quellen. Quelle Quellcodierer Kanalcodierer reduziert die benötigte Datenmenge. fügt Daten zur Fehlerkorrektur ein.
3 Codierung diskreter Quellen 3 Einführung 32 Ungleichmäßige Codierung 33 Präfix-Codes 34 Grenzen der Code-Effizienz 35 Optimal-Codierung 3 Zusammenfassung < 24 / 228 > 3 Codierung diskreter Quellen Quelle
Beispiel: Zeigen Sie, dass H(x) = H 0 = I gilt, wenn alle Zeichen gleichwahrscheinlich sind.
1 2 Im ersten Schritt werden wir uns mit dem Begriff und der Definition der Information beschäftigen. Ferner werden die notwendigen math. Grundlagen zur Quellencodierung gelegt. Behandelt werden Huffman,
6 Ü B E R S E T Z U N G E N U N D C O D I E R U N G E N. 6.1 von wörtern zu zahlen und zurück Dezimaldarstellung von Zahlen Num 10
6 Ü B E R S E T Z U N G E N U N D C O D I E R U N G E N 6.1 von wörtern zu zahlen und zurück 6.1.1 Dezimaldarstellung von Zahlen Num 10 Num10(ε) = 0 (6.1) für jedes w Z 10 für jedes x Z 10 Num 10 (wx)
Grundlagen: Algorithmen und Datenstrukturen
Grundlagen: Algorithmen und Datenstrukturen Prof. Dr. Hanjo Täubig Lehrstuhl für Effiziente Algorithmen (Prof. Dr. Ernst W. Mayr) Institut für Informatik Technische Universität München Sommersemester 00
Jede Kombination von 7 Spalten erzeugen
News Artikel Foren Projekte Links Über Redscope Join List Random Previous Next Startseite Foren ETL & Base SAS Jede Kombination von 7 Spalten erzeugen 14 May, 2007-16:22 HansKneilmann Hallo, ein Kollege
Suchen und Sortieren Sortieren. Heaps
Suchen und Heaps (Folie 156, Seite 56 im Skript) Definition Ein Heap ist ein Binärbaum, der die Heapeigenschaft hat (Kinder sind größer als der Vater), bis auf die letzte Ebene vollständig besetzt ist,
Kompression. Kompression. Beseitigung der unnötigen Daten... Redundanz. Folie 2
Kompression Kompression Encoder Decoder Beseitigung der unnötigen Daten... Redundanz Folie 2 1 Inhalte Redundanz Channel Encoding Loss-less Compression Hufmann Coding Runlength Coding Lossy Compression
Syntax natürlicher Sprachen
Syntax natürlicher Sprachen 02: Grammatik und Bäume Martin Schmitt Ludwig-Maximilians-Universität München 25.10.2017 Martin Schmitt (LMU) Syntax natürlicher Sprachen 25.10.2017 1 1 Syntax im NLTK 2 Grammatik
Kapitel 1: Informationsverarbeitung durch Programme
LUDWIG- MAXIMILIANS- UNIVERSITY MUNICH DEPARTMENT INSTITUTE FOR INFORMATICS Skript zur Vorlesung: Einführung in die Informatik: Systeme und Anwendungen Sommersemester 2009 Kapitel 1: Informationsverarbeitung
Daten und Zufall. eine gar nicht sooo neue Leitidee im Bildungsplan Mathematik Grundschule. SINUS September 2012 Benedikt Rocksien 1
Daten und Zufall eine gar nicht sooo neue Leitidee im Bildungsplan Mathematik Grundschule SINUS September 2012 Benedikt Rocksien 1 Es hängt an der Wand, macht Ticktack, und wenn es runterfällt, geht die
Übung zu Algorithmen und Datenstrukturen (für ET/IT)
Übung zu Algorithmen und Datenstrukturen (für ET/IT) Wintersemester 2012/13 Jakob Vogel Computer-Aided Medical Procedures Technische Universität München Komplexität von Programmen Laufzeit kann näherungsweise
Kap. 4.7 Skiplisten. 14./15. VO DAP2 SS /16. Juni 2009
Kap. 4.7 Skiplisten Professor Dr. Lehrstuhl für Algorithm Engineering, LS11 Fakultät für Informatik, TU Dortmund 14./15. VO DAP2 SS 2008 9./16. Juni 2009 1 2. Übungstest Termin: Di 16. Juni 2009 im AudiMax,
Daten, Häufigkeiten, Wahrscheinlichkeiten
Daten, Häufigkeiten, Wahrscheinlichkeiten Ein neuer Bereich im Lehrplan Mathematik Die acht Bereiche des Faches Mathematik Prozessbezogene Bereiche Problemlösen / kreativ sein Inhaltsbezogene Bereiche
I: Daten und Codierung
Weitere Übungen zu Daten und Codierungen. Bearbeitet das neu Arbeitsblatt mit Barcodes und Eiercodes. https://www.youtube.com/watch?v=_ecwoc7kwte http://www.ardmediathek.de/tv/wissen-macht-ah/%c3%9cberraschungsbesuch/das-
Funktionale Programmierung mit Haskell
Funktionale Programmierung mit Haskell Prof. Dr. Hans J. Schneider Lehrstuhl für Programmiersprachen und Programmiermethodik Friedrich-Alexander-Universität Erlangen-Nürnberg Sommersemester 2011 I. Die
Übrigens: um den Algorithmus im Unterricht einzuführen, sind keine Formeln notwendig! Warum reicht die normale ASCII-Codierung nicht aus?
Huffman-Code Dieser Text ist als Hintergrundinformation ausschliesslich für die Lehrperson gedacht. Der Text ist deshalb eher technisch gehalten. Er lehnt sich an das entsprechende Kapitel in "Turing Omnibus"
DEMO für STOCHASTIK. Testen von Hypothesen. Datei Nr INTERNETBIBLIOTHEK FÜR SCHULMATHEMATIK.
STOCHASTIK Testen von Hypothesen Teil 1 rundlagen der Signifikanztests Hier: Berechnungen mit Binomialverteilung Datei Nr. 35010 Stand: 9. November 2013 FRIEDRICH W. BUCKEL INTERNETBIBLIOTHEK FÜR SCHULMATHEMATIK
Lehrer- und Selbsteinschätzung von Motivation und Kreativität von hochleistenden Schülern
Lehrer- und Selbsteinschätzung von Motivation und Kreativität von en Schülern Detlef Urhahne Psychology of Excellence in Business and Education Ludwig-Maximilians-Universität München Gliederung Theoretischer
Referat zum Thema Huffman-Codes
Referat zum Thema Huffman-Codes Darko Ostricki Yüksel Kahraman 05.02.2004 1 Huffman-Codes Huffman-Codes ( David A. Huffman, 1951) sind Präfix-Codes und das beste - optimale - Verfahren für die Codierung
Kinga Szűcs Friedrich-Schiller-Universität Jena Fakultät für Mathematik und Informatik Abteilung Didaktik
Beurteilende Statistik im Mathematikunterricht Kinga Szűcs Friedrich-Schiller-Universität Jena Fakultät für Mathematik und Informatik Abteilung Didaktik 20.11.2014 Gliederung Anliegen der beurteilenden
Digitale Medien. Übung
Digitale Medien Übung Übungsbetrieb Informationen zu den Übungen: http://www.medien.ifi.lmu.de/dm http://www.die-informatiker.net Zwei Stunden pro Woche Praktische Anwendungen des theoretischen Vorlesungsstoffs
Wie muss der Eingabetext beschaffen sein, damit er sich gut komprimieren lässt?
Lernaufgabe 1a Beim Kofferpacken können wir durch Druck die Luft herauslassen und bringen somit mehr Kleidungsstücke in den Koffer. Im Unterricht haben wir vom Huffman-Code gehört und wissen, dass er nach
Im Leben ist nichts gewiss - außer dem Tod und den Steuern
Stochastik für Klasse - Joachim [email protected] www.joachimengel.eu Jahrestagung Mathematik der GHS-Seminare,. Oktober 00 Im Leben ist nichts gewiss - außer dem Tod und den Steuern SERJ - Statistics
INFORMATIK FÜR BIOLOGEN
Technische Universität Dresden 15012015 Institut für Theoretische Informatik Professur für Automatentheorie INFORMATIK FÜR BIOLOGEN Musterklausur WS 2014/15 Studiengang Biologie und Molekulare Biotechnologie
Informatik-Seminar Thema 6: Bäume
Informatik-Seminar 2003 - Thema 6: Bäume Robin Brandt 14. November 2003 1 Robin Brandt Informatik-Seminar 2003 - Thema 6: Bäume Übersicht Definition Eigenschaften Operationen Idee Beispiel Datendefinition
Programmierung für Mathematik HS11
software evolution & architecture lab Programmierung für Mathematik HS11 Übung 8 1 Aufgabe: Codeverständnis (Repetition) 1.1 Lernziele 1. Code verstehen können. 2. Fehler im Code finden und korrigieren
Die Begriffe»sicher«,»möglich«und»unmöglich«
6 Wahrscheinlichkeit Wahrscheinlichkeit Kompetenz 1 Die Begriffe»sicher«,»möglich«und»unmöglich«VORANSI 1. Kreuzt an und schreibt eine kurze Begründung auf. a) Jonas zieht eine Kugel. Was ist wahrscheinlicher?
Einführung in die Informatik II Aus der Informationstheorie: Datenkompression
Einführung in die Informatik II Aus der Informationstheorie: Datenkompression Prof. Bernd Brügge, Ph.D Institut für Informatik Technische Universität München Sommersemester 2 2. Juli 2 Copyright 2 Bernd
Einführung in die Wahrscheinlichkeitsrechnung
Einführung in die Wahrscheinlichkeitsrechnung Sven Garbade Fakultät für Angewandte Psychologie SRH Hochschule Heidelberg [email protected] Statistik 1 S. Garbade (SRH Heidelberg) Wahrscheinlichkeitsrechnung
Randomisierte Algorithmen 2. Erste Beispiele
Randomisierte Algorithmen Randomisierte Algorithmen 2. Erste Beispiele Thomas Worsch Fakultät für Informatik Karlsruher Institut für Technologie Wintersemester 2016/2017 1 / 35 Randomisierter Identitätstest
Wahrscheinlichkeitsraum Modellbildung und distanzierte Rationalität Diskrete Wahrscheinlichkeitsräume Kombinatorik
Zählalgorithmus Zählalgorithmus = Produktregel der Kombinatorik = allgemeines Zählprinzip Beispiel Wie viele Menüs kann man aus 3 Vorspeisen, 5 Hauptgerichten und 2 Nachspeisen zusammenstellen, wenn Geschmacksfragen
Übung Algorithmen und Datenstrukturen
Übung Algorithmen und Datenstrukturen Sommersemester 216 Patrick Schäfer, Humboldt-Universität zu Berlin Agenda Vorstellung des 6. Übungsblatts. Hashing Binäre Suchbäume AVL-Bäume 2 Aufgabe: Hashing mit
Medienbildung am Studienseminar GHRF Projekttage Medienbildung Leitung: Dietlind Dietrich / Morten Giesen / Amrei Vieser
Medienbildung am Studienseminar GHRF Projekttage Medienbildung Leitung: Dietlind Dietrich / Morten Giesen / Amrei Vieser 1. Was ist ein außerschulischer Lernort? 2. Die MathCityMap 3. Erfahrungen aus der
Informatik II, SS 2014
Informatik II SS 2014 (Algorithmen & Datenstrukturen) Vorlesung 7 (21.5.2014) Binäre Suche, Hashtabellen I Algorithmen und Komplexität Abstrakte Datentypen : Dictionary Dictionary: (auch: Maps, assoziative
