Eigenschaften von Kompressionsverfahren

Größe: px
Ab Seite anzeigen:

Download "Eigenschaften von Kompressionsverfahren"

Transkript

1 6 Textkompression Eigenschaften von Kompressionsverfahren Das Ziel der Datenkompression ist es, eine gegebene Information (Datenquelle) auf eine kompaktere Weise zu repräsentieren. Dies geschieht, indem Strukturen bzw. Regelmäßigkeiten in der Datenquelle erkannt und ausgenutzt werden. Beispiel: Morse-Alphabet Häufig vorkommende Buchstaben haben einen kürzeren Morse- Code als weniger häufige. e j 1 Informationsverluste bei der Kompression/Dekompression: Verfahren, bei denen die Datenquelle exakt aus der komprimierten Darstellung rekonstruiert werden kann, heißen verlustfrei. Treten dagegen möglicherweise Informationsverluste auf, spricht man von nicht verlustfreien Verfahren. Solche Verfahren sind z.b. für Bilder, Videos oder Audioübertragung geeignet. Vorteil der nicht verlustfreien Verfahren: höhere Kompressionsraten. Für die Textkompression kommen nur verlustfreie Verfahren in Frage. Textalgorithmen FH Bonn-Rhein-Sieg, SS Textalgorithmen FH Bonn-Rhein-Sieg, SS Vorgehensweise bei der Kompression: Modell Modell Datenquelle Text Komprimierer Dekomprimierer Text Kommunikationskanal Komprimierer und Dekomprimierer verfügen über das gleiche Modell. Modellierungsansatz: Bei statistischen Verfahren wird versucht, eine Wahrscheinlichkeit für Zeichen oder Zeichenfolgen zu bestimmen. Die Kompression erfolgt, indem Zeichenfolgen mit einer höheren Wahrscheinlichkeit ein kürzerer Code zugewiesen wird. Bei wörterbuchbasierten Verfahren versucht man, Zeichenfolgen durch eine Referenz auf ein Wörterbuch zu ersetzen. Hierzu enthält das Wörterbuch häufig auftretende Zeichenfolgen. Der Komprimierer erzeugt eine Codierung der Datenquelle auf der Basis des Modells. Der Dekomprimierer nutzt das gleiche Modell, um aus der komprimierten Darstellung die Datenquelle zu rekonstruieren. Textalgorithmen FH Bonn-Rhein-Sieg, SS Textalgorithmen FH Bonn-Rhein-Sieg, SS

2 Anpassung des Modells bzw. der Codierung an die Datenquelle: Bei statischen Verfahren wird stets die gleiche Codierung für die Kompression benutzt. Es findet keine Anpassung an die Datenquelle statt (Morse-Alphabet). Bei semi-adaptiven Verfahren wird die Datenquelle zunächst einer Häufigkeitsanalyse unterzogen, und die Codierung wird entsprechend angepaßt. Nachteil: Die Datenquelle muß zweimal gelesen werden, und der Dekomprimierer benötigt zusätzliche Informationen für die Dekomprimierung. Bei adaptiven Verfahren wird die Codierung für die Komprimierung und Dekomprimierung während der Komprimierung angepaßt. Die Datenquelle muß nur einmal gelesen werden. Die Funktion g gibt im Prinzip an, wie die Bits von s zu interpretieren sind. g 1 sukzessive angewendet auf s liefert einen String text A. Die Funktion h gibt die Codierung der a A an. c entsteht durch sukzessive Anwendung von h auf text. Beispiel: Wandlung eines (maschinenlesbaren) Textes in Morse- Zeichen. A ist die Menge der Buchstaben. g bildet Buchstaben in den ASCII- Code ab. h definiert den Morse-Code, d.h. wie Buchstaben in Morse- Zeichen codiert werden. Bei einer festen Funktion g kann der Algorithmus allein durch h beschrieben werden. Textalgorithmen FH Bonn-Rhein-Sieg, SS Textalgorithmen FH Bonn-Rhein-Sieg, SS Allgemeines Modell der Textkompression Wörterbuchbasierte Verfahren Gegeben ist eine Datenquelle s als String über dem Alphabet {0, 1} (Bitstring). Die Ausgabe c eines Kompressionsverfahrens ist ebenfalls ein Bitstring. Weiterhin sei ein Alphabet A gegeben. Ein Kompressionsverfahren kann mit Hilfe von zwei injektiven Funktionen g und h beschrieben werden, die von A nach {0, 1} abbilden. Die Menge {(g(a), h(a)) a A} wird als Dictionary des Kompressionsverfahrens bezeichnet. Das Dictionary für die Kompression läßt sich bei wörterbuchbasierten Verfahren darstellen als D = {(f, c) f F, c {0, 1} } Hierbei ist F eine Teilmenge der Substrings von s. Die f F übernehmen hier die Rolle der a A. Die Datenquelle kann als eine Konkatenation von vielen f F angesehen werden. Textalgorithmen FH Bonn-Rhein-Sieg, SS Textalgorithmen FH Bonn-Rhein-Sieg, SS

3 Für ein wörterbuchbasiertes Kompressionsverfahren müssen nun die folgenden Punkte festgelegt werden: Man finde eine geeignete Menge F von Substrings von s, man bestimme, wie s als Konkatenation von f F dargestellt wird (Faktorisierung), und man lege die Codierung für die f F fest. Repräsentation als kürzestes Wege Problem Für Text der Länge n werden n + 1 Knoten eingeführt. Es gibt eine Kante von Knoten i zu Knoten j, wenn text[i... j 1] im Dictionary auftritt. Die Länge des zugehörigen Codes bestimmt das Gewicht der Kante. Ein kürzester Weg von Knoten 1 nach Kanoten n + 1 repräsentiert eine optimale Faktorisierung Textalgorithmen FH Bonn-Rhein-Sieg, SS Textalgorithmen FH Bonn-Rhein-Sieg, SS Optimale Faktorisierung Gegeben sei ein Wörterbuch. Man bestimme nun eine Faktorisierung eines Textes, so daß die Gesamtlänge der verwendeten Codes minimal ist. Beispiel 6.1. f c l(c) a 00 2 b ba bb abb 1 1 Wie kann damit der Text babb optimal faktorisiert werden? Lempel-Ziv-Codierung Die bekanntesten wörterbuchbasierten Kompressionsalgorithmen basieren auf den Verfahren von A. Lempel und J. Ziv (LZ). Dies sind adaptive Verfahren, die wie folgt vorgehen: Die Menge F wird dynamisch in Abhängigkeit von s während des Kompressionsvorgangs bestimmt. Für die Faktorisierung wird eine sogenannte Greedy-Strategie benutzt, d.h. man bestimmt aus dem aktuellen F jeweils das längste f, das einen Präfix von s darstellt. Als Codierung werden Verweise (Pointer) auf den jeweiligen Dictionary-Eintrag verwendet. Es gibt im Prinzip zwei Familien von Kompressionsalgorithmen, die auf den Verfahren LZ77 und LZ78 beruhen. Textalgorithmen FH Bonn-Rhein-Sieg, SS Textalgorithmen FH Bonn-Rhein-Sieg, SS

4 LZ78 Faktorisierung und Erstellung des Dictionary bei LZ78: Zunächst besteht das Dictionary nur aus dem leeren String ɛ. In einem beliebigen Iterationsschritt sei s der noch zu komprimierende Rest der Datenquelle. Man sucht nun für die Faktorisierung im Dictionary das größte f, so daß gilt: s = faz. Hierbei ist a genau ein Zeichen und z ein beliebiger String. Das Dictionary D sei eine Li- Algorithmus 6.1. [LZ78-Kompression] ste (f 0, f 1,..., f n 1 ) von Strings. D := {ɛ} x := s# while x ɛ do f k := längstes f k F, so daß x = f k az gilt, mit a A a := Zeichen, daß auf f k in x folgt Ausgabe von k in l( D ) Bits Ausgabe von a in Orginalcodierung (z.b. ASCII) Aufnahme von f k a als f D in D x := z end Ausgegeben wird der Verweis auf den zu f gehörenden Dictionary- Eintrag und das Zeichen a. Textalgorithmen FH Bonn-Rhein-Sieg, SS Textalgorithmen FH Bonn-Rhein-Sieg, SS Der String fa wird neu in das Dictionary aufgenommen. Anschließend verfährt man mit dem Rest z der Datenquelle genauso. Damit garantiert ist, daß eine Darstellung f az stets möglich ist, fügt man an s ein Zeichen # an, das in s nicht vorkommt. Darstellung der Verweise in LZ78: Es werden Verweise variabler Länge benutzt, wobei die Länge von der aktuellen Größe des Dictionary abhängt. Es sei n die Anzahl der Einträge im Dictionary. Dann gilt für die verwendete Länge l(n) der Verweise: l(1) = 1 und l(n) = log 2 (n) für n > 1 Beispiel 6.2. Es sei s = aababbabbabb. Dies führt zu der Faktorisierung: a ab abb abba b b# Nach Ablauf des Algorithmus liegt das folgende Dictionary vor: f k k 0 ɛ 1 a 2 ab 3 abb 4 abba 5 b 6 b# Textalgorithmen FH Bonn-Rhein-Sieg, SS Textalgorithmen FH Bonn-Rhein-Sieg, SS

5 Anschaulich dargestellt ergibt sich die Ausgabe 0a 1b 10b 11a 000b 101# Zur Erweiterung des Dictionary fügt man ausgehend vom aktuellen Knoten eine mit a markierte Kante und einen neuen Knoten ein. Der neue Knoten repräsentiert den Dictionary-Eintrag f k a. Anschließend springt man wieder an die Wurzel des Tries. 0 a b Gesamtaufwand: O( s ) 1 5 Veranschaulichung: Dictionary aus Beispiel 6.1 als Trie b 2 b # 6 3 a 4 Textalgorithmen FH Bonn-Rhein-Sieg, SS Textalgorithmen FH Bonn-Rhein-Sieg, SS Implementierungsaspekte Bemerkungen: Es gibt eine Vielzahl von Varianten des LZ78-Algorithmus. Entscheidend für die Effizienz von LZ78 ist die schnelle Bestimmung der f k. Hierzu legt man das Wörterbuch in einem Trie ab. Jeder Knoten des Tries entspricht einem Dictionary-Eintrag. Man liest nun Zeichen für Zeichen von x und steigt, ausgehend von der Wurzel, sukzessive den Trie hinab. Kommt man mit dem letzten gelesenen Zeichen im Trie nicht weiter, dann entspricht der aktuelle Knoten dem f k, und das letzte gelesene Zeichen ist das zusätzliche Zeichen a. Diese Varianten unterscheiden sich z.b. in bezug auf: Die Benutzung variabler oder fixer Verweislängen, die maximale Größe des Dictionary, das Vorgehen, wenn das Dictionary voll ist und die Behandlung des einen zusätzlichen Zeichens bei der Faktorisierung. Das UNIX-Programm compress, bekannt als LZC, basiert auf LZ78. Es ist eigentlich hervorgegangen aus LZW, wobei aber viele Aspekte von LZ78 wieder übernommen wurden, so z.b. die variablen Verweislängen (im Gegensatz zu LZW, das fixe Verweislängen verwendet). Textalgorithmen FH Bonn-Rhein-Sieg, SS Textalgorithmen FH Bonn-Rhein-Sieg, SS

6 Laut Manual-Seite reduziert compress Textdateien auf 50 bis 60 % der Orginalgröße. LZ77 Das bekannte Kompressionsprogramm gzip basiert im Gegensatz zu compress auf dem LZ77-Verfahren. Bei LZ77 wird die Länge der Dictionary-Einträge durch einen Parameter F beschränkt, und das Dictionary bezieht sich stets nur auf die letzten N Zeichen. Dafür enthält das Dictionary jeden Substring der letzten N F Zeichen mit der maximalen Länge F. Typische Werte für N und F : 10 F 20, N 8192 Über den Text wird ein Fenster der Größe N geschoben. Die ersten N F Zeichen dieses Fensters wurden bereits codiert. Die verbleibenden F Zeichen sind der sogenannte lookahead buffer b c b a c b a b a b c In der Praxis hat sich LZ77 (gzip) als etwas besser erwiesen als LZ78 (compress). bereits kodiert lookahead buffer Textalgorithmen FH Bonn-Rhein-Sieg, SS Textalgorithmen FH Bonn-Rhein-Sieg, SS LZ78 hat aber die besseren theoretischen Eigenschaften und die beste bekannte Variante von LZ78 ist besser als die beste bekannte LZ77-Variante. Es wird nun nach einer Position innerhalb der ersten N F Zeichen nach einem größtmöglichen Match maximal der Länge F für den Beginn des lookahead buffers gesucht. Beispiel: Position 10, String bab Ausgegeben wird nun: Die Startposition innerhalb des ersten Teils Die Länge des Match Das erste Zeichen, das nicht auf den Match passte Anschließend wird das Fenster um j +1 Zeichen nach rechts geschoben. Typische Werte für N und F : 10 F 20, N 8192 Textalgorithmen FH Bonn-Rhein-Sieg, SS Textalgorithmen FH Bonn-Rhein-Sieg, SS

7 Für die Verweise in das Dictionary und die Längenangabe werden konstante Längen benutzt. Zu Beginn sind die ersten N F Zeichen Leerzeichen und der lookahead buffer enthält die ertsen F Zeichen des Textes. LZB ist die beste LZ77-Variante, LZFG die beste LZ78-Variante. Die Werte wurden auf der Basis einer umfangreichen heterogenen Dokumentkollektion ermittelt (u.a. troff-texte, ausführbare Programme, ASCII-Texte, Programmquellen, wissenschaftliche Daten, etc.). Decodierung: Der Decoder verwaltet ein Fenster der gleichen Größe wie der Kodierer. Durch die Verweise wird der lookahead buffer gefüllt und das Fenster nach rechts geschoben. Textalgorithmen FH Bonn-Rhein-Sieg, SS Textalgorithmen FH Bonn-Rhein-Sieg, SS Vergleich der Verfahren Siehe: T. C. BELL, J. G. CLEARY und I. H. WITTEN: Text Compression. Durchschnittliche Anzahl an Bits der komprimierten Datei pro Byte der Datenquelle: Verfahren Bits pro Byte der Quelle Huffman 4.99 LZ LZB 3.18 LZ LZC 4.26 LZFG 2.95 Textalgorithmen FH Bonn-Rhein-Sieg, SS

16 - Kompressionsverfahren für Texte

16 - Kompressionsverfahren für Texte 16 - Kompressionsverfahren für Texte Prof. Dr. S. Albers Kompressionsverfahren für Texte Verlustfreie Kompression Original kann perfekt rekonstruiert werden Beispiele: Huffman Code, Lauflängencodierung,

Mehr

Kompressionsverfahren für Texte

Kompressionsverfahren für Texte Kompressionsverfahren für Texte Prof. Dr. S. Albers Prof. Dr. Th. Ottmann 1 Zeichenkettenverarbeitung Suche in Texten, Textindizes Mustererkennung (Pattern-Matching) Verschlüsseln Komprimiern Analysieren

Mehr

Textkompression. Komprimierung von Daten. Runlength Komprimierung (2) Runlength Komprimierung (1) Herkömmliche Kodierung. Runlength Komprimierung (3)

Textkompression. Komprimierung von Daten. Runlength Komprimierung (2) Runlength Komprimierung (1) Herkömmliche Kodierung. Runlength Komprimierung (3) Komprimierung von Daten Textkompression Effiziente Algorithmen VU 2.0 WS 2008/09 Bin Hu Ziel: Platz und Zeit sparen Kompression durch - Effiziente Kodierung - Verminderung der Redundanzen (verlustfrei)

Mehr

Praktikum BKSPP: Blatt 2

Praktikum BKSPP: Blatt 2 Praktikum BKSPP: Blatt 2 PD Dr. David Sabel WS 2014/15 Zeichenbasierte Komprimierung Stringersatzverfahren Codebäume Huffman-Kodierung Zeichenbasierte Komprimierung mit Codebäumen Idee: Kodiere jedes Zeichen

Mehr

Dynamisches Huffman-Verfahren

Dynamisches Huffman-Verfahren Dynamisches Huffman-Verfahren - Adaptive Huffman Coding - von Michael Brückner 1. Einleitung 2. Der Huffman-Algorithmus 3. Übergang zu einem dynamischen Verfahren 4. Der FGK-Algorithmus 5. Überblick über

Mehr

Seminar. Codierungstheorie

Seminar. Codierungstheorie Seminar Codierungstheorie Lempel-Ziv-Verfahren Informatik Sommersemester 25 Tim Schweisgut, Juni 25 Inhalt INHALT... 2 WÖRTERBUCHMETHODEN... 3 Statische Wörterbuchmethoden... 3 Beispiel:... 3 Bemerkung:...

Mehr

Ziv-Lempel-Kompression von André Lichei

Ziv-Lempel-Kompression von André Lichei Ziv-Lempel-Kompression von André Lichei Einführung: Die wichtigsten Ansprüche,die an einen Komprimierungs-Algorithmus gestellt werden, sind: - eine hohe Komprimierungsrate - für alle Typen von Daten (

Mehr

Praktikum BKSPP. Aufgabenblatt Nr. 2

Praktikum BKSPP. Aufgabenblatt Nr. 2 PD Dr. David Sabel Institut für Informatik Fachbereich Informatik und Mathematik Johann Wolfgang Goethe-Universität Frankfurt am Main Praktikum KSPP Wintersemester 24/5 Aufgabenblatt Nr. 2 Abgabe: Dienstag,

Mehr

Beispiel: Zeigen Sie, dass H(x) = H 0 = I gilt, wenn alle Zeichen gleichwahrscheinlich sind.

Beispiel: Zeigen Sie, dass H(x) = H 0 = I gilt, wenn alle Zeichen gleichwahrscheinlich sind. 1 2 Im ersten Schritt werden wir uns mit dem Begriff und der Definition der Information beschäftigen. Ferner werden die notwendigen math. Grundlagen zur Quellencodierung gelegt. Behandelt werden Huffman,

Mehr

Strings. Stringsuche, Boyer-Moore, Textkompression, Huffman Codes.

Strings. Stringsuche, Boyer-Moore, Textkompression, Huffman Codes. Strings Stringsuche, Boyer-Moore, Textkompression, Huffman Codes. Suche Substring Häufiges Problem Relevante Beispiele: Suche ein Schlagwort in einem Buch Alphabet: A-Za-z0-9 Suche Virussignatur auf der

Mehr

Einleitung. Kapitel 1

Einleitung. Kapitel 1 Kapitel 1 Einleitung In diesem Abschnitt geben wir einen kurzen Überblick über den Inhalt der Vorlesung. Wir werden kurz die wesentlichen Probleme erläutern, die wir ansprechen wollen. Wir werden auch

Mehr

Einführung in die Informatik II Aus der Informationstheorie: Datenkompression

Einführung in die Informatik II Aus der Informationstheorie: Datenkompression Einführung in die Informatik II Aus der Informationstheorie: Datenkompression Prof. Bernd Brügge, Ph.D Institut für Informatik Technische Universität München Sommersemester 2 2. Juli 2 Copyright 2 Bernd

Mehr

Informatik II, SS 2016

Informatik II, SS 2016 Informatik II - SS 2016 (Algorithmen & Datenstrukturen) Vorlesung 22 (20.7.2016) Greedy Algorithmen - Datenkompression Algorithmen und Komplexität Greedy Algorithmen Greedy Algorithmen sind eine Algorithmenmethode,

Mehr

2. Digitale Codierung und Übertragung

2. Digitale Codierung und Übertragung 2. Digitale Codierung und Übertragung 2.1 Informationstheoretische Grundlagen 2.2 Verlustfreie universelle Kompression 2.3 Digitalisierung, Digitale Medien Ludwig-Maximilians-Universität München, Medieninformatik,

Mehr

Datenkompression. 1 Allgemeines. 2 Verlustlose Kompression. Holger Rauhut

Datenkompression. 1 Allgemeines. 2 Verlustlose Kompression. Holger Rauhut Datenkompression Holger Rauhut 1. September 2010 Skript für die Schülerwoche 2010, 8.-11.9.2010 Hausdorff Center for Mathematics, Bonn 1 Allgemeines Datenkompression hat zum Ziel, Daten in digitaler Form,

Mehr

ADS: Algorithmen und Datenstrukturen 2

ADS: Algorithmen und Datenstrukturen 2 ADS: Algorithmen und Datenstrukturen 2 Teil V Peter F. Stadler & Konstantin Klemm Bioinformatics Group, Dept. of Computer Science & Interdisciplinary Center for Bioinformatics, University of Leipzig 05.

Mehr

Textkomprimierung. Stringologie. Codes. Textkomprimierung. Alle Komprimierung beruht auf Wiederholungen im Text. Textkomprimierung

Textkomprimierung. Stringologie. Codes. Textkomprimierung. Alle Komprimierung beruht auf Wiederholungen im Text. Textkomprimierung Stringologie Peter Leupold Universität Leipzig Vorlesung SS 2014 Alle Komprimierung beruht auf Wiederholungen im Text Die Komprimierung muss rückgängig gemacht werden können Je kleiner das Alphabet, desto

Mehr

6. Komprimierung. (Text)komprimierung ist ein Wechsel der Repräsentation von Daten, so daß sie weniger

6. Komprimierung. (Text)komprimierung ist ein Wechsel der Repräsentation von Daten, so daß sie weniger Komprimierung 6. Komprimierung (Text)komprimierung ist ein Wechsel der Repräsentation von Daten, so daß sie weniger Platz brauchen Motivation: beschleunigt Plattenzugriffe oder Datenübertragungen Voraussetzung:

Mehr

Kapitel 7: Optimalcodierung und Huffman Coding

Kapitel 7: Optimalcodierung und Huffman Coding Kapitel 7: codierung und Huffman Coding Ziele des Kapitels Auftreten von Fehlern bei zu starker Kompression Konstruktion optimaler Codes Huffman Coding 2 Bisher Theorem (Shannon I): Die mittlere Codewortlänge

Mehr

Informatik II, SS 2018

Informatik II, SS 2018 Informatik II - SS 2018 (Algorithmen & Datenstrukturen) Vorlesung 21 (11.7.2018) String Matching (Textsuche) II Greedy Algorithmen I Algorithmen und Komplexität Textsuche / String Matching Gegeben: Zwei

Mehr

Algorithmen und Datenstrukturen (für ET/IT)

Algorithmen und Datenstrukturen (für ET/IT) Algorithmen und Datenstrukturen (für ET/IT) Wintersemester 2012/13 Dr. Tobias Lasser Computer Aided Medical Procedures Technische Universität München Informationen zur Klausur Termin: 21. Februar 2013,

Mehr

Computer Science Unplugged Algorithmen zur Textkompression

Computer Science Unplugged Algorithmen zur Textkompression Proseminar Computer Science Unplugged Algorithmen zur Textkompression Harald Zauner 12. November 2004 Zusammenfassung Trotz der rasch zunehmenden Speicherkapazität heutiger Speichermedien besteht nach

Mehr

Übersicht. Aktivitäten-Auswahl-Problem. Greedy Algorithmen. Aktivitäten-Auswahl-Problem. Aktivitäten-Auswahl-Problem. Datenstrukturen & Algorithmen

Übersicht. Aktivitäten-Auswahl-Problem. Greedy Algorithmen. Aktivitäten-Auswahl-Problem. Aktivitäten-Auswahl-Problem. Datenstrukturen & Algorithmen Datenstrukturen & Algorithmen Übersicht Greedy Algorithmen Einführung Aktivitäten-Auswahl-Problem Huffman Codierung Matthias Zwicker Universität Bern Frühling 2009 2 Greedy Algorithmen Entwurfsstrategie

Mehr

Seminar über Algorithmen, SS2004. Textkompression. von Christian Grümme und Robert Hartmann

Seminar über Algorithmen, SS2004. Textkompression. von Christian Grümme und Robert Hartmann Seminar über Algorithmen, SS2004 Textkompression von Christian Grümme und Robert Hartmann 1. Einleitung Textkompression wird zur Verringerung des Speicherbedarfs und der Übertragungskapazität von allgemeinen

Mehr

Basisinformationstechnologie II

Basisinformationstechnologie II Basisinformationstechnologie II Sommersemester 2015 13. Mai 2015 Algorithmen der Bildverarbeitung I: Kompression Universität zu Köln. Historisch-Kulturwissenschaftliche Informationsverarbeitung Dr. Jan

Mehr

21. Greedy Algorithmen. Aktivitätenauswahl, Fractional Knapsack Problem, Huffman Coding Cormen et al, Kap. 16.1, 16.3

21. Greedy Algorithmen. Aktivitätenauswahl, Fractional Knapsack Problem, Huffman Coding Cormen et al, Kap. 16.1, 16.3 581 21. Greedy Algorithmen Aktivitätenauswahl, Fractional Knapsack Problem, Huffman Coding Cormen et al, Kap. 16.1, 16.3 Aktivitäten Auswahl 582 Koordination von Aktivitäten, die gemeinsame Resource exklusiv

Mehr

Informatik II, SS 2018

Informatik II, SS 2018 Informatik II - SS 28 (Algorithmen & Datenstrukturen) Vorlesung 22 (6.7.28) Greedy Algorithmen II (Datenkompression) Algorithmen und Komplexität Datenkompression Reduziert Größen von Files Viele Verfahren

Mehr

Kapitel 2 Quellencodierung

Kapitel 2 Quellencodierung Kapitel 2 Quellencodierung Prof. Dr. Dirk W. Hoffmann Hochschule Karlsruhe w University of Applied Sciences w Fakultät für Informatik Übersicht Quelle Senke Kompression Huffman-, Arithmetische-, Lempel-Ziv

Mehr

Datenstrukturen und Algorithmen. Christian Sohler FG Algorithmen & Komplexität

Datenstrukturen und Algorithmen. Christian Sohler FG Algorithmen & Komplexität Datenstrukturen und Algorithmen Christian Sohler FG Algorithmen & Komplexität Gierige Algorithmen: Berechne Lösung schrittweise In jedem Schritt mache lokal optimale Wahl Daumenregel: Wenn optimale Lösung

Mehr

Seminar Kompressionsalgorithmen Huffman-Codierung, arithmetische Codierung

Seminar Kompressionsalgorithmen Huffman-Codierung, arithmetische Codierung Huffman-Codierung, arithmetische Codierung Theoretische Informatik RWTH-Aachen 4. April 2012 Übersicht 1 Einführung 2 3 4 5 6 Einführung Datenkompression Disziplin,die Kompressionsalgorithmen entwirft

Mehr

Kompression.pdf h. völz /17

Kompression.pdf h. völz /17 Kompression.pdf h. völz 23.5.02 1/17 Lauflängen-Codierung CCCCCCAABBBBAAAAEE _ 6C2A4B4A2E Pixel- und Zähl-Byte unterscheiden Pointer-Verfahren ABRABRIKADABRA Ab 4. Buchstaben ABR _ Verweis . total

Mehr

Arithmetisches Codieren

Arithmetisches Codieren Arithmetisches Codieren 1. Motivation: Als Alternative zum arithmetischen Codieren bot sich damals als effizientester Algorithmus das Huffmann-Coding an. Dieses jedoch hatte einen entscheidenden Nachteil:

Mehr

4.4 Anwendungen von Suffixbäumen und Suffix-Arrays

4.4 Anwendungen von Suffixbäumen und Suffix-Arrays 4.4 Anwendungen von Suffixbäumen und Suffix-Arrays exakte Suche in unveränderlichen Texten (schon besprochen) inexakte Suche in unveränderlichen Texten Finden von Regelmäßigkeiten (z.b. längste Wiederholungen)

Mehr

ADS: Algorithmen und Datenstrukturen 2

ADS: Algorithmen und Datenstrukturen 2 ADS: Algorithmen und Datenstrukturen 2 5. Vorlesung Uwe Quasthoff Abteilung Automatische Sprachverarbeitung Institut für Informatik Universität Leipzig 9. Mai 2012 1 / 35 Datenkompression Bisheriges Hauptziel

Mehr

Farb-Fernsehsignal (Composite FBAS)

Farb-Fernsehsignal (Composite FBAS) Farb-Fernsehsignal (Composite FBAS) Quelle: Ze-Nian Li : Script Multimedia Systems, Simon Fraser University, Canada VIDEO- Digitalisierung Gemeinsame Kodierung FBAS Farbbild- Austast- und Synchronsignal

Mehr

Algorithmen und Datenstrukturen (für ET/IT)

Algorithmen und Datenstrukturen (für ET/IT) Algorithmen und Datenstrukturen (für ET/IT) Wintersemester 2012/13 Dr. Tobias Lasser Computer Aided Medical Procedures Technische Universität München Informationen zur Klausur Termin: 21. Februar 2013,

Mehr

Referat zum Thema Huffman-Codes

Referat zum Thema Huffman-Codes Referat zum Thema Huffman-Codes Darko Ostricki Yüksel Kahraman 05.02.2004 1 Huffman-Codes Huffman-Codes ( David A. Huffman, 1951) sind Präfix-Codes und das beste - optimale - Verfahren für die Codierung

Mehr

Theoretische Grundlagen der Informatik. Vorlesung am 31. Januar INSTITUT FÜR THEORETISCHE INFORMATIK

Theoretische Grundlagen der Informatik. Vorlesung am 31. Januar INSTITUT FÜR THEORETISCHE INFORMATIK Theoretische Grundlagen der Informatik 3..29 Torsten Ueckerdt - Theoretische Grundlagen der Informatik KIT Die Forschungsuniversität in der Helmholtz-Gemeinschaft www.kit.edu Thema dieses Kapitels Informationstheorie

Mehr

Gierige Algorithmen Interval Scheduling

Gierige Algorithmen Interval Scheduling Gierige Algorithmen Interval Scheduling IntervalScheduling(s,f). n length[s] 2. A {} 3. j 4. for i 2 to n do 5. if s[i] f[j] then 6. A A {i} 7. j i 8. return A Gierige Algorithmen Interval Scheduling Beweisidee:

Mehr

3 Codierung diskreter Quellen. Quelle Quellcodierer Kanalcodierer reduziert die benötigte Datenmenge. fügt Daten zur Fehlerkorrektur ein.

3 Codierung diskreter Quellen. Quelle Quellcodierer Kanalcodierer reduziert die benötigte Datenmenge. fügt Daten zur Fehlerkorrektur ein. 3 Codierung diskreter Quellen 3 Einführung 32 Ungleichmäßige Codierung 33 Präfix-Codes 34 Grenzen der Code-Effizienz 35 Optimal-Codierung 3 Zusammenfassung < 24 / 228 > 3 Codierung diskreter Quellen Quelle

Mehr

Digitalisierung. analoges Signal PAM. Quantisierung

Digitalisierung. analoges Signal PAM. Quantisierung Digitalisierung U analoges Signal t U PAM t U Quantisierung t Datenreduktion Redundanzreduktion (verlustfrei): mehrfach vorhandene Informationen werden nur einmal übertragen, das Signal ist ohne Verluste

Mehr

Datenkompression: Kontext- und Wörterbuchtechniken. H. Fernau

Datenkompression: Kontext- und Wörterbuchtechniken. H. Fernau Datenkompression: Kontext- und Wörterbuchtechniken H. Fernau email: fernau@uni-trier.de SoSe 2011 Universität Trier 1 Die bedingte Entropie Seien A und B zwei Ereignisse und P (A B) die bedingte W-keit,

Mehr

ADS: Algorithmen und Datenstrukturen 2

ADS: Algorithmen und Datenstrukturen 2 ADS: Algorithmen und Datenstrukturen 2 Teil 5 Prof. Peter F. Stadler & Sebastian Will Bioinformatik/IZBI Institut für Informatik & Interdisziplinäres Zentrum für Bioinformatik Universität Leipzig 07. Mai

Mehr

Huffman-Kodierung. Fachbereich Medieninformatik. Hochschule Harz. Huffman-Kodierung. Referat. Henner Wöhler. Abgabe:

Huffman-Kodierung. Fachbereich Medieninformatik. Hochschule Harz. Huffman-Kodierung. Referat. Henner Wöhler. Abgabe: Fachbereich Medieninformatik Hochschule Harz Huffman-Kodierung Referat Henner Wöhler 11459 Abgabe: 15.01.2007 Inhaltsverzeichnis Einleitung...I 1. Entropiekodierung...1 1.1 Morse Code...2 1.2 Shannon-Fano-Kodierung...3

Mehr

21. Dynamic Programming III

21. Dynamic Programming III Approximation 21. Dynamic Programming III FPTAS [Ottman/Widmayer, Kap. 7.2, 7.3, Cormen et al, Kap. 15,35.5] Sei ein ε (, 1) gegeben. Sei I eine bestmögliche Auswahl. Suchen eine gültige Auswahl I mit

Mehr

Kompression: Lempel/Ziv-Algorithmen

Kompression: Lempel/Ziv-Algorithmen Unversität Koblenz-Landau Abteilung Koblenz Fachbereich Informatik Dipl.-Inf. Jörg Müller Proseminar WS 2000/2001 Algorithmen Kompression: Lempel/Ziv-Algorithmen 9. Januar 2001 Tobias Koch

Mehr

Digitale Medien. Übung

Digitale Medien. Übung Digitale Medien Übung Übungsbetrieb Informationen zu den Übungen: http://www.medien.ifi.lmu.de/dm Zwei Stunden pro Woche Praktische Anwendungen des theoretischen Vorlesungsstoffs Wichtige Voraussetzung

Mehr

Übrigens: um den Algorithmus im Unterricht einzuführen, sind keine Formeln notwendig! Warum reicht die normale ASCII-Codierung nicht aus?

Übrigens: um den Algorithmus im Unterricht einzuführen, sind keine Formeln notwendig! Warum reicht die normale ASCII-Codierung nicht aus? Huffman-Code Dieser Text ist als Hintergrundinformation ausschliesslich für die Lehrperson gedacht. Der Text ist deshalb eher technisch gehalten. Er lehnt sich an das entsprechende Kapitel in "Turing Omnibus"

Mehr

Übung zur Vorlesung. Vorlesung: Heinrich Hußmann Übung: Renate Häuslschmid, Hanna Schneider

Übung zur Vorlesung. Vorlesung: Heinrich Hußmann Übung: Renate Häuslschmid, Hanna Schneider Übung zur Vorlesung Digitale Medien Vorlesung: Heinrich Hußmann Übung: Renate Häuslschmid, Hanna Schneider Wintersemester 2016/17 Bilder 20 x 14 Pixel (= Bildpunkte) 16 Bit Farben (= 65.536 Farben) 560

Mehr

6 Ü B E R S E T Z U N G E N U N D C O D I E R U N G E N. 6.1 von wörtern zu zahlen und zurück Dezimaldarstellung von Zahlen Num 10

6 Ü B E R S E T Z U N G E N U N D C O D I E R U N G E N. 6.1 von wörtern zu zahlen und zurück Dezimaldarstellung von Zahlen Num 10 6 Ü B E R S E T Z U N G E N U N D C O D I E R U N G E N 6.1 von wörtern zu zahlen und zurück 6.1.1 Dezimaldarstellung von Zahlen Num 10 Num10(ε) = 0 (6.1) für jedes w Z 10 für jedes x Z 10 Num 10 (wx)

Mehr

LZxx Kompressionsverfahren. und. Anwendungsmöglichkeiten

LZxx Kompressionsverfahren. und. Anwendungsmöglichkeiten LZxx Kompressionsverfahren und Anwendungsmöglichkeiten 1 Vorschau 1. LZxx-Verfahren und Beispiele 2. Pressestimmen 3. Entropie 4. Anwendungen 4.1.Spracherkennung 4.2.Autorenidentifikation 4.3.Sprachklassifizierung

Mehr

Automatische Deduktion

Automatische Deduktion Automatische Deduktion Prof. Dr Manfred Schmidt-Schauß titleslide Kompression und Algorithmen auf komprimierten Termen Sommersemester 2017 Kompression: Algorithmen Grammatik-basierte Kompression von Strings

Mehr

ADS: Algorithmen und Datenstrukturen 2

ADS: Algorithmen und Datenstrukturen 2 ADS: Algorithmen und Datenstrukturen 2 Teil 1 Prof. Peter F. Stadler & Dr. Christian Höner zu Siederdissen Bioinformatik/IZBI Institut für Informatik & Interdisziplinäres Zentrum für Bioinformatik Universität

Mehr

Aufgabe: Platz-effiziente Kompression von Textdaten

Aufgabe: Platz-effiziente Kompression von Textdaten 7.3 Huffman-Bäume Anwendung von Binärbäumen Aufgabe: Platz-effiziente Kompression von Textdaten Standardcodierungen von Textdaten ISO-8859-1: 8 Bit pro Zeichen UTF-16: 16 Bit pro Zeichen Codierungen mit

Mehr

TU München. Hauptseminar: WS 2002 / Einführung in Suffix - Bäume

TU München. Hauptseminar: WS 2002 / Einführung in Suffix - Bäume TU München Hauptseminar: WS 2002 / 2003 Einführung in Suffix - Bäume Bearbeiterin: Shasha Meng Betreuerin: Barbara König Inhalt 1. Einleitung 1.1 Motivation 1.2 Eine kurze Geschichte 2. Tries 2.1 Basisdefinition

Mehr

Plug&Play Kompression mit dem Framework. Dominik Köppl Vortragsreihe der Regionalgruppe der Gesellschaft für Informatik aus Dortmund 4.

Plug&Play Kompression mit dem Framework. Dominik Köppl Vortragsreihe der Regionalgruppe der Gesellschaft für Informatik aus Dortmund 4. Plug&Play Kompression mit dem Framework Dominik Köppl Vortragsreihe der Regionalgruppe der Gesellschaft für Informatik aus Dortmund 4. Juni 2018 2 C++14 Open-Source (Apache-License) Github 3 Verlustfreie

Mehr

Algorithmus zur komprimierten Übertragung von Textdaten an mobile Endgeräte

Algorithmus zur komprimierten Übertragung von Textdaten an mobile Endgeräte Fachhochschule Wedel Seminararbeit Algorithmus zur komprimierten Übertragung von Textdaten an mobile Endgeräte Sven Reinck 7. Januar 2007 Inhaltsverzeichnis Inhaltsverzeichnis Motivation 2 Wörterbuch 2.

Mehr

Kompressionsverfahren

Kompressionsverfahren Kompressionsverfahren Quelle: Steinmetz, Ralf: Multimedia-Technologie: Einführung und Grundlagen, Springer, Verlag Verlustlose Kompressionsalgorithmen RLC Huffman Adaptive Huffman Kodierung Arithmetische

Mehr

1 / 33. P.F. Stadler & S. Will (Bioinf, Uni LE) ADS 2, V5 07. Mai / 33

1 / 33. P.F. Stadler & S. Will (Bioinf, Uni LE) ADS 2, V5 07. Mai / 33 P.F. Stadler & S. Will (Bioinf, Uni LE) ADS 2, V5 07. Mai 204 7 / 33 P.F. Stadler & S. Will (Bioinf, Uni LE) ADS 2, V5 07. Mai 204 8 / 33 ADS: Algorithmen und Datenstrukturen 2 Teil 5 Prof. Peter F. Stadler

Mehr

2.7 Der Shannon-Fano-Elias Code

2.7 Der Shannon-Fano-Elias Code 2.7 Der Shannon-Fano-Elias Code Die Huffman-Codierung ist ein asymptotisch optimales Verfahren. Wir haben auch gesehen, dass sich die Huffman-Codierung gut berechnen und dann auch gut decodieren lassen.

Mehr

Institut für Geometrie und Praktische Mathematik Mathematisches Praktikum (MaPra) SS Aufgabe 7

Institut für Geometrie und Praktische Mathematik Mathematisches Praktikum (MaPra) SS Aufgabe 7 Rheinisch Westfälische Technische Hochschule Institut für Geometrie und Praktische Mathematik Mathematisches Praktikum (MaPra) SS 2001 Prof. Dr. Wolfgang Dahmen Alexander Voß Stephan Niewersch Aufgabe

Mehr

Freie Universität Berlin. Seminar Talk. Datenkompression. Zacharias V. Fisches 2. Mai 2017

Freie Universität Berlin. Seminar Talk. Datenkompression. Zacharias V. Fisches 2. Mai 2017 Freie Universität Berlin Seminar Talk Datenkompression Zacharias V. Fisches zacharias.vf@gmail.com 2. Mai 2017 Proseminar Theoretische Informatik Prof. Wolfgang Mulzer Inhaltsverzeichnis 1 Einleitung 2

Mehr

Die Burrows-Wheeler-Transformation

Die Burrows-Wheeler-Transformation Die Burrows-Wheeler-Transformation Martin Knapp Proseminar Datenkompression 11. Dezember 2002 Inhaltsverzeichnis 1. Einleitung 3 2. Funktionsweise 4 2.1 Grundlagen.........................................................

Mehr

Molekulare Bioinformatik

Molekulare Bioinformatik Molekulare Bioinformatik Wintersemester 203/204 Prof. Thomas Martinetz Institut für Neuro- und Bioinformatik Universität zu Luebeck 07.0.204 Molekulare Bioinformatik - Vorlesung 0 Wiederhohlung Die Entropie

Mehr

Kompression. Tim Kilian

Kompression. Tim Kilian Kompression Tim Kilian Seminar Effiziente Programmierung Arbeitsbereich Wissenschaftliches Rechnen Fachbereich Informatik Fakultät für Mathematik, Informatik und Naturwissenschaften Universität Hamburg

Mehr

Algorithmen und Datenstrukturen II

Algorithmen und Datenstrukturen II Algorithmen und Datenstrukturen II Algorithmen zur Textverarbeitung III: D. Rösner Institut für Wissens- und Sprachverarbeitung Fakultät für Informatik Otto-von-Guericke Universität Magdeburg Sommer 2009,

Mehr

ADS: Algorithmen und Datenstrukturen 2

ADS: Algorithmen und Datenstrukturen 2 ADS: Algorithmen und Datenstrukturen 2 Teil 1 Prof. Peter F. Stadler & Dr. Christian Höner zu Siederdissen Bioinformatik/IZBI Institut für Informatik & Interdisziplinäres Zentrum für Bioinformatik Universität

Mehr

2. Digitale Codierung und Übertragung

2. Digitale Codierung und Übertragung 2. Digitale Codierung und Übertragung 2.1 Informationstheoretische Grundlagen 2.2 Speicherbedarf und Kompression 2.3 Digitalisierung Ludwig-Maximilians-Universität München Prof. Hußmann Digitale Medien

Mehr

Textkomprimierung Multimedia-Seminar Leiter: Prof. Dr. Vornberger Referent: Stefan Fabrewitz Fr. 7.. Inhaltsverzeichnis Inhaltsverzeichnis Einleitung 5. Historie.............................. 5 Grundlagen

Mehr

Digitale Medien. Übung

Digitale Medien. Übung Digitale Medien Übung Übungsbetrieb Informationen zu den Übungen: http://www.medien.ifi.lmu.de/dm http://www.die-informatiker.net Zwei Stunden pro Woche Praktische Anwendungen des theoretischen Vorlesungsstoffs

Mehr

Mathematik für Information und Kommunikation

Mathematik für Information und Kommunikation Mathematik für Information und Kommunikation Am Beispiel des Huffman- Algorithmus Thomas Borys und (Christian Urff) Huffman im Alltag MPEG Telefax JPEG MP3 ZIP avid Huffman avid Huffman [95-999] www.soe.ucsc.edu/people/faculty/huffman.html

Mehr

Kapitel 2. Suche nach endlich vielen Wörtern. R. Stiebe: Textalgorithmen, Winter 2005/06 113

Kapitel 2. Suche nach endlich vielen Wörtern. R. Stiebe: Textalgorithmen, Winter 2005/06 113 Kapitel 2 Suche nach endlich vielen Wörtern R. Stiebe: Textalgorithmen, Winter 2005/06 113 Übersicht Aufgabenstellung Gegeben: Text T und eine endliche Menge von Wörtern P = {P 1,..., P r }; Gesucht: alle

Mehr

2. Repräsentation und Codierung von Daten. Klassen von Codierverfahren

2. Repräsentation und Codierung von Daten. Klassen von Codierverfahren 2. Repräsentation und Codierung von Daten Klassen von Codierverfahren SS 2009 Multimediale Informationsverarbeitung: Repräsentation und Codierung 1 Klassen von Codierverfahren SS 2009 Multimediale Informationsverarbeitung:

Mehr

PPM - Prediction by Partial Matching

PPM - Prediction by Partial Matching PPM - Prediction by Partial Matching 20. September 2012 Zusammenfassung Der PPM-Algorithmus ist eine prinzipiell relativ einfache Möglichkeit, Daten sehr stark zu komprimieren. In dieser Arbeit soll der

Mehr

2. Woche Eindeutige Entschlüsselbarleit, Sätze von Kraft und McMillan, Huffmancodierung

2. Woche Eindeutige Entschlüsselbarleit, Sätze von Kraft und McMillan, Huffmancodierung 2 Woche Eindeutige Entschlüsselbarleit, Sätze von Kraft und McMillan, Huffmancodierung 2 Woche: Eindeutige Entschlüsselbarleit, Sätze von Kraft und McMillan, Huffmancodierung 24/ 44 Zwei Beispiele a 0

Mehr

Problem: Finde für Alphabet mit n Zeichen einen Binärcode, der die Gesamtlänge eines Textes (über diesem Alphabet) minimiert.

Problem: Finde für Alphabet mit n Zeichen einen Binärcode, der die Gesamtlänge eines Textes (über diesem Alphabet) minimiert. Anwendungen von Bäumen 4.3.2 Huffman Code Problem: Finde für Alphabet mit n Zeichen einen Binärcode, der die Gesamtlänge eines Textes (über diesem Alphabet) minimiert. => nutzbar für Kompression Code fester

Mehr

Algorithmen und Datenstrukturen (für ET/IT) Programm heute. Wintersemester 2012/13. Dr. Tobias Lasser. 7 Fortgeschrittene Datenstrukturen

Algorithmen und Datenstrukturen (für ET/IT) Programm heute. Wintersemester 2012/13. Dr. Tobias Lasser. 7 Fortgeschrittene Datenstrukturen Algorithmen und Datenstrukturen (für ET/IT) Wintersemester 202/3 Dr. Tobias Lasser Computer Aided Medical Procedures Technische Universität München Programm heute 7 Fortgeschrittene Datenstrukturen 8 Such-Algorithmen

Mehr

Formale Methoden 2. Gaetano Geck Lehrstuhl I Logik in der Informatik WS 2015/2016

Formale Methoden 2. Gaetano Geck Lehrstuhl I Logik in der Informatik WS 2015/2016 Formale Methoden 2 Gaetano Geck Lehrstuhl I Logik in der Informatik WS 2015/2016 Teil 3: Kodierung 1 Motivation 2 Exkurs Grundlagen formaler Sprachen 3 Grundlagen 4 Beispielkodierungen FM2 (WS 2014/15,

Mehr

Datenkompression. Theorie

Datenkompression. Theorie Datenkompression Theorie Einleitung Übersicht Wie lassen sich beliebige Daten verdichtet (komprimiert) darstellen? verlustfreie Kompression: Programme Texte verlustbehaftete Kompression: Audio Video Kompressionsfaktor:

Mehr

Wie muss der Eingabetext beschaffen sein, damit er sich gut komprimieren lässt?

Wie muss der Eingabetext beschaffen sein, damit er sich gut komprimieren lässt? Lernaufgabe 1a Beim Kofferpacken können wir durch Druck die Luft herauslassen und bringen somit mehr Kleidungsstücke in den Koffer. Im Unterricht haben wir vom Huffman-Code gehört und wissen, dass er nach

Mehr

Basisinformationstechnologie II

Basisinformationstechnologie II Basisinformationstechnologie II Sommersemester 2014 28. Mai 2014 Algorithmen der Bildverarbeitung I: Kompression Universität zu Köln. Historisch-Kulturwissenschaftliche Informationsverarbeitung Jan G.

Mehr

Effiziente Algorithmen und Komplexitätstheorie

Effiziente Algorithmen und Komplexitätstheorie Fakultät für Informatik Lehrstuhl 2 Vorlesung Effiziente Algorithmen und Komplexitätstheorie Sommersemester 2008 Ingo Wegener; Vertretung: Carsten Witt 7. Juli 2008 Vorlesung am 14.07. (nächste Woche):

Mehr

Algorithmen und Datenstrukturen (für ET/IT)

Algorithmen und Datenstrukturen (für ET/IT) Algorithmen und Datenstrukturen (für ET/IT) Wintersemester 2012/13 Dr. Tobias Lasser Computer Aided Medical Procedures Technische Universität München Programm 11 Datenkompression Einführung Grundlagen

Mehr

Digitale Medien. Vorlesung: Heinrich Hußmann Übung: Renate Häuslschmid. Übung zur Vorlesung

Digitale Medien. Vorlesung: Heinrich Hußmann Übung: Renate Häuslschmid. Übung zur Vorlesung Übung zur Vorlesung Digitale Medien Vorlesung: Heinrich Hußmann Übung: Renate Häuslschmid Wintersemester 2016/17 LZW-Komprimierung Idee: Nicht einzelne Zeichen werden günstig kodiert, sondern ganze Zeichenketten

Mehr

Greedy Algorithmen. Grundlegendes. Organisatorisches. VL-21: Greedy Algorithmen. (Datenstrukturen und Algorithmen, SS 2017) Gerhard Woeginger

Greedy Algorithmen. Grundlegendes. Organisatorisches. VL-21: Greedy Algorithmen. (Datenstrukturen und Algorithmen, SS 2017) Gerhard Woeginger Organisatorisches VL-21: Greedy Algorithmen (Datenstrukturen und Algorithmen, SS 2017) Gerhard Woeginger Vorlesung: Gerhard Woeginger (Zimmer 4024 im E1) Sprechstunde: Mittwoch 11:15 12:00 Übungen: Tim

Mehr

{0,1} rekursive Aufteilung des Datenraums in die Quadranten NW, NE, SW und SE feste Auflösung des Datenraums in 2 p 2 p Gitterzellen

{0,1} rekursive Aufteilung des Datenraums in die Quadranten NW, NE, SW und SE feste Auflösung des Datenraums in 2 p 2 p Gitterzellen 4.4 MX-Quadtrees (I) MatriX Quadtree Verwaltung 2-dimensionaler Punkte Punkte als 1-Elemente in einer quadratischen Matrix mit Wertebereich {0,1} rekursive Aufteilung des Datenraums in die Quadranten NW,

Mehr

Kodierungsalgorithmen

Kodierungsalgorithmen Kodierungsalgorithmen Komprimierung Verschlüsselung Komprimierung Zielsetzung: Reduktion der Speicherkapazität Schnellere Übertragung Prinzipien: Wiederholungen in den Eingabedaten kompakter speichern

Mehr

Technische Informatik - Eine Einführung

Technische Informatik - Eine Einführung Martin-Luther-Universität Halle-Wittenberg Fachbereich Mathematik und Informatik Lehrstuhl für Technische Informatik Prof. P. Molitor Technische Informatik - Eine Einführung Darstellung von Zeichen und

Mehr

Datenbanken: Datenkompression. Dr. Matthias Uflacker, Stefan Klauck 2. Mai 2018

Datenbanken: Datenkompression. Dr. Matthias Uflacker, Stefan Klauck 2. Mai 2018 Datenbanken: Datenkompression Dr. Matthias Uflacker, Stefan Klauck 2. Mai 2018 Vorlesungsinhalte/-aufbau Phase 1 Einführung zu Unternehmensanwendungen (2 Vorlesungen) Grundlagen von spaltenorientierten

Mehr

Effiziente Algorithmen und Komplexitätstheorie

Effiziente Algorithmen und Komplexitätstheorie 1 Effiziente Algorithmen und Komplexitätstheorie Vorlesung Thomas Jansen 22.06.2006 2 Ein anderer Ansatz Beobachtung in Dokumenten eines Typs wiederkehrende Muster Idee Muster in Wörterbuch speichern,

Mehr

Wann sind Codes eindeutig entschlüsselbar?

Wann sind Codes eindeutig entschlüsselbar? Wann sind Codes eindeutig entschlüsselbar? Definition Suffix Sei C ein Code. Ein Folge s {0, 1} heißt Suffix in C falls 1 c i, c j C : c i = c j s oder 2 c C und einen Suffix s in C: s = cs oder 3 c C

Mehr

Effiziente Algorithmen und Komplexitätstheorie

Effiziente Algorithmen und Komplexitätstheorie 1 Effiziente lgorithmen und Komplexitätstheorie Vorlesung Thomas Jansen 29.06.2006 2 Burrows-Wheeler-Kompression: Verbesserungen dreischrittiges Kompressionsverfahren Burrows- Wheeler- Transformation Globale

Mehr

Algorithmen und Komplexität Lösungsvorschlag zu Übungsblatt 8

Algorithmen und Komplexität Lösungsvorschlag zu Übungsblatt 8 ETH Zürich Institut für Theoretische Informatik Prof. Dr. Angelika Steger Florian Meier, Ralph Keusch HS 2017 Algorithmen und Komplexität Lösungsvorschlag zu Übungsblatt 8 Lösungsvorschlag zu Aufgabe 1

Mehr

Algorithmen und Datenstrukturen 2

Algorithmen und Datenstrukturen 2 Algorithmen und Datenstrukturen 2 Lerneinheit 3: Greedy Algorithmen Prof. Dr. Christoph Karg Studiengang Informatik Hochschule Aalen Sommersemester 2016 10.5.2016 Einleitung Einleitung Diese Lerneinheit

Mehr

ADS: Algorithmen und Datenstrukturen 2

ADS: Algorithmen und Datenstrukturen 2 ADS: Algorithmen und Datenstrukturen 2 Teil 4 Prof. Dr. Gerhard Heyer Institut für Informatik Abteilung Automatische Sprachverarbeitung Universität Leipzig 24. April 2019 [Letzte Aktualisierung: 24/04/2019,

Mehr

Berechnung von Abständen

Berechnung von Abständen 3. Kreis- und Wegeprobleme Abstände in Graphen Abstände in Graphen Definition 3.4. Es sei G = (V, E) ein Graph. Der Abstand d(v, w) zweier Knoten v, w V ist die minimale Länge eines Weges von v nach w.

Mehr

Algorithmen und Datenstrukturen 2-3. Seminar -

Algorithmen und Datenstrukturen 2-3. Seminar - Algorithmen und Datenstrukturen 2-3. Seminar - Dominic Rose Bioinformatics Group, University of Leipzig Sommersemster 2010 Outline 3. Übungsserie: 3 Aufgaben, insgesamt 30 Punkte A7 Huffmann-Codierung

Mehr