MPEG. Ein Videokompressionsstandard

Größe: px
Ab Seite anzeigen:

Download "MPEG. Ein Videokompressionsstandard"

Transkript

1 Westfälische Wilhelms-Universität Münster Seminararbeit MPEG Ein Videokompressionsstandard Dörte Naunin Themensteller: Prof. Dr. Herbert Kuchen Betreuer: Christian Arndt Institut für Wirtschaftsinformatik Praktische Informatik in der Wirtschaft

2 Inhaltsverzeichnis 1 Videokompression Die Entwicklung von MPEG Historie Anforderungen an den Standard Überblick der verschiedenen MPEG Standards Grundlegende Funktionsweise Intraframe Kodierung: Ausnutzen der räumlichen Redundanz Übertragung in den YCC Farbraum Abtastraster Diskrete Kosinus Transformation (DCT) Quantisierung Zig Zag Scan DPCM (Differential Pulse Code Modulation) Run Length Encoding (RLE, Lauflängenkodierung) Huffman Kodierung (Variable Length Coding) Interframe Kodierung: Ausnutzen der temporären Redundanz Blockbasierte Bewegungskompensation Fazit...27 Literaturverzeichnis...28 II

3 1 Videokompression Videokompression verkleinert eine Menge von Daten digitaler Videos, damit diese Videos mit geringerer Bandbreite über Netzwerke übertragen und in kleineren Datenmengen gespeichert werden können. Ein Ziel ist, die Qualität der Daten nicht zu verringern. In der Frage, wie stark ein Video komprimiert werden soll, muss ein Kompromiss zwischen dem Speicherplatzverbrauch, Qualitätsverlust und der Laufzeit für Komprimierung und Dekomprimierung gefunden werden. Man unterscheidet die verlustfreie (lossless) und die verlustbehaftete (lossy) Komprimierung. Bei der verlustfreien Kodierung wird das Original nach der Dekomprimierung wieder vollständig hergestellt, bei der verlustbehafteten Kodierung werden Fehler in Kauf genommen, die sich je nach Komprimierungsgrad stärker oder weniger stark auf die Qualität auswirken. Verlustfreie Videokompression wird seltener benutzt, da die Kompression nicht so stark ist wie bei der verlustbehafteten Komprimierung. Falls ein Video keine irrelevanten oder redundanten Informationen enthält, könnte ausschließlich mit der verlustfreien Komprimierung keine Verringerung der Datenmenge erreicht werden. So könnte die Datenrate zu groß bleiben, beispielsweise größer als die Bandbreite eines Netzwerks. Die Videokompression ist ein Sonderfall der Datenkompression, wie sie von RECHENBERG und POMBERGER beschrieben wird: Überträgt man Nachrichten (Daten) über Raum (Netze) und Zeit (Speichermedien), kann Datenkompression die Datenmenge bei Beibehaltung des Informationsgehalts stark reduzieren und Übertragungszeit und Speicherplatz einsparen. Speichermedien und Kommunikationskanäle werden immer preiswerter, aber gleichzeitig nehmen die Datenmengen und Prozessorleistungen zu, so dass Datenkompression weiterhin sinnvoll ist. [RP02, S. 241] 3

4 2 Die Entwicklung von MPEG 2.1 Historie MPEG 1 ist die Abkürzung für Moving Pictures Expert Group, sie ist eine Arbeitsgruppe der ISO 2 /IEC 3, die mit der Entwicklung von Audio und Video Standards beauftragt ist. Sie wurde im Jahre 1988 von Leonardo Chiariglione und Hiroshi Yasuda gegründet. Weiterhin ist MPEG die Bezeichnung für die verschiedenen Standards, die diese Expertengruppe entwickelt hat. Das Ziel dieser Aktivitäten war, einen weltweit einheitlichen Standard für die Videokompression bereitzustellen. Ein erster Entwurf des Standards wurde wie geplant zum Ende des Jahres 1990 vorgelegt. 2.2 Anforderungen an den Standard Einen Standard macht aus, dass er weltweit genutzt werden kann. Er kann Kosten reduzieren und zur Interoperabilität zwischen verschiedenen Geräten beitragen. Er sollte die Kommunikation zwischen Geräten von verschiedenen Möglichst viele Anforderungen sollten erfüllt sein, aber der Standard sollte nicht zu kompliziert werden. Die Expertengruppe hob einige Eigenschaften als besonders wichtig für eine flexible Lösung hervor. Ich führe hier nur einige Beispiele auf, die MPEG aus damaliger Sicht erfüllen sollten. Die Fehlerresistenz ist die Widerstandskraft der Kodierung gegen Defekte. Auftretende Fehler können so korrigiert werden und im Idealfall sind sie beim Abspielen für den Zuschauer unsichtbar. Ein geringer Zeitaufwand für Kodierung und Dekodierung sind für die Handhabung eines zu kodierenden Videos besonders wichtig. Die Zeit die für die Komprimierung und Dekomprimierung benötigt wird, sollte minimiert werden. Die Editierbarkeit ermöglicht es, das Video zu verändern, hierfür wäre es ideal, wenn man auf jedes Bild des Videos einzeln zugreifen könnte. 1 Der formale Name ist ISO/IEC JTC 1/SC 29/WG 11 2 International Organization for Standardization 3 International Electrotechnical Commission 4

5 Der Standard sollte eine hohe Formatflexibilität besitzen und MPEG kodierte Videos sollten in möglichst vielen Formaten gespeichert und abgespielt werden können. Ein weiterer wichtiger Punkt sollte der Zufällige Zugriff sein. Es sollte in einem Video möglich sein, einen beliebigen Punkt innerhalb des Videos anwählen zu können. Für den Zufälligen Zugriff wäre es optimal, wenn man das Video wie hintereinander ablaufende nicht-bewegte Bilder komprimieren würde. So könnte man auf jedes Bild einzeln zugreifen, da sein Inhalt sich nicht auf andere stützt. Eine Komprimierung in Form der Kompression aller Bilder einzeln würde allerdings den Rahmen des Speicherplatzes sprengen und somit der Anforderung geringer Kosten nicht genügen. Angesichts der verschiedenen Anforderungen muss MPEG als ein Kompromiss verstanden werden, denn nicht alle Eigenschaften können in diesem Standard gleichzeitig vollständig erfüllt sein. Aufgrund dessen nutzt MPEG zwei verschiedene Kodierungsarten, die Intraframe Kodierung und die Interframe Kodierung. Die Intraframe Kompression ist effektiv eine Kompression für nicht-bewegte Bilder. Sie enthält nur Bezüge von Bildern auf sich selbst und nutzt nur die räumlich überflüssigen Informationen zur Kompression. Eine Interframe Kompression beinhaltet auch Bezüge von einem Bild zu einem anderen, sie nutzt somit auch die zeitlich überflüssigen Informationen aus. Für den zufälligen Zugriff wäre es optimal, wenn die Kompression nur aus Intraframes bestehen würde, dass heißt, wenn jedes Bild einzeln für sich wie ein JPEG kodiert werden würde 4. Allerdings ist die Kompression begrenzt: Es ergeben sich Probleme aufgrund der Größe, beispielsweise für eine Übertragung über ein Netzwerk. Deswegen enthält ein MPEG kodiertes Video Interframe und Intraframe Bilder. 2.3 Überblick der verschiedenen MPEG Standards MPEG 1: Coding of moving pictures and associated audio at up to 1,5Mbit/s [St04, S. 357] Der erste MPEG Standard beschäftigte sich ausschließlich mit der Kodierung von Video und zugeordnetem Audio. Seine Layer 3 (Audio) definierte den Standard MP3 (MPEG Layer 3). 4 Eine Kodierung eines Videos nur nach Intraframe Kodierung heißt auch M-JPEG (Motion JPEG) 5

6 MPEG 2: Generic Coding of moving pictures and associated Audio [St04, S. 357] Die Weiterentwicklung des ersten MPEG Standards stellt eine größere Auswahl an Möglichkeiten bezüglich der Bildauflösung, Datenrate und Qualitätsstufe. So sind auch hoch auflösende Anwendungen möglich, wie zum Beispiel HDTV (High Definition TV). Außerdem stellt der Standard Digital Video Broadcasting (DVB) bereit. MPEG 3 wurde nie ein Standard. Ursprünglich wurde er für HDTV designt, dann baute man diese Eigenschaften schon in MPEG 2 ein. Daraufhin wurden die Bemühungen um einen MPEG 3 Standard abgebrochen. MPEG 4: Coding of audio - visual objects [St04, S. 357] Dieser Standard erweitert die Standardisierung von Video und zugehörigen Audiosignalen auf jegliche Arten von audiovisuellen Inhalten, wie zum Beispiel auch Grafiken, Körper und Gesichtsanimationen. MPEG 7: Multimedia Content Description Interface [St04, S. 358] Der Standard macht eine Beschreibung von Metadaten für multimediale Inhalte möglich und gestattet Katalogisierung, erweiterte Suche und Verwaltung dieser Inhalte. MPEG 21: Multimedia Framework [St04, S. 358] MPEG standardisiert hiermit ein so genanntes Multimedia Framework Alle Schritte multimedialer Inhalte, wie Erzeugung, Produktion, Distribution und Konsum werden definiert und beschrieben. Neben der Identifizierung dieser Schritte, dient der Standard auch der Sicherung von Eigentums und Urheberrechten. Weitere Projekte der Moving Pictures Expert Group sind die Standards MPEG A, MPEG B, MPEG C, MPEG D und MPEG E. 6

7 3 Grundlegende Funktionsweise Ausgenutzt werden für die Komprimierung die zeitlichen, räumlichen und psychovisuellen Redundanzen in Videodaten, sowie die Tatsache, dass das menschliche Auge nicht alle Details erfassen kann. Laut FISCHER ist Redundanz ein Inhalt, der ohne Informationsverlust weggelassen werden kann [Fi02, S. 389]. In Videos treten häufig zeitliche und räumliche Korrelationen auf. Fährt zum Beispiel ein Auto durchs Bild oder bleibt bei einer Nachrichtensendung der Hintergrund des Sprechers unverändert, existieren gleiche Bildausschnitte, die nicht alle einzeln gespeichert werden müssen. Der Hintergrund in einer Nachrichtensendung ist oft gleichmäßig in einer Farbe gehalten. Die Information über seine Beschaffenheit muss nur einfach gespeichert werden. Da die Informationen innerhalb, aber in verschiedenen Stellen eines Bildes auftauchen, nennt man dies die räumliche Redundanz. Ein fahrendes Auto in einem Video ist ein Beispiel für eine zeitliche Redundanz. Die Beschaffenheit des Autos bleibt gleich, die Position verändert sich jedoch im Fortlaufen eines Films. So muss die Information über das Aussehen des Autos nur einfach gespeichert werden. Doppelte Informationen, die auf die Zeit hingesehen vorkommen, also sich auf verschiedenen Bildern eines Videos befinden, haben daher eine zeitliche Redundanz. Die psychovisuelle Redundanz besteht, weil das menschliche Auge stärker auf Helligkeits- (Luminanz) als auf Farbunterschiede (Chrominanz) reagiert. Auf der menschlichen Netzhaut befinden sich mehr Stäbchen als Zäpfchen. Die Stäbchen fangen die Helligkeitssignale und die Zäpfchen die Farbsignale auf. Es werden Bildausschnitte eines Videos verglichen, um Duplikationen zu löschen und die doppelte Information als Bezugnahme auf den ersten Bildausschnitt darzustellen. Um die Bildausschnitte zum Erkennen von Redundanzen miteinander vergleichen zu können, hat man eine einheitliche Unterteilung der Bilder festgelegt. MPEG gliedert jedes Bild eines Videos in so genannte Makroblöcke, die aus x Pixel bestehen. Diese Standardisierung vereinfacht die Algorithmen, da man sie nur noch auf kleinere Blöcke anwenden muss und nicht auf ein ganzes Bild. 7

8 Makroblock Bild Abbildung 1: Einteilung in Makroblöcke Der Standard benutzt zwei grundlegende Techniken: die blockbasierte Motion Compensation für die Reduktion der zeitlichen (temporären) Redundanz und die Diskrete Kosinus Transformation (DCT 5 ) für die Reduktion der räumlichen Redundanz. Die verschiedenen Bildtypen Ein MPEG Video besteht aus hintereinander geschalteten Bildern, die verschieden kodiert werden: den I-Bildern der Intraframe Kodierung und den P- und B-Bildern der Interframe Kodierung. Intrakodierte Bilder (Interpolative Pictures; I-Bilder) I-Bilder haben ausschließlich Referenzen auf sich selbst, sie funktionieren daher wie die Kodierung nicht-bewegter Bilder und nutzen ausschließlich die räumliche Redundanz aus. Die Kompression ist nicht stark. Sie werden zum Beispiel für den zufälligen Zugriff benötigt und dienen als Referenzen für P- und B-Bilder. Predicted kodierte Bilder (Predictive Pictures; P-Bilder) P-Bilder haben Referenzen auf vergangene Bilder und dienen selbst als Referenz für I- und B-Bilder. Interpolative / Bidirectional kodierte Bilder (Biderectional Prediction, B-Bilder) 5 Discrete cosine transform 8

9 B-Bilder liefern die höchste Kompression, sie haben Referenzen auf vergangene und zukünftige Bilder, können aber selbst nicht Referenz für andere Bilder sein. Die Referenzbilder sind das jeweils letzte I- oder P-Bild und das jeweils nächste I- oder P- Bild. 0 I 1 B Ermittelt aus den Bildern 0 und 3 2 B Ermittelt aus den Bildern 0 und 3 3 P Predicted aus Bild 0 4 B Ermittelt aus den Bildern 3 und 6 Group of Pictures (GOP) 5 B Ermittelt aus den Bildern 3 und 6 6 P Predicted aus Bild 3 7 B Ermittelt aus den Bildern 6 und 9 8 B Ermittelt aus den Bildern 6 und 9 9 I Abbildung 2: Beispiel für eine Abfolge von Bildern Oft wird die Abfolge der Bilder I BB P BB P BB P BB P BB I verwendet, sie kann aber variieren und muss auch nicht regelmäßig sein. Die Interframe Kodierung erstellt P- und B-Bilder, sie erreicht damit eine höhere Kompression als die Intraframe Kodierung, die ausschließlich I-Bilder verwendet. Im folgenden beschreibe ich, wie die beiden Kodierungsarten irrelevante und redundante Informationen löschen und so einen Videodatenstrom verkleinern. 9

10 3.1 Intraframe Kodierung: Ausnutzen der räumlichen Redundanz Bei der Intraframe Kodierung werden die Dopplungen innerhalb eines Bildes erkannt und gelöscht, um die Datenmenge zu verringern. Sie kodiert nur I-Bilder. Für diese Art der Kodierung wird jedes Bild vom RGB Farbraum in den YCC Farbraum überführt. Die Bilder werden aufgeteilt in Helligkeits- (Luminanzsignal) und Farbsignale (Chrominanzsignal) gespeichert, anstatt über die Verteilung der Grundfarben Rot, Grün und Blau. Zur Vereinfachung der Bearbeitung werden die Bilder in kleinere Einheiten zerlegt. Die x Pixel großen so genannten Makroblöcke werden bei der Intraframe Kodierung geviertelt und die entstehenden 8x8 Pixel großen Blöcke zur weiteren Verarbeitung erhalten. Diese Verkleinerung der einzeln abzuarbeitenden Einheiten vereinfacht die mathematischen Algorithmen stark, da bei der Diskreten Kosinus Transformation alle Werte einer Einheit in jede einzelne Rechnung miteinbezogen werden. Die Häufigkeiten der Helligkeits- und Farbsignale im neuen Farbraum hängen von der jeweiligen Abtastrate ab. Meistens beinhaltet ein Makroblock vie Luminanzblöcke und je einen Chrominanzblock der zwei verschiedenen Chrominanzarten. Jeder 8x8 Pixel große Block ist eine 8x8 Matrix, die Werte der Matrix werden mit der Diskreten Kosinus Transformation (DCT) umgerechnet. Die so erhaltenen DCT Koeffizienten werden quantisiert, d.h. sie werden durch den jeweiligen Wert einer 8x8 Quantisierungsmatrix dividiert. Die erhaltene Matrix wird mit einem Zick Zack Muster gescannt und die Werte werden in der Reihenfolge dieses Zig-Zag-Scans als eindimensionale Folge aufgeschrieben. Die vorderste Zahl der Folge ist die so genannte DC-Komponente, sie wird mit der Differential Pulse Code Modulation (DPCM) kodiert. Die restlichen Zahlen werden mit der Lauflängenkodierung (Run Length Encoding - RLE) zu Tupeln geformt und anschließend mit der Huffman Kodierung kodiert und in Binärform gespeichert. 10

11 R G Bild B C b Y C r Zerlegung in Makroblöcke C b Zerlegung in 8x8 Pixel Y C r DCT DCT Koeffizienten DPCM Quantisierung RLE Zig Zag - Scan Quantisierte DCT Koeffizienten Huffman Kodierung Abbildung 3: Intraframe Kodierung Übertragung in den YCC Farbraum Ein Bildsignal ist eine Verteilung der drei Grundfarben Rot, Grün und Blau (R, G, B). Aus der Intensität der jeweiligen Grundfarbe ergeben sich die Informationen über Helligkeit und Farbsättigung. Die Helligkeits- (Luminanz) und Farbsignale 11

12 (Chrominanz) werden voneinander getrennt mit der Überführung in den YCC Farbraum 6. Danach setzen sich die Signale wie folgt zusammen: MPEG Signale: C b = B Y C r = R Y Y Beschreibung Chrominanz b (Farbsättigung) Chrominanz r (Farbsättigung) Luminanz (Helligkeitssignal) Nun haben wir für jedes Bild drei Bilder, ein Luminanzbild und zwei Chrominanzbilder. Errechnet wird der YUV Farbraum (Y Luminanz; U, V Chrominanz) wie folgt: Y = 0,299 * R + 0,587 * G + 0,144 * B U = 0,436 * (B Y) / (1 0,144) V = 0,615 * (R Y) / (1 0,299) Anders ausgedrückt : Y = + 0,299 * R + 0,587 * G + 0,114 * B U = 0,147 * R 0,289 * G + 0,436 * B V = + 0,615 * R 0,515 * G 0,1 * B Am Faktor 0,587 sieht man, dass das Helligkeitssignal (Y) signifikant durch die Farbe grün bestimmt wird. Daran ist zu erkennen, dass das menschliche Auge sehr empfindlich auf die Farbe grün reagiert. Nachdem die Helligkeits- von den Farbsignalen unterschieden wurden, können sie getrennt voneinander bearbeitet werden. Dies ist sinnvoll, da die Farbsignale stärker 6 auch: YUV Farbraum 12

13 verändert werden können als die Helligkeitssignale, ohne dass ein Unterschied für das menschliche Auge sichtbar wird Abtastraster Ein Bild hat theoretisch unendlich viele Bildpunkte. Mit Hilfe des Abtastens wird eine endliche Anzahl Punkte des digital dargestellten Bildes gefunden. Bei der Abtastung werden aus jedem Bildpunkt die Werte für das Luminanzsignal (Y) und die beiden Chrominanzsignale (C b, C r ) gewonnen. Schon während dieses Prozesses können die Signale gewichtet werden, um unwichtige Informationen zu reduzieren. Folgende Chrominanzformate zeigen, mit welcher Abtastrate die Signale gewonnen wurden: Ein 4:2:0 Makroblock umfasst neben den vier Luminanzblöcken jeweils einen C b Chrominanzblock und einen C r Chrominanzblock. Aus jedem Bildpunkt werden vier Luminanzsignale und jeweils eins der beiden Chrominanzsignale gewonnen. Dieses Format wird am häufigsten verwendet. Ein 4:2:2 Makroblock schließt jeweils zwei der Chrominanzblöcke mit ein. Aus jedem Bildpunkt werden zwei Luminanzsignale und jeweils eins der beiden Chrominanzsignale erhalten. Ein 4:4:4 Makroblock beinhaltet von den Luminanz und verschiedenen Chrominanzblöcken jeweils 4. Aus jedem Bildpunkt wird jeweils ein Signale der drei Arten gewonnen, sie werden mit der gleichen Abtastrate verarbeitet Diskrete Kosinus Transformation (DCT) Die diskrete Kosinus Transformation (DCT) ist eine mathematischer Algorithmus, der Werte des YCC Farbraums in eine Frequenzdarstellung umwandelt. Für den Algorithmus wird folgende Formel angewandt: 1 F[ u, v] = CuC 4 v 7 7 x= 0 y= für x, y,u, v = 0 7 (2x + 1) uπ (2y + 1) vπ f ( x, y) cos cos 0 13

14 Cu, v 1 = 2 1 für sonst u, v = 0 Die inverse Kosinus Transformation (IDCT) lautet : f ( x, y) = 7 7 u= 0 v= 0 Cu Cv (2x + 1) uπ (2y + 1) vπ F( u, v) cos cos 2 2 Die Variablen x und y stehen für die Position eines Pixels in einem 8x8 Pixel Block, gezählt werden von 0 bis 7. Die in Makroblöcke geteilte Bilder werden für die DCT nochmals in kleinere Bildausschnitte unterteilt. Jeder Makroblock wird geviertelt, um 8x8 Pixel Blöcke zu erhalten. Das ist nötig, um die Berechnungen der DCT zu vereinfachen. Die Umwandlung in die Frequenzdarstellung geschieht ohne Verlust, es wird damit allein noch keine Komprimierung der Daten erreicht. Die DCT birgt aber einen großen Schritt zur Komprimierung, da in der Frequenzdarstellung hohe von niedrigen Frequenzen getrennt werden. Das menschliche Auge nimmt hohe Frequenzen schlechter wahr. Nach der Trennung der hohen von den niedrigen Frequenzen können die hohen Frequenzen eliminiert werden, ohne die niedrigen Frequenzen zu behindern. So geschieht eine starke Komprimierung der Daten ohne einen sichtbaren Qualitätsverlust des Videos. Bei der Berechnung der DCT Koeffizienten einer 8x8 Matrix werden bei jeder einzelnen Rechnung alle Werte der Matrix miteinbezogen, das bedeutet jede Berechnung eines der 64 Koeffizienten beinhaltet 64 Summanden. Deswegen nehme ich ein Rechenbeispiel der eindimensionalen DCT zur besseren Verständlichkeit, die Rechnung erfolgt dann nicht über eine komplette 8x8 Matrix, sondern über 1x8 Bildpunkte, und die acht Koeffizienten werden mit nur acht Summanden errechnet. 14

15 Beispiel [SW99, S. 447]: u f(x): Bildpunkte DCT Koeffizienten Q - Matrix Ergebnisse Die Formel der eindimensionalen Diskreten Kosinus Transformation (1D-DCT) lautet 1 F[ u] = C 2 u 7 x= (2x + 1) uπ f ( x)cos 0 Cu 1 = 2 1 für sonst u = 0 Berechnung des dritten DCT Koeffizienten: (u = 2) 1 C(2) = 2 7 x= 1 7 (2 * x + 1)2π C(2) = f ( x) cos( ) 2 x = 0 (2 x + 1) * 2* π f ( x) cos 0 1 (2 * 0 + 1)2π (2 *1 + 1)2π (2 * 2 + 1)2π (2 * 3 + 1)2π = 58 * cos 58 * cos 58 * cos 28 * cos 2 (2 * 4 + 1)2π (2 * 5 + 1)2π (2 * 6 + 1)2π (2 * 7 + 1) * cos + 72 * cos + 72 * cos + 72 * cos* π 15

16 1 2π 6π 10π 14π 18π 22π 26π 30π = * 58 * cos 58 * cos 58 * cos 28 * cos + 22 * cos + 72 * cos + 72 * cos + 72 * cos 2 1 * 2 1 = * 2 = 9,2376 [ 58 * 0, * * ( 0,3827) 28 * ( 0,9238) + 22 * ( 0,9239) + 72 * ( 0,3827) + 72 * 0, * 0,9239] [ 53, , , , , , , ,55208] 1 = *18, Das Ergebnis wird auf- oder abgerundet. In diesem Fall erfolgt eine Abrundung auf 9. (Wert in Tabelle fettgedruckt) Quantisierung DC Komponente Höher werdende Frequenzen Makroblock Höher werdende Frequenzen

17 Die Quantisierung hilft die höheren Frequenzen zu eliminieren und so eine hohe Kompression ohne großen Qualitätsverlust zu erreichen. Die DC-Komponente 7 ist der Wert oben links in der DCT Koeffizienten Matrix. Je weiter ein Wert von diesem Wert entfernt steht, desto höher die Frequenz, die der Wert beschreibt. Die Werte der höchsten Frequenzen liegen somit unten rechts im Block. Im eindimensionalen Beispiel ist die DC-Komponente 13, der erste Wert der Folge von DCT Koeffizienten (fettgedruckt in Tabelle unten). Jeder Wert der DCT Koeffizienten Matrix wird durch den zugehörigen Wert aus einer Quantisierungstabelle dividiert. Nach der Division werden die Ergebnisse auf ganze Zahlen abgerundet. Es findet ein Verlust an Daten statt, die Rundung verfälscht die Daten, die Quantisierung ist ein verlustbehaftetes Kompressionsverfahren. Die höheren Frequenzen haben kleine Werte nach der Diskreten Kosinus Transformation. An den entsprechenden Stellen in der Quantisierungstabelle stehen hingegen große Werte. Eine Division eines solchen kleinen Wertes durch einen hohen Wert ergibt nach der Rundung auf eine ganze Zahl Null. Nach der Quantisierung werden deswegen viele Nullen unten rechts in der Matrix stehen. Diese stehen nach dem Zig-Zag-Scan hintereinander und es kann mit wenig Aufwand eine hohe Kompression erreicht werden. Weiterführung Beispiel [SW99, S. 447]: DCT Koeffizienten Q - Matrix Ergebnisse Die Quantisierung im eindimensionalen Beispiel erfolgt genau wie im zweidimensionalen (mit 8x8 Matrizen). Jeder Wert der DCT Koeffizienten wird durch den zugehörigen Wert der gegebenen Quantisierungsmatrix geteilt und die Ergebnisse werden auf ganze Zahlen gerundet. Die ersten drei Werte der Folge werden folgendermaßen berechnet: 13 : = 0,1825 gerundet: : 11-14,4545 gerundet: 14 9 : 10 = 0,9 gerundet: 0 (die Werte werden immer abgerundet, nie aufgerundet) 7 auch: Gleichanteil (Maß für die mittlere Helligkeit) 17

18 Da im Beispiel viele DCT Koeffizienten kleiner sind als die dazugehörigen Werte aus der Quantisierungsmatrix, ergeben die Divisionen zusammen mit der Abrundung der Ergebnisse häufig null und diese Werte könnten effizient weiter komprimiert werden. Bei der Wahl der Bewertungsmatrix ist zu beachten, dass ein Blocking-Effekt vermieden wird. Denn dieser lässt die Umrisse der 8x8 Pixel Blöcke für das Auge sichtbar werden. Die Quantisierung birgt einen Unterschied zu JPEG, man kann für jeden Block aus mehreren Quantisierungstabellen wählen (= adaptive quantisation). Das ermöglicht höhere Kompressionsraten, macht aber die Kodierung selbst komplizierter Zig Zag Scan Abbildung 4: Zig-Zag-Scan Mithilfe des Zig Zag Scans werden die Koeffizienten nun geordnet. Die Koeffizienten werden in der Reihenfolge des Zick-Zack-Musters von der Matrix in eine eindimensionale Folge gebracht. Da die Frequenzen höher sind, je weiter rechts und unten sie in der Matrix stehen, ist die erhaltene Folge aufsteigend nach der Höhe der Frequenzen geordnet. Im Idealfall sind bei der Quantisierung viele hohe Frequenzen mit Null bezeichnet worden, die nach der Ordnung nun hintereinander stehen. Diese Folgen von Nullen können mit der Lauflängenkodierung effektiv komprimiert werden. 18

19 Beispiel [Sc02, S. 117]: (vereinfacht hier eine 4x4 Matrix statt der üblichen 8x8 Matrix) Mit dem Zick Zack Muster wird die Matrix der quantisierten DCT Koeffizienten gescannt und wir erhalten die Folge: 101; 10; 0; 0; 0; 0; -1; 0; 0; 0; 1; 0; -1; 0; 0; DPCM (Differential Pulse Code Modulation) Die DPCM nutzt aus, dass die DC-Komponenten (Gleichanteile) der verschiedenen Makroblöcke sehr stark miteinander korrelieren. Die Gleichanteile haben ähnliche Werte, sind aber sehr unterschiedlich zu den anderen Werten der Makroblöcke. Es wird eine stärkere Kompression erreicht, indem die DC-Komponenten getrennt von den restlichen Werten der Makroblöcke miteinander kodiert werden. Die Differential Pulse Code Modulation (DPCM) wird auf die DC Komponente angewandt. Diese Komponente ist groß und abwechslungsreich, aber oft nah am vorhergehenden Wert (wie verlustfreies JPEG). Es wird die Differenz zu vorhergehenden 8x8 Blöcken kodiert. [St04, S. 27] Die Gleichanteile werden den vorhergehenden Gleichanteilen der anderen Makroblöcke mit der DPCM kodiert. Die Differential Pulse Code Modulation speichert nicht die Werte selbst, sondern ihre Differenz voneinander. Da die Gleichanteile sehr ähnliche Werte haben, ist die Differenz zweier Gleichanteile ein wesentlich kleinerer Bitstring als die Werte selbst. So wird eine höhere Kompression der DC-Komponenten erreicht. Man subtrahiert den vorhergehenden Wert vom aktuellen Wert. X DPCM = Xi Xi 1 19

20 Beispiel: DC-Komponenten Die erste DC-Komponente wird notiert, ab der zweiten werden nur noch die Differenzen kodiert = = = Run Length Encoding (RLE, Lauflängenkodierung) Das Run Length Encoding ist ein verlustfreier und sehr einfacher Kompressionsalgorithmus. Er ist besonders effektiv bei Zeichenfolgen mit vielen sich wiederholenden Zeichen. Die Komprimierung funktioniert, indem statt einer Folge von gleichen Werten selbst der Wert und die Anzahl, wie oft er hintereinander vorkommt, gespeichert wird. Eine Folge von gleichen Zeichen wird als run bezeichnet. Für die Folge von Zeichen XXXXXXX wäre die RLE Kodierung 7X. So wird Speicherplatz eingespart. Diese Kodierung ist nicht bei allen Folgen von Werten sinnvoll. Beinhaltet eine Folge von Werten wenig sich wiederholende Werte kann die Kodierung auch länger werden als die originalen Werte selbst. Bei MPEG ist diese Kodierung sinnvoll, da nach der Quantisierung viele Nullen entstehen. Nach dem Zig Zag Scan sind viele Nullen direkt hintereinander angeordnet, die runs der Nullen werden so abgekürzt. Zur Veranschaulichung wende ich die Lauflängenkodierung auf das Beispiel aus Kapitel an. (Grundsätzliche Lösung RLC: [HBS03, S. 55]) 20

21 Datenfolge Nullen bis -1 3 Nullen bis 1 Nach RLC 10 (4, -1) (3, 1) (1, -1) (3,...) Die Zahl 101 ist die DC Komponente und wird mit der Differential Pulse Code Modulation kodiert und muss deswegen nicht in die Lauflängenkodierung miteinbezogen werden Huffman Kodierung (Variable Length Coding) Die Huffman Kodierung ist eine Form der Entropiekodierung. Eine Entropiekodierung komprimiert die Daten, indem sie Zeichen verschiedene Folgen von Bits zuordnet. Die Verkleinerung der Daten wird dadurch erreicht, dass besonders häufig vorkommenden Zeichen kurze Bitfolgen und selten auftretenden Zeichen lange Bitfolgen zugeschrieben werden. Die aus der Lauflängenkodierung gewonnenen Tupel werden so verlustfrei weiter komprimiert und in Binärschreibweise gebracht. Für die Eindeutigkeit ist die Huffman Kodierung präfixfrei (prefix free). Das heißt, dass ein Bitstring, der für ein Zeichen steht, niemals im Beginn (prefix) eines Bitstrings stehen darf, der einen anderen Wert repräsentiert. Nach der zugrunde liegenden Idee sollen die kürzesten Codewörter für die am häufigsten vorkommenden Werte benutzt werden. Dafür wird eine Tabelle der Werte erstellt, geordnet nach ihren Häufigkeiten. Dem am häufigsten vorkommenden Wert wird das kürzeste Codewort beigeordnet. Dem am zweithäufigsten vorkommende Wert das zweitkürzeste Codewort und so weiter. Die Anwendung des Huffman Codes führe ich mit dem Beispiels aus Kapitel vor. In der vereinfachten DCT Koeffizienten Matrix kommen vier Werte vor, die kodiert werden müssen: -1, 0, 1 und 10. Um zu entscheiden, welcher der Werte einen kurzen und welcher einen langen Code enthält, wird gezählt, wie oft die Werte vorkommen. Wert

22 Vorkommen Prozentuales Vorkommen 0,1785 0,6875 0,0625 0, Damit der ganze Code später eindeutig interpretierbar ist, hält man sich bei der Auswahl der Codes an die Präfixfreiheit der Huffman Kodierung. Das heißt, wenn ich den Code 1 benutze, darf ich keinen Code mit einer 1 am Anfang benutzen, wie beispielsweise 10 oder 111. Dann könnte man eine Folge von Codes nicht mehr eindeutig entschlüsseln. (111 könnte für den Wert des Codes 111 oder für dreimalige Wiederholung des Wertes für Code 1 stehen) Nun werden die am häufigsten vorkommenden Werte 0 und 1 den ein- und zweistelligen Codes zugeordnet, die anderen Werte bekommen absteigend nach ihrem Vorkommen längere Codes. Es ergibt sich folgende Zuordnungstabelle: Wert Code Interframe Kodierung: Ausnutzen der temporären Redundanz Die Intraframe Kodierung reicht für die Komprimierung von nicht-bewegten Bildern völlig aus, für die Kompression eines Videos wird jedoch eine stärkere Verkleinerung der Daten benötigt. Eine Kompression von allen Bildern des Videos einzeln verringert die große Datenmenge eines Videos nur ungenügend. Deswegen nutzt MPEG neben der Intraframe Kodierung die Interframe Kodierung und kodiert die Bilder nicht nur einzeln, sondern auch mit Bezug aufeinander. Dabei wird ausgenutzt, dass Videosignale 22

23 räumliche und zeitliche Informationen haben. So können bei der Videokompression im Gegensatz zur Bildkompression auch zeitlich überflüssige Informationen erkannt und reduziert werden. Zeitliche Redundanzen sind überflüssige Informationen zwischen verschiedenen Bildern. Um das Video zu komprimieren, werden sie herausgefiltert. Doppelte Ausschnitte werden nicht gespeichert und es wird nur eine Referenz auf den ersten Ausschnitt gespeichert. Diese Referenz ist der so genannte Bewegungsvektor (Motion Vector), man speichert nur die Differenz von der Stelle des aktuellen Makroblocks im Referenzbild zu der Stelle des zu referenzierenden Makroblocks. Referenzierter Makroblock Referenzbild Suchbereich Aktueller Makroblock Aktuelles Bild Bewegungsvektor Zeit Abbildung 5: Motion Compensation Während die Intraframe Kodierung nur die Intrakodierten Bilder definiert, unterscheidet die Interframe Kodierung zwischen zwei verschiedenen Arten von Bildern, den Predicted kodierten Bildern (P-Bilder) und den Bidirectional kodierten Bildern (B- Bilder). Die Predicted und Bidirectional kodierten Bilder bieten die maximale Kompression innerhalb von MPEG. B-Bilder können zudem zur Fehlerresistenz beitragen. Einerseits kann der Effekt von Störgeräuschen vermindert werden, dadurch dass ein Durchschnitt zwischen den vergangenen und zukünftigen Referenzblöcken ermittelt wird. Andererseits verbreiten B-Bilder Fehler nicht, denn sie werden selbst nicht als Bezugsbilder genutzt. Wie bei der Intraframe Kodierung muss bei der Interframe Kodierung der RGB Farbraum umgewandelt werden, hin zu einer Trennung von Helligkeits- und 23

24 Farbsignalen. Die Verkleinerung der zu bearbeitenden Einheiten erfolgt durch die Zerlegung in Makroblöcke. Zur Feststellung ob eine Information ähnlich oder gleich in zwei verschiedenen Bildern vorkommt werden die Makroblöcke verschiedener Bilder verglichen. Gibt es keine Ähnlichkeiten, wird der betreffende Makroblock mit der Intraframe Kodierung kodiert. Gibt es eine solche doppelte Information, wird sie nur einmal kodiert und zur Wiederherstellung des zweiten Makroblocks als Bewegungsvektor auf den anderen Makroblock gespeichert. Der Bewegungsvektor wird erst mit der Differential Pulse Code Modulation (DPCM) und anschließend mit der Huffman Kodierung kodiert. Der Datenstrom liegt wie bei der Intraframe Kodierung nun in Binärwerten vor. R G Bild B C b Y C b Zerlegung in Makroblöcke Y C b C r Für jeden Makroblock Prediction Error Motion Estimation Bewegungsvektor Quantisierung Keine Motion Estimation DPCM Quantisierte DCT Koeffizienten Quantisierung DCT DCT Koeffizienten Huffman Kodierung Zig Zag - Scan DPCM Huffman Kodierung RLE Abbildung 6: Interframe Kodierung 24

25 3.2.1 Blockbasierte Bewegungskompensation Die Idee der Bewegungskompensation (block based motion compensation) beruht darauf, dass sich innerhalb eines Films nur Teile der aufeinander folgenden Bilder ändern. Die Sequenzen können sich sehr ähnlich sein. Wenn der Film zum Beispiel ein fahrendes Auto zeigt, so verändert sich die Position des Autos, seine Beschaffenheit aber nicht. Die Bewegung zwischen gleichen Bildteilen wird herausgefunden und der Bewegungsvektor wird gespeichert. Die blockbasierte Bewegungskompensation nutzt die temporäre Redundanz und speichert doppelt existierende Pixelblöcke als Bewegungsvektor (Motion Vector, auch: Verschiebevektor) des ersten Pixelblocks. Dabei werden doppelte Bildinformationen wie das Aussehen des fahrenden Autos nur einmal gespeichert. Bei der Kodierung wird nun im Referenzbild ein x Pixel großer Makroblock gesucht, der möglichst große Ähnlichkeit mit dem betrachteten Makroblock im aktuellen Bild besitzt. Wenn man einen ähnlichen (fast gleichen) Bildbereich gefunden hat, wird anstelle des aktuellen Makroblocks nur ein Bewegungsvektor kodiert. Die Dekodierung funktioniert dann nur mit dem Makroblock, den man referenziert hat. Findet man für einen Makroblock keinen ähnlichen Makroblock im Referenzbild wird der aktuelle Makroblock mit der Intra Frame Kodierung kodiert und die DCT Koeffizienten werden errechnet. Diesen Makroblock kann man ohne andere Makroblöcke oder andere Informationen wieder dekodieren. Der Unterschied zwischen dem aktuellen und dem zu referenzierenden Makroblock sollte möglichst gering sein. Sobald dieser eine gewisse Größe überschreitet wird die Differenz mitkodiert und abgespeichert, was als Error Term oder Prediction Error bezeichnet wird. Die Größe, ab der ein Error Term mitkodiert wird, hängt von der jeweiligen Implementierung ab, MPEG macht dafür keine Vorgaben. Der Error Term ist wichtig für die Prediction Error Compensation. Beinhaltet der aktuelle Frame beispielsweise ein Rechteck, welches sich auch im zu kodierenden P-Frame befindet, dort allerdings verschoben und gedreht, so kann der Unterschied der Rechtecke mit der Prediction Error Compensation abgebildet werden. Die Verschiebung des Rechtecks wird mit dem Bewegungsvektor ausgedrückt. Die Rotation des Rechtecks wird mit Hilfe des Prediction Errors konstruiert. Die Differenz des Rechtecks und des gedrehten Rechtecks ist der Prediction Error, mit dem und dem Rechteck der Forward Prediction zusammen der P-Frame bei der Dekodierung erhalten wird. 25

26 Motion Vector I-Frame Forward Prediction + P-Frame Prediction Error Abbildung 7: Prediction Error Compensation Der Bewegungsvektor v * i wird durch die folgende Formel erhalten: v i x V = min 1 D[ IC( x) IR( x + v)] x Mi x ist die Koordinate des Bildpunktes M i ist der Makroblock I C ist das aktuelle Bild (current picture) I R ist das Referenzbild (reference picture) Der Suchbereich V und die Kostenfunktion D werden der Implementierung überlassen. Die B-Bilder sind eine Verbesserung der Bewegungskompensation gegenüber den B- Bildern, denn sie benutzen sowohl den vorherigen, als auch den nachfolgenden Frame für die Suche nach ähnlichen Makroblöcken. So können mehr Redundanzen gefunden werden und die Komprimierung ist stärker als nur die Suche in einem anderen Bild, wie bei den B-Bildern. Anschließend wird der Bewegungsvektor durch einen variablen Lauflängencode dargestellt. (VLC) 26

27 4 Fazit MPEG hat sich als Standard durchgesetzt. MPEG ist bis heute der weltweit meist verbreitete Standard für Videokompression. Auch das Audioformat MP3, hervorgehend aus dem MPEG Standard, ist auf der ganzen Welt gebräuchlich. Der Erfolg von MPEG liegt wohl in der guten Qualität, die trotz hoher Kompression gehalten wird und darin, dass MPEG die Nutzer nicht an eine bestimmte Firma bindet. Die bisherige Entwicklung hat über die Jahre die Qualität der komprimierten Bilder noch steigen lassen. Außerdem lässt MPEG viele Möglichkeiten und erlaubt den Herstellern, die Algorithmen zu verändern. Eine effektive Kompression von digitalen Videodaten wird aktuell immer wichtiger, zum Beispiel im Zuge der Einführung des digitalen Fernsehens, der Entwicklung von HDTV oder des ATM basierten Breitband ISDN. 27

28 Literaturverzeichnis [AS99] [Br97] [Ch96] [Fi02] Supavadee Aramvith, Ming-Ting Sun: MPEG-1 And MPEG-2 Video Standards, Academic Press, Ilja N. Bronstein, Konstantin A. Semendjajew, Gerhard Musiol, Heiner Mühlig: Taschenbuch der Mathematik, Harri Deutsch, Kulanthai Chandrarajh: What Is MPEG Video Compression Standard?, Peter Fischer: Lexikon der Informatik Für Praxis und Studium, SmartBooks, 2002 [Fis02] Sven Fischer: Grafikformate GE-PACKT, mitp, [Fu96] [HBS03] [KR07] [LG91] Funke: Konzeption und Entwicklung eines Video Effect Modelers, (Diplomarbeit), Arne Heyna, Marc Briede, Ulrich Schmidt: Datenformate im Medienbereich, Carl Hanser Verlag, Uwe Kühhirt, Marco Rittermann: Interaktive audiovisuelle Medien, Carl Hanser Verlag, Didier Le Gall: MPEG: A Video Compression Standard for Multimedia Applications, Communications of the ACM, Vol.34, No.4, [RP02] Peter Rechenberg, Gustav Pomberger: Informatik-Handbuch, Hanser, [Sc02] Ulrich Schmidt: Digitale Film- und Videotechnik, Carl Hanser Verlag, [St04] [SW99] Michael Stepping: Ein Beitrag zu MPEG 4 Broadcast, Stepping (Dissertation), Joachim Schulze-Wenck: Datenreduktion Digitalisierter Fernsehbilder, Unterrichtsblätter der Deutschen Telekom Heft Nr. 8, 1999.

MPEG-1, MPEG-2 und MPEG-4. Projekt KlaVid

MPEG-1, MPEG-2 und MPEG-4. Projekt KlaVid MPEG-1, MPEG-2 und MPEG-4 Projekt KlaVid Inhalt 1. Was ist MPEG? 2. MPEG-1 Grundsätzliches Verfahren Einsatzgebiete von MPEG-1 3. MPEG-2 Neue Kodierungsmethoden in MPEG-2 Komprimierungsmethoden Zusätzliche

Mehr

Multimediatechnik / Video

Multimediatechnik / Video Multimediatechnik / Video Video-Kompression Zusammenfassung http://www.nanocosmos.de/lietz/mtv 2009 1 Motivation: Video-Kompression Unkomprimierte Datenmengen sind zu groß! TV: 20 MB/s = 72 GB/h (720x576x2x25)

Mehr

JPEG, MPEG & Co. Alex Titze Angewandte Informatik FHTW-Berlin

JPEG, MPEG & Co. Alex Titze Angewandte Informatik FHTW-Berlin Referat KIM Alex Titze Angewandte Informatik FHTW-Berlin 76900504811 Einleitung JPEG Geschichte & Überblick Komprimierungsablauf Farbformat DCT (Diskrete Cosinus Transformation) Quantisierung Koeffizientenkodierung

Mehr

Beispielhafte Testfragen (auch aus Schülerreferaten, Fragen können redundant sein, keine Audio Kompression berücksichtigt):

Beispielhafte Testfragen (auch aus Schülerreferaten, Fragen können redundant sein, keine Audio Kompression berücksichtigt): Beispielhafte Testfragen (auch aus Schülerreferaten, Fragen können redundant sein, keine Audio Kompression berücksichtigt): Was versteht man unter PCM, DPCM, DM, ADPCM? Skizze! Was versteht man unter PCM

Mehr

Kompressionsverfahren

Kompressionsverfahren Kompressionsverfahren Quelle: Steinmetz, Ralf: Multimedia-Technologie: Einführung und Grundlagen, Springer, Verlag Adaptive Huffman - Kodierung Nach 17 Zeichen: A(1),B(2),C(2),D(2),E(10) Kodierung A: 000

Mehr

Diskrete Cosinustransformation (DCT)

Diskrete Cosinustransformation (DCT) Fachbereich Medieninformatik Hochschule Harz Diskrete Cosinustransformation (DCT) Referat Björn Wöldecke 10954 Abgabe: 15.01.2007 Inhaltsverzeichnis Einleitung / Vorwort... 1. Methoden zur Datenreduktion...

Mehr

Kompressionsverfahren

Kompressionsverfahren Kompressionsverfahren Quelle: Steinmetz, Ralf: Multimedia-Technologie: Einführung und Grundlagen, Springer, Verlag Verlustlose Kompressionsalgorithmen RLC Huffman Adaptive Huffman Kodierung Arithmetische

Mehr

Einführung Aufgabe 3 - MPEG. Tobias Reinsch 2011

Einführung Aufgabe 3 - MPEG. Tobias Reinsch 2011 Einführung Aufgabe 3 - MPEG Tobias Reinsch 2011 Allgemeines Aufgabe 3 - MPEG Ziel der Aufgabe Kennenlernen der Bildkodierungsverfahren des MPEG Standards Praktische Umsetzung dieser Techniken mit Java

Mehr

Digitales Video. Digitales Video

Digitales Video. Digitales Video Digitales Video Analoges Signal ist durch Bildwandlung weitgehend quantisiert Zeitlich in Einzelbilder und räumlich in Zeilen Beim Einsatz eines CCD-Bildwandlers werden Bildpunkte gebildet Videosignal

Mehr

Digitalisierung. analoges Signal PAM. Quantisierung

Digitalisierung. analoges Signal PAM. Quantisierung Digitalisierung U analoges Signal t U PAM t U Quantisierung t Datenreduktion Redundanzreduktion (verlustfrei): mehrfach vorhandene Informationen werden nur einmal übertragen, das Signal ist ohne Verluste

Mehr

JPEG - Kompression. Steffen Grunwald, Christiane Schmidt, Stephan Weck TIT01EGR BA-Mannheim 21. Mai 2002

JPEG - Kompression. Steffen Grunwald, Christiane Schmidt, Stephan Weck TIT01EGR BA-Mannheim 21. Mai 2002 JPEG - Kompression Steffen Grunwald, Christiane Schmidt, Stephan Weck TIT01EGR BA-Mannheim 21. Mai 2002 Inhaltsverzeichnis 1 Entwicklung von JPEG 2 1.1 Was heisst und was ist JPEG?................... 2

Mehr

Datenkompression. 1 Allgemeines. 2 Verlustlose Kompression. Holger Rauhut

Datenkompression. 1 Allgemeines. 2 Verlustlose Kompression. Holger Rauhut Datenkompression Holger Rauhut 1. September 2010 Skript für die Schülerwoche 2010, 8.-11.9.2010 Hausdorff Center for Mathematics, Bonn 1 Allgemeines Datenkompression hat zum Ziel, Daten in digitaler Form,

Mehr

DIGITALE VIDEO KOMPRESSION AM BEISPIEL DES JPEG-VERFAHRENS

DIGITALE VIDEO KOMPRESSION AM BEISPIEL DES JPEG-VERFAHRENS 1 DIGITALE VIDEO KOMPRESSION AM BEISPIEL DES JPEG-VERFAHRENS Um das digitale Schneiden von digitalisierten Bildern zu ermöglichen, ist es notwendig, die drastisch hohe Datenmenge, die für jedes Bild gespeichert

Mehr

Hauptdiplomklausur Informatik Februar 2006: Multimedia Systems

Hauptdiplomklausur Informatik Februar 2006: Multimedia Systems Universität Mannheim Fakultät für Mathematik und Informatik Lehrstuhl für Praktische Informatik IV Prof. Dr.-Ing. W. Effelsberg Hauptdiplomklausur Informatik Februar 2006: Multimedia Systems Name: Matrikel-Nr.:

Mehr

Proseminar Datenkomprimierung Dr. U. Tamm. JPEG - Kompression WS 2002/03. Torsten Zichner

Proseminar Datenkomprimierung Dr. U. Tamm. JPEG - Kompression WS 2002/03. Torsten Zichner Proseminar Datenkomprimierung Dr. U. Tamm JPEG - Kompression WS 2002/03 Torsten Zichner Inhaltsangabe: 1. Einleitung 2. JPEG Kompression 2.1. Konvertierung des Bildes in ein geeignetes Farbmodell 2.2.

Mehr

J.P.E.G. Standard. J.P.E.G. Eigenschaften. J.P.E.G. System. JPEG Verschlüsselungsschritte. Farbmodell

J.P.E.G. Standard. J.P.E.G. Eigenschaften. J.P.E.G. System. JPEG Verschlüsselungsschritte. Farbmodell Inhaltsbasierte Bildsuche J.P.E.G = Joint Photographic Expert Group Informatica Feminale Universität Bremen, Aug. 2005 Maja Temerinac Albert-Ludwigs-Universität Freiburg J.P.E.G. Standard Standard zur

Mehr

Vorkurs Informatik WiSe 16/17

Vorkurs Informatik WiSe 16/17 Konzepte der Informatik Dr. Werner Struckmann / Stephan Mielke, Jakob Garbe, 14.10.2016 Technische Universität Braunschweig, IPS Inhaltsverzeichnis Bildcodierung Huffman scher Algorithmus Verlustbehaftete

Mehr

Digitales Video I. Wie wird Video am Computer codiert? Bilder. Bewegte Bilder. Ton. Videoformate. Auflösung Speicherung am Computer

Digitales Video I. Wie wird Video am Computer codiert? Bilder. Bewegte Bilder. Ton. Videoformate. Auflösung Speicherung am Computer Digitales Video I Wie wird Video am Computer codiert? Bilder Auflösung Speicherung am Computer Bewegte Bilder Interlacing Kompression / Codec Ton Audioformate / Codecs Videoformate Bilder Auflösung: z.b.:

Mehr

Bildkompression InTh, 2005, JPEG, Hak, Rur, 1

Bildkompression InTh, 2005, JPEG, Hak, Rur, 1 Bildkompression InTh, 25, JPEG, Hak, Rur, 1 Referenzen [1] D Salomon, Data Compression, Springer, 24 [2] Prof Dr A Steffen, Kurs SU, ZHW, 1999-24 [3] G Wallace, The JPEG Still Picture Compression Standard,

Mehr

JPEG Kompression technische Realisierung

JPEG Kompression technische Realisierung Experimentalphysik V 20. Januar 2005 Schema der JPEG Kompression Farbraumkonvertierung RGB YCbCr Subsampling der Farbkomponenten Cb, Cr Zerlegung in Blöcke 8 8 2D Kosinustransformation (DCT) Quantisierung

Mehr

Verlustbehaftete Kompression. JPEG: Joint Photographic Experts Group

Verlustbehaftete Kompression. JPEG: Joint Photographic Experts Group Verlustbehaftete Kompression JPEG: Joint Photographic Experts Group ITU T8.1 definiert Zusammenarbeit von ITU, IEC, ISO Verfahren zur verlustbehafteten Bildkodierung (auch Verlustloser Modus vorhanden)

Mehr

Video. Grundlagen Videokompression

Video. Grundlagen Videokompression Video Grundlagen Videokompression Videokompression: Motion Compensation Video 1. Grundlagen der Videokompression Damit im Film Bewegung flüssig dargestellt werden kann, benötigt man ca. 15-25 Bilder pro

Mehr

Kodierung. Kodierung von Zeichen mit dem ASCII-Code

Kodierung. Kodierung von Zeichen mit dem ASCII-Code Kodierung Kodierung von Zeichen mit dem ASCII-Code Weiterführende Aspekte zur Kodierung: Speicherplatzsparende Codes Fehlererkennende und -korrigierende Codes Verschlüsselnde Codes Spezielle Codes, Beispiel

Mehr

JPEG, MPEG & Co. - Alex Titze. JPEG, MPEG & Co. Alex Titze Referat WS 2004 Konzepte Interaktiver Medien FHTW Berlin.

JPEG, MPEG & Co. - Alex Titze. JPEG, MPEG & Co. Alex Titze Referat WS 2004 Konzepte Interaktiver Medien FHTW Berlin. JPEG, MPEG & Co. Alex Titze 76900504811 Referat WS 2004 Konzepte Interaktiver Medien FHTW Berlin Seite 1 von 12 Inhaltsverzeichnis 1 Einleitung (Abstract) 3 1.1 Deutsch 3 1.2 English 3 2 JPEG 4 2.1 Geschichte

Mehr

Lossy Bildkompression: Techniken und Bildqualität

Lossy Bildkompression: Techniken und Bildqualität Lossy Bildkompression: Techniken und Bildqualität Brigitte Forster Zentrum Mathematik, Technische Universität München, und Institut für Biomathematik und Biometrie, Helmholtz-Zentrum München Konsensuskonferenz:

Mehr

Analyse und Vergleich aktueller Videokompressionsverfahren

Analyse und Vergleich aktueller Videokompressionsverfahren Analyse und Vergleich aktueller Videokompressionsverfahren 29.05.2008 Inhalt 1 Grundlagen der Videocodierung Frame-Typen & Farbraum Diskrete Konsinustransformation & Quantisierung MPEG Encoder 2 MPEG4

Mehr

JPEG. Seminar: Kompressionsalgorithmen. Ruslan Ragimov. 5. September 2012

JPEG. Seminar: Kompressionsalgorithmen. Ruslan Ragimov. 5. September 2012 JPEG Seminar: Kompressionsalgorithmen Ruslan Ragimov 5. September 2012 Zusammenfassung Die allgemeinen verlustfreien Verfahren zur Datenkompression können gute Kompressionsraten für verschiedene Dateitypen

Mehr

Hauptseminar: Digitale Medien und Übertragungstechnik. Videokomprimierung. Teil I. Vortrag: Philipp Correll Betreuer: Deti Fliegl

Hauptseminar: Digitale Medien und Übertragungstechnik. Videokomprimierung. Teil I. Vortrag: Philipp Correll Betreuer: Deti Fliegl Hauptseminar: Digitale Medien und Übertragungstechnik Videokomprimierung Teil I Vortrag: Philipp Correll Betreuer: Deti Fliegl Übersicht 1. Grundlagen Standards (PAL, NTSC) 2. Motivation Sehr große Datenmengen

Mehr

Multimediatechnik / Video

Multimediatechnik / Video Multimediatechnik / Video Codierung, Datenreduktion Quantisierung, Lauflängencodierung DCT, JPEG http://www.nanocosmos.de/lietz/mtv Inhalt Codierung digitaler Signale Datenreduktion (Kompression) Verlustfrei

Mehr

Digitales Video I Wie wird Video am Computer codiert?

Digitales Video I Wie wird Video am Computer codiert? Digitales Video I Wie wird Video am Computer codiert? Bilder Auflösung Speicherung am Computer Bewegte Bilder Interlacing Kompression / Codec Ton Audioformate / Codecs Videoformate Bilder Auflösung: z.b.:

Mehr

7. Bewegtbilder. 7.1! Bewegungswahrnehmung! 7.2! Videokompression!!!! insbesondere MPEG-1 und MPEG-2! 7.3! Videodatenformate. Literatur:!

7. Bewegtbilder. 7.1! Bewegungswahrnehmung! 7.2! Videokompression!!!! insbesondere MPEG-1 und MPEG-2! 7.3! Videodatenformate. Literatur:! 7. Bewegtbilder 7.1! Bewegungswahrnehmung! 7.2! Videokompression!!!! insbesondere MPEG-1 und MPEG-2! 7.3! Videodatenformate Literatur:! Arne Heyna/Marc Briede/Ulrich Schmidt: Datenformate im Medienbereich,

Mehr

MPEG Audio Layer 1. Fachbereich Medieninformatik. Hochschule Harz. Referat. Kolja Schoon. Thema: MPEG Audio Layer 1

MPEG Audio Layer 1. Fachbereich Medieninformatik. Hochschule Harz. Referat. Kolja Schoon. Thema: MPEG Audio Layer 1 Fachbereich Medieninformatik Hochschule Harz MPEG Audio Layer 1 Referat Kolja Schoon 10952 Abgabe: 15.01.2007 Stand: (Januar 2007) Autor: Kolja Schoon Seite 1 Inhaltsverzeichnis 1. Einleitung / Vorwort...3

Mehr

Bildkompression Proseminar Datenkompression Daniel Koch

Bildkompression Proseminar Datenkompression Daniel Koch Bildkompression Proseminar Datenkompression Daniel Koch 0 Inhalt INHALT...1 VERLUSTFREIE KOMPRESSIONSVERFAHREN...2 VERLUSTBEHAFTETE KOMPRESSIONSVERFAHREN...3 YUV-FARBREDUKTION...3 QUANTISIERUNG...3 JPEG...4

Mehr

MPEG Video Layer 1. Fachbereich Medieninformatik. Hochschule Harz. Referat. Kolja Schoon. Thema: MPEG Video Layer 1

MPEG Video Layer 1. Fachbereich Medieninformatik. Hochschule Harz. Referat. Kolja Schoon. Thema: MPEG Video Layer 1 Fachbereich Medieninformatik Hochschule Harz MPEG Video Layer 1 Referat Kolja Schoon 10952 Abgabe: 15.01.2007 Stand: (Januar 2007) Autor: Kolja Schoon Seite 1 Inhaltsverzeichnis 1. Einleitung / Vorwort...3

Mehr

Audio- und Videodatenströme im Internet

Audio- und Videodatenströme im Internet Audio- und Videodatenströme im Internet Jürgen Quittek Institut für Informatik Freie Universität Berlin C&C Research Laboratories NEC Europe Ltd., Berlin Vorlesung Rechnernetze Institut für Informatik

Mehr

Algorithmus zur komprimierten Übertragung von Textdaten an mobile Endgeräte

Algorithmus zur komprimierten Übertragung von Textdaten an mobile Endgeräte Fachhochschule Wedel Seminararbeit Algorithmus zur komprimierten Übertragung von Textdaten an mobile Endgeräte Sven Reinck 7. Januar 2007 Inhaltsverzeichnis Inhaltsverzeichnis Motivation 2 Wörterbuch 2.

Mehr

Konzepte der Informatik

Konzepte der Informatik Konzepte der Informatik Vorkurs Informatik zum WS 2011/2012 26.09. - 30.09.2011 17.10. - 21.10.2011 Dr. Werner Struckmann / Christoph Peltz Stark angelehnt an Kapitel 5 aus "Abenteuer Informatik" von Jens

Mehr

Arne Heyna/Marc Briede/Ulrich Schmidt: Datenformate im Medienbereich, Fachbuchverlag Leipzig 2003. John Watkinson: The MPEG Handbook, Focal Press 2001

Arne Heyna/Marc Briede/Ulrich Schmidt: Datenformate im Medienbereich, Fachbuchverlag Leipzig 2003. John Watkinson: The MPEG Handbook, Focal Press 2001 7. Bewegtbilder 7.1! Bewegungswahrnehmung 7.2! Videokompression!!! insbesondere MPEG-1 und MPEG-2 7.3! Videodatenformate Literatur: Arne Heyna/Marc Briede/Ulrich Schmidt: Datenformate im Medienbereich,

Mehr

Gierige Algorithmen Interval Scheduling

Gierige Algorithmen Interval Scheduling Gierige Algorithmen Interval Scheduling IntervalScheduling(s,f). n length[s] 2. A {} 3. j 4. for i 2 to n do 5. if s[i] f[j] then 6. A A {i} 7. j i 8. return A Gierige Algorithmen Interval Scheduling Beweisidee:

Mehr

GMM. Grundlagen Multimedia.

GMM. Grundlagen Multimedia. GMM Grundlagen Multimedia http://www.mherzog.com Michael.Herzog@HTW-Berlin.de Jens.Reinhardt@HTW-Berlin.de Courtesy: Dennis Liu, NYC Inhalt der Lehrveranstaltung Vorlesungen - Grundlegende Technologien

Mehr

Arbeiten im Datennetz der Universität Regensburg

Arbeiten im Datennetz der Universität Regensburg Wiwi-Workshop Uni Regensburg August 2002 Arbeiten im Datennetz der Universität Regensburg - Das Komprimierungsprogramm Winzip - Dr. Wirtschaftswissenschaftliche Fakultät Gliederung Das Komprimierungsprogramm

Mehr

ffl Die Portable Bitmap Utilities (PBM) manipulieren monochrome Bilder. ffl Die Portable Greymap Utilities (PGM) manipulieren Grauwert-Bilder.

ffl Die Portable Bitmap Utilities (PBM) manipulieren monochrome Bilder. ffl Die Portable Greymap Utilities (PGM) manipulieren Grauwert-Bilder. Kapitel 9 Pixeldateiformate Es gibt diverse Formate, in denen die generierten Grafiken abgespeichert werden können Stellvertretend soll hier nur auf 2 Formate eingegangen werden; eines, bei dem die Pixel

Mehr

Datenkompression. Kommunikationstechnik, SS 08, Prof. Dr. Stefan Brunthaler 167

Datenkompression. Kommunikationstechnik, SS 08, Prof. Dr. Stefan Brunthaler 167 Datenkompression Kommunikationstechnik, SS 08, Prof. Dr. Stefan Brunthaler 167 Datenkompression I Wie der Hofmathematikus herausgefunden hatte, läßt sich eine Kodierung durch Wahl einer variablen Wortlänge

Mehr

HTBL Steyr Bildkomprimierung Seite 1 von 9. Ernst Geretschläger

HTBL Steyr Bildkomprimierung Seite 1 von 9. Ernst Geretschläger HTBL Steyr Bildkomprimierung Seite von Ernst Geretschläger ernst.geretschlaeger@htl-steyr.ac.at Bildkomprimierung Mathematische / Fachliche Inhalte in Stichworten: Matrizenrechnung, diskrete Kosinustranformation

Mehr

Einführung in Kompressionstechniken

Einführung in Kompressionstechniken Einführung in Kompressionstechniken W. Kowarschick 7. Februar 997. November 9 W. Kowarschick Motivation Dateigrößen Text Vektorgraphiken Rasterbilder Tomographien Telephon CD-Stereo Bildfolgen VD7 VD7

Mehr

Design, Entwicklung und Evaluation eines Low Motion Videocodecs

Design, Entwicklung und Evaluation eines Low Motion Videocodecs Design, Entwicklung und eines Low Motion Videocodecs Betreuer: Zefir Kurtisi Seminarvortrag zur Studienarbeit Institut für Betriebssysteme und Rechnerverbund Technische Universität Braunschweig Motivation

Mehr

Lossless Codecs. Fachbereich Medieninformatik. Hochschule Harz. Referat. Christian Menschel. Thema: Lossless Codecs

Lossless Codecs. Fachbereich Medieninformatik. Hochschule Harz. Referat. Christian Menschel. Thema: Lossless Codecs Fachbereich Medieninformatik Hochschule Harz Lossless Codecs Referat Christian Menschel 11487 Abgabe: 15.01.2007 Inhaltsverzeichnis Abkürzungen...I 1 Einleitung...1 2 Entropiekodierung...2 3 MPEG - 4 Audio

Mehr

Videokonferenzen & multimediale Kommunikation

Videokonferenzen & multimediale Kommunikation Videokonferenzen & multimediale Kommunikation Falko Dreßler, Regionales Rechenzentrum falko.dressler@rrze.uni-erlangen.de 1 Überblick Einteilung Videokommunikation Meeting vs. Broadcast Transportnetze

Mehr

Huffman-Kodierung. Fachbereich Medieninformatik. Hochschule Harz. Huffman-Kodierung. Referat. Henner Wöhler. Abgabe:

Huffman-Kodierung. Fachbereich Medieninformatik. Hochschule Harz. Huffman-Kodierung. Referat. Henner Wöhler. Abgabe: Fachbereich Medieninformatik Hochschule Harz Huffman-Kodierung Referat Henner Wöhler 11459 Abgabe: 15.01.2007 Inhaltsverzeichnis Einleitung...I 1. Entropiekodierung...1 1.1 Morse Code...2 1.2 Shannon-Fano-Kodierung...3

Mehr

Dynamisches Huffman-Verfahren

Dynamisches Huffman-Verfahren Dynamisches Huffman-Verfahren - Adaptive Huffman Coding - von Michael Brückner 1. Einleitung 2. Der Huffman-Algorithmus 3. Übergang zu einem dynamischen Verfahren 4. Der FGK-Algorithmus 5. Überblick über

Mehr

Abbildtreue und Kompression gescannter Dokumente bei PDF/A

Abbildtreue und Kompression gescannter Dokumente bei PDF/A Abbildtreue und Kompression gescannter Dokumente bei PDF/A Empfehlungen geeigneter Einstellungen Datum: 29.11.2013 Autor: Axel Rehse Thomas Zellmann LuraTech Imaging GmbH LuraTech Europe GmbH Inhalt Einleitung...

Mehr

Informatik der digitalen Medien

Informatik der digitalen Medien Informatik der digitalen Medien Ergänzungs-Studienangebot der Mediendidaktik für Lehramtstudenten Dr. Harald Sack Institut für Informatik FSU Jena Sommersemester 2007 http://www.informatik.uni-jena.de/~sack/ss07/infod.htm

Mehr

Der JPEG-Standard. Der JPEG-Standard. Der JPEG-Standard. Der JPEG-Standard. Lineare Quantisierung

Der JPEG-Standard. Der JPEG-Standard. Der JPEG-Standard. Der JPEG-Standard. Lineare Quantisierung 09.05.006 8x8 DCT Berechnungsvorschrift (horiz. Frequenz) k D DCTKoeffizienten X [l, k ] = Ck Cl x[n, m] /, für i = 0 Ci = /, für i > 0 l=3 l= l=5 D DCT Basisfunktionen Normierungsfaktoren Direkte D 8-DCT

Mehr

Kompression und Datenformate. Grundlagen der Bildspeicherung, Kompressionsverfahren, Datenformate

Kompression und Datenformate. Grundlagen der Bildspeicherung, Kompressionsverfahren, Datenformate Kompression und Datenformate Grundlagen der Bildspeicherung, Kompressionsverfahren, Datenformate Digitale Speicherung von Bildern Digitalisierung Informationsgehalt Speicherbedarf Kompression von Multimediadaten

Mehr

Bilddatenformate BMP GIF JPG. Digitale Bildverarbeitung Liedtke 7.1. Bezeichnung: Microsoft Windows Bitmap, BMP, DIB

Bilddatenformate BMP GIF JPG. Digitale Bildverarbeitung Liedtke 7.1. Bezeichnung: Microsoft Windows Bitmap, BMP, DIB Bilddatenformate BMP Bezeichnung: Microsoft Windows Bitmap, BMP, DIB Format: Raster Farben: 1 Bit (s/w), 4 Bit (16 Farben), 8 Bit (256 Farben), 24 Bit (16,7 Mio. Farben) Kompression: Keine (meist) oder

Mehr

Run Length Coding und Variable Length Coding

Run Length Coding und Variable Length Coding Fachbereich Medieninformatik Hochschule Harz Run Length Coding und Variable Length Coding Referat Matthias Zittlau 11034 Abgabe: 15.01.2007 Inhaltsverzeichnis 1. RLC...1 2.1 Einführung...1 2.2 Prinzip...1

Mehr

Einleitung. Kapitel 1

Einleitung. Kapitel 1 Kapitel 1 Einleitung In diesem Abschnitt geben wir einen kurzen Überblick über den Inhalt der Vorlesung. Wir werden kurz die wesentlichen Probleme erläutern, die wir ansprechen wollen. Wir werden auch

Mehr

Einführung in die Informatik II Aus der Informationstheorie: Datenkompression

Einführung in die Informatik II Aus der Informationstheorie: Datenkompression Einführung in die Informatik II Aus der Informationstheorie: Datenkompression Prof. Bernd Brügge, Ph.D Institut für Informatik Technische Universität München Sommersemester 2 2. Juli 2 Copyright 2 Bernd

Mehr

Medien- Technik. Prinzip: Sequenz Digitaler Einzelbilder mit eingestreuten Ton-Samples

Medien- Technik. Prinzip: Sequenz Digitaler Einzelbilder mit eingestreuten Ton-Samples Digitales Video Prinzip: Sequenz Digitaler Einzelbilder mit eingestreuten Ton-Samples.MOV.MPG.AVI Überblick (digitale) Fernsehstandards USA Grand Alliance HDTV MPEG-2 Dolby AC-3 Europa European DVB Project

Mehr

Eine verlustbehaftete Komprimierung ist es, wenn wir einige Kleidungsstücke zu

Eine verlustbehaftete Komprimierung ist es, wenn wir einige Kleidungsstücke zu Komprimierungen In Netzwerken müssen viele Daten transportiert werden. Dies geht natürlich schneller, wenn die Datenmengen klein sind. Um dies erreichen zu können werden die Daten komprimiert. Das heisst,

Mehr

Molekulare Bioinformatik

Molekulare Bioinformatik Molekulare Bioinformatik Wintersemester 203/204 Prof. Thomas Martinetz Institut für Neuro- und Bioinformatik Universität zu Luebeck 07.0.204 Molekulare Bioinformatik - Vorlesung 0 Wiederhohlung Die Entropie

Mehr

Unterrichtsmaterialien in digitaler und in gedruckter Form. Auszug aus: Multimedia für Referate und Präsentationen

Unterrichtsmaterialien in digitaler und in gedruckter Form. Auszug aus: Multimedia für Referate und Präsentationen Unterrichtsmaterialien in digitaler und in gedruckter Form Auszug aus: Multimedia für Referate und Präsentationen Das komplette Material finden Sie hier: School-Scout.de Computergrafik Computergrafik umfasst

Mehr

EDV-Anwendungen im Archivwesen II

EDV-Anwendungen im Archivwesen II EDV-Anwendungen im Archivwesen II 070472 UE WS08/09 Grundlagen der Digitalisierung Überblick Allgemeine Grundlagen der Digitalisierung anhand der Ton-Digitalisierung Abtastrate (Samplerate) Wortlänge (Bitrate)

Mehr

Grafikformate. Grafikformate. Digitale Bildverarbeitung Bildkompression

Grafikformate. Grafikformate. Digitale Bildverarbeitung Bildkompression Digitale Bildverarbeitung Bildkompression Einleitung Datenmenge für ein unkomprimiertes Bild Verwendungszweck des Bildes Bild soll weiterverarbeitet werden Bild soll archiviert werden Bild soll per E-Mail

Mehr

Independent JPEG Group. JPEG Software Tools

Independent JPEG Group. JPEG Software Tools Independent JPEG Group JPEG Software Tools cjpeg Pixelmap Bildfileformat JPEG Bildfileformat jpegtran djpeg Beiträge zu: jpegtran: Verlustfreie Transformationsfunktionen (Rotation in 90 Grad Schritten,

Mehr

Datenkompression. Vortrag von Markus Durzinsky Student der Otto-von-Guericke-Universität Magdeburg

Datenkompression. Vortrag von Markus Durzinsky Student der Otto-von-Guericke-Universität Magdeburg Vortrag am 25. Januar 200 Werner von Siemens Gymnasium Magdeburg Zeitansatz: 5h (inklusive Programmieraufgaben) Datenkompression Vortrag von Markus Durzinsky Student der Otto-von-Guericke-Universität Magdeburg

Mehr

Standbildcodierung. Dipl.-Ing. Guido Heising. Digitale Videotechnik, SS 02, TFH Berlin, Dipl.-Ing. G. Heising G. Heising, K.

Standbildcodierung. Dipl.-Ing. Guido Heising. Digitale Videotechnik, SS 02, TFH Berlin, Dipl.-Ing. G. Heising G. Heising, K. Standbildcodierung Dipl.-Ing. Guido Heising Digitale Videotechnik, SS 02, TFH Berlin, Dipl.-Ing. G. Heising G. Heising, K. Barthel 1 Gliederung der Vorlesung Einführung in die Bildcodierung - verlustlose/verlustbehaftete

Mehr

Thema: JPEG / Motion JPEG. Fachbereich Medieninformatik. Hochschule Harz. JPEG / Motion JPEG. Referat. Autor: Andreas Janthur

Thema: JPEG / Motion JPEG. Fachbereich Medieninformatik. Hochschule Harz. JPEG / Motion JPEG. Referat. Autor: Andreas Janthur Fachbereich Medieninformatik Hochschule Harz JPEG / Motion JPEG Referat Andreas Janthur 9962 Abgabe: 15.01.2007 Seite: 1 Inhaltsverzeichnis Einleitung... I 1 JPG... 1 1.1 DC Transformation (discrete cosinus

Mehr

TV Sendungen auf DVD aufnehmen

TV Sendungen auf DVD aufnehmen 22.. April 2004 TV Sendungen auf DVD aufnehmen Retiree Teilthemen des Vortrags Grundlagen Hardware Software Aufzeichnung Bearbeitung Authoring und Brennen Labelling 2 TV Sendungen auf DVD aufnehmen 1 Teilthemen

Mehr

6. Komprimierung. (Text)komprimierung ist ein Wechsel der Repräsentation von Daten, so daß sie weniger

6. Komprimierung. (Text)komprimierung ist ein Wechsel der Repräsentation von Daten, so daß sie weniger Komprimierung 6. Komprimierung (Text)komprimierung ist ein Wechsel der Repräsentation von Daten, so daß sie weniger Platz brauchen Motivation: beschleunigt Plattenzugriffe oder Datenübertragungen Voraussetzung:

Mehr

Medien- Technik. Digitales Video. Prinzip: Sequenz Digitaler Einzelbilder mit eingestreuten Ton-Samples .MOV .MPG .AVI

Medien- Technik. Digitales Video. Prinzip: Sequenz Digitaler Einzelbilder mit eingestreuten Ton-Samples .MOV .MPG .AVI Digitales Video Prinzip: Sequenz Digitaler Einzelbilder mit eingestreuten Ton-Samples.MOV.AVI.MPG Überblick (digitale) Fernsehstandards USA Grand Alliance HDTV MPEG-2 Dolby AC-3 Europa European DVB Project

Mehr

DIGITALISIERUNG VON BILDERN. Ivana

DIGITALISIERUNG VON BILDERN. Ivana DIGITALISIERUNG VON BILDERN Ivana WAS IST DIGITALISIERUNG? Begriff aus dem Lateinischen Überprüfung analoger Größen diskrete Werte Produkt = Digitalisat Analoge Speicherung von Informationen auf digitalen

Mehr

Grafikformate: JPG - PNG

Grafikformate: JPG - PNG Grafikformate: JPG - PNG JPG JPG ist die Kurzform von JPEG (Joint Photographic Experts Group) Das Dateiformat nennt sich eigentlich JFIF (JPEG File Interchange Format) Spezifikation Bezeichnungen JPEG

Mehr

Von der Kamera zur DVD Klaus Wünschel LUG-LD

Von der Kamera zur DVD Klaus Wünschel LUG-LD Von der Kamera zur DVD Klaus Wünschel LUG-LD Inhalt Allgemeine Grundlagen Codecs / Container Vom Camcorder zum PC / Module - Devices Linuxsoftware zur Videomanipulation Vom PC zur DVD DVD-Authoring praktische

Mehr

Technische Informatik - Eine Einführung

Technische Informatik - Eine Einführung Martin-Luther-Universität Halle-Wittenberg Fachbereich Mathematik und Informatik Lehrstuhl für Technische Informatik Prof. P. Molitor Technische Informatik - Eine Einführung Darstellung von Zeichen und

Mehr

Panorama der Mathematik und Informatik

Panorama der Mathematik und Informatik Panorama der Mathematik und Informatik 18: Algorithmen III: png und Co Dirk Frettlöh Technische Fakultät / Richtig Einsteigen 11.6.2015 Kompressionsalgorithmen: Idee: Speichere 2 MB Daten in einer 1 MB

Mehr

Ludwig-Maximilians-Universität München Prof. Hußmann Digitale Medien 6-32

Ludwig-Maximilians-Universität München Prof. Hußmann Digitale Medien 6-32 6. Ton und Klang 6.1 Ton: Physikalische und physiologische Aspekte 6.2 Kompression von Audio-Signalen: MPEG-Audio 6.3 Audio-Datenformate: Übersicht 6.4 Klangerzeugung und MIDI Ludwig-Maximilians-Universität

Mehr

16 - Kompressionsverfahren für Texte

16 - Kompressionsverfahren für Texte 16 - Kompressionsverfahren für Texte Prof. Dr. S. Albers Kompressionsverfahren für Texte Verlustfreie Kompression Original kann perfekt rekonstruiert werden Beispiele: Huffman Code, Lauflängencodierung,

Mehr

Optimalcodierung. Thema: Optimalcodierung. Ziele

Optimalcodierung. Thema: Optimalcodierung. Ziele Optimalcodierung Ziele Diese rechnerischen und experimentellen Übungen dienen der Vertiefung der Kenntnisse im Bereich der Optimalcodierung, mit der die Zeichen diskreter Quellen codiert werden können.

Mehr

Die MPEG-Audiocodierverfahren

Die MPEG-Audiocodierverfahren Die MPEG-Audiocodierverfahren Johannes Hilpert Fraunhofer IIS, Erlangen http://www.iis.fraunhofer.de/amm 1 Themen Die MPEG-Audio Codierverfahren Wer oder was ist MPEG eigentlich? Von MPEG-1 bis MPEG-21

Mehr

Grundlagen der Informationstheorie. Hanna Rademaker und Fynn Feldpausch

Grundlagen der Informationstheorie. Hanna Rademaker und Fynn Feldpausch Grundlagen der Informationstheorie Hanna Rademaker und Fynn Feldpausch . Thema Informationstheorie geht zurück auf Claude Shannon The Mathematical Theory of Communication beschäftigt sich mit Information

Mehr

Graphische Datenverarbeitung

Graphische Datenverarbeitung Graphische Datenverarbeitung Bildkompression & Dateiformate Prof. Dr. Elke Hergenröther Gründe für eine Kompression Unkomprimierte Rasterbilder benötigen: viel Speicherplatz hohe Bandbreite zur Übertragung

Mehr

Kodierungsalgorithmen

Kodierungsalgorithmen Kodierungsalgorithmen Komprimierung Verschlüsselung Komprimierung Zielsetzung: Reduktion der Speicherkapazität Schnellere Übertragung Prinzipien: Wiederholungen in den Eingabedaten kompakter speichern

Mehr

Multimediale Werkzeuge, Audio: Formate, Tools. -Sound/Audio Objekte. Formate, Beispiele:

Multimediale Werkzeuge, Audio: Formate, Tools. -Sound/Audio Objekte. Formate, Beispiele: Multimediale Werkzeuge, Audio: Formate, Tools -Sound/Audio Objekte Formate, Beispiele: - Mp3 (Kurz für MPEG1/2 Layer 3) - PCM (z.b. Wave Datei), übliche Formate: CD: 44100 HZ Abtastrate, 16 Bits/Abtastwert.

Mehr

Ton II/ Animation I. Überblick: MPEG Audiokompression: mp3 Grundlagen Videokompression

Ton II/ Animation I. Überblick: MPEG Audiokompression: mp3 Grundlagen Videokompression Ton II/ Animation I Überblick: MPEG Audiokompression: mp3 Grundlagen Videokompression 1. Allgemeines zu MPEG MPEG (Moving Picture Experts Group) ist eine Arbeitsgruppe von ISO (International Standards

Mehr

Die Digitalisierung von Musik

Die Digitalisierung von Musik Die Digitalisierung von Musik 1 Analoges Speichern Speicherung von Musik auf einer LP Die Daten sind analog gespeichert Analysis 2 Digitale Datenerfassung 1.Sampling Das (akustische) elektrische Signal

Mehr

Diskrete Cosinus-Transformation (DCT)

Diskrete Cosinus-Transformation (DCT) Diskrete Cosinus-Transformation (DCT) Prinzip von DCT: (in einer oder zwei Dimensionen...) Menge von Datenpunkten f(x) bzw. f(x,y) (für x,y = 1, N) Forward DCT (FDCT) Inverse DCT (IDCT) Rekonstruktion

Mehr

Lineare Gleichungssysteme

Lineare Gleichungssysteme Poelchau-Oberschule Berlin A. Mentzendorff September 2007 Lineare Gleichungssysteme Inhaltsverzeichnis 1 Grundlagen 2 2 Das Lösungsverfahren von Gauß 4 3 Kurzschreibweise und Zeilensummenkontrolle 6 4

Mehr

Digitales Fernsehen DVB

Digitales Fernsehen DVB Digitales Fernsehen DVB Thomas Lauterbach DL1NAW 1. Video- und Audiokodierung (MPEG) 2. DVB 3. DVB-T in Nürnberg Quellen: U. Reimers, Digitale Fernsehtechnik http://www.dvb-t-baern.de Referate und Ausarbeitungen

Mehr

Basisinformationstechnologie II

Basisinformationstechnologie II Basisinformationstechnologie II Sommersemester 2015 13. Mai 2015 Algorithmen der Bildverarbeitung I: Kompression Universität zu Köln. Historisch-Kulturwissenschaftliche Informationsverarbeitung Dr. Jan

Mehr

Frame Frame Frame Frame CIF/QCIF GOB GOB... GOB. Macro Block. Motion Vector

Frame Frame Frame Frame CIF/QCIF GOB GOB... GOB. Macro Block. Motion Vector 2.3 H.261 (8) Datenstrom von H.261 Frame Frame Frame Frame... Start Code Time Ref CIF/QCIF GOB GOB... GOB GOB Start GOB Number Quantizer... MB Addr. Intra/ Inter Quant Motion Vector Coded s nach Handley

Mehr

5. Licht, Farbe und Bilder

5. Licht, Farbe und Bilder 5. Licht, Farbe und Bilder 5.1 Licht und Farbe: Physikalische und physiologische Aspekte 5.2 Farbmodelle 5.3 Raster-Bilddatenformate 5.4 Verlustbehaftete Kompression bei Bildern JPEG Weiterführende Literatur:

Mehr

Vorlesung Grundlagen Videotechnik Psycho-Optik. -Geschichte: verschiedene Abstraktionsstufen

Vorlesung Grundlagen Videotechnik Psycho-Optik. -Geschichte: verschiedene Abstraktionsstufen Vorlesung Grundlagen Videotechnik Psycho-Optik -Geschichte: verschiedene Abstraktionsstufen - Abbildung 3-D auf 2-D - erste Zeichnungen, Höhlenbilder - Zerlegung in Bildpunkte: Photozellen, parallele Übertragung

Mehr

Verlustbehaftete Kompression bei Multimedia

Verlustbehaftete Kompression bei Multimedia Modul 114 Codes, Kompressions- und Verschlüsselungsverfahren einsetzen Verlustbehaftete Kompression bei Multimedia V1.2 Technische Berufsschule Zürich IT Seite 1 Farbtheorie Anwendung: Bildschirm/Beamer

Mehr

2. Digitale Codierung und Übertragung

2. Digitale Codierung und Übertragung 2. Digitale Codierung und Übertragung 2.1 Informationstheoretische Grundlagen 2.2 Verlustfreie universelle Kompression 2.3 Digitalisierung, Digitale Medien Weiterführende Literatur zum Thema Informationstheorie:

Mehr

Farb-Fernsehsignal (Composite FBAS)

Farb-Fernsehsignal (Composite FBAS) Farb-Fernsehsignal (Composite FBAS) Quelle: Ze-Nian Li : Script Multimedia Systems, Simon Fraser University, Canada VIDEO- Digitalisierung Gemeinsame Kodierung FBAS Farbbild- Austast- und Synchronsignal

Mehr

Basisinformationstechnologie II

Basisinformationstechnologie II Basisinformationstechnologie II Sommersemester 2013 19. Juni 2013 Audio / Video: Kompressionsverfahren Universität zu Köln. Historisch-Kulturwissenschaftliche Informationsverarbeitung Jan G. Wieners //

Mehr

Mathematik für Information und Kommunikation

Mathematik für Information und Kommunikation Mathematik für Information und Kommunikation Am Beispiel des Huffman- Algorithmus Thomas Borys und (Christian Urff) Huffman im Alltag MPEG Telefax JPEG MP3 ZIP avid Huffman avid Huffman [95-999] www.soe.ucsc.edu/people/faculty/huffman.html

Mehr

Audio Codecs. Vortrag im Seminar. Digital Audio. Sebastian Kraatz. 15. Dezember 2004

Audio Codecs. Vortrag im Seminar. Digital Audio. Sebastian Kraatz. 15. Dezember 2004 Vortrag im Seminar Digital Audio 15. Dezember 2004 1 Motivation Unkomprimierte digitale Daten Was ist ein Codec? 2 Hörschwellenmaskierung Frequenzmaskierung Zeitmaskierung 3 Motivation Unkomprimierte digitale

Mehr

Arithmetisches Codieren

Arithmetisches Codieren Arithmetisches Codieren 1. Motivation: Als Alternative zum arithmetischen Codieren bot sich damals als effizientester Algorithmus das Huffmann-Coding an. Dieses jedoch hatte einen entscheidenden Nachteil:

Mehr