Kompressionsverfahren- JPEG 2000

Ähnliche Dokumente
JPEG - Kompression. Steffen Grunwald, Christiane Schmidt, Stephan Weck TIT01EGR BA-Mannheim 21. Mai 2002

Verlustbehaftete Kompression. JPEG: Joint Photographic Experts Group

Diskrete Cosinustransformation (DCT)

Multimediatechnik / Video

JPEG, MPEG & Co. Alex Titze Angewandte Informatik FHTW-Berlin

Bildkompression InTh, 2005, JPEG, Hak, Rur, 1

Datenkompression. 1 Allgemeines. 2 Verlustlose Kompression. Holger Rauhut

DIGITALISIERUNG VON BILDERN. Ivana

Lossy Bildkompression: Techniken und Bildqualität

Proseminar Datenkomprimierung Dr. U. Tamm. JPEG - Kompression WS 2002/03. Torsten Zichner

JPEG Kompression technische Realisierung

Grafikformate. Grafikformate. Digitale Bildverarbeitung Bildkompression

Digitale Bildverarbeitung (DBV)

Dynamisches Huffman-Verfahren

Basisinformationstechnologie II

DIGITALE VIDEO KOMPRESSION AM BEISPIEL DES JPEG-VERFAHRENS

10%, 7,57 kb 20%, 5,3 kb 30%, 4,33 kb 40%, 3,71 kb 50%, 3,34 kb. 60%, 2,97 kb 70%, 2,59 kb 80%, 2,15 kb 90%, 1,62 kb 99%, 1,09 kb

16 - Kompressionsverfahren für Texte

Digital Imaging Einführung

Eine verlustbehaftete Komprimierung ist es, wenn wir einige Kleidungsstücke zu

Digitales Video I. Wie wird Video am Computer codiert? Bilder. Bewegte Bilder. Ton. Videoformate. Auflösung Speicherung am Computer

Algorithmus zur komprimierten Übertragung von Textdaten an mobile Endgeräte

Grafikformate. Auflösung Farbtiefe Farbmodelle

Grafikformate: JPG - PNG

Bildformate und Langzeitarchivierung. Lisa Rau

Abbildtreue und Kompression gescannter Dokumente bei PDF/A

Einführung Aufgabe 3 - MPEG. Tobias Reinsch 2011

Bilddatenformate BMP GIF JPG. Digitale Bildverarbeitung Liedtke 7.1. Bezeichnung: Microsoft Windows Bitmap, BMP, DIB

ffl Die Portable Bitmap Utilities (PBM) manipulieren monochrome Bilder. ffl Die Portable Greymap Utilities (PGM) manipulieren Grauwert-Bilder.

Bildkompression Proseminar Datenkompression Daniel Koch

Protokoll. Messung des Visuellen Auflösungsvermögens durch Bestimmung der Modulationsübertragungsfunktion (MÜF) mit dem Campbell Muster

Bildbearbeitung: Grafikformate II und Farbmodelle

Kodierung und Komprimierung von Bilddaten

Bildschirmauflösungen im Vergleich (verkleinert!)

Kompression und Datenformate. Grundlagen der Bildspeicherung, Kompressionsverfahren, Datenformate

JPEG-Standbildcodierung

Arithmetisches Codieren

MPEG-1, MPEG-2 und MPEG-4. Projekt KlaVid

Datenbanken und Informationssysteme. Bildbearbeitung. DI (FH) Levent Öztürk

Thema: JPEG / Motion JPEG. Fachbereich Medieninformatik. Hochschule Harz. JPEG / Motion JPEG. Referat. Autor: Andreas Janthur

Optimalcodierung. Thema: Optimalcodierung. Ziele

Digitalisierung. analoges Signal PAM. Quantisierung

Malen nach Zahlen - Bilddarstellung

Objekterkennung durch Vergleich von Farben. Videoanalyse Dr. Stephan Kopf HWS2007 Kapitel 5: Objekterkennung

Multimediatechnik / Video

Digitale Bilder. Ein Referat von Jacqueline Schäfer und Lea Pohl Am

Kompressionsverfahren

Datenbanken und Informationssysteme. Bildbearbeitung. DI (FH) Levent Öztürk

Konzepte der Informatik

Kompakte Graphmodelle handgezeichneter Bilder. Einbeziehung in Autentizierung und Bilderkennung

Diskrete Cosinus-Transformation (DCT)

JPEG2000. Gereon Schüller. mit X= schuelle Y= cs.uni-bonn.de. 13. Dezember Seminar Datenkompression

Format Kompression Farbtiefe Speicherbedarf Eigenschaften bmp. Windows Bilder Bitmap. Bis 16,7 Mio Austauschformat zwischen Welten

Standbildcodierung. Dipl.-Ing. Guido Heising. Digitale Videotechnik, SS 02, TFH Berlin, Dipl.-Ing. G. Heising G. Heising, K.

Graphische Datenverarbeitung

Proseminar Datenkomprimierung Dr. U. Tamm. Bildkompression WS 2002/03. Florian Strunk

Quellencodierung NTM, 2006/05, 9.3 Quellencodierung, Rur, 1

WM01 - DEMO - ECDL Image Editing

Digitales Video I Wie wird Video am Computer codiert?

Fortgeschrittene Bildverarbeitung und Analyse

Datenkompression. Vortrag von Markus Durzinsky Student der Otto-von-Guericke-Universität Magdeburg

Digitale Bilddateien

Kompakte Graphmodelle handgezeichneter Bilder

Die Digitalisierung von Musik

Visuelle Wahrnehmung. DI (FH) Dr. Alexander Berzler

2 Darstellung von Zahlen und Zeichen

Einführung in die Informatik II Aus der Informationstheorie: Datenkompression

Zusatzaufgabe 3 für Informatiker

Hauptseminar: Digitale Medien und Übertragungstechnik. Videokomprimierung. Teil I. Vortrag: Philipp Correll Betreuer: Deti Fliegl

Kennen, können, beherrschen lernen was gebraucht wird

JPEG. Seminar: Kompressionsalgorithmen. Ruslan Ragimov. 5. September 2012

Farbe in der Computergraphik

Dateiformat für Doc-Safe. Anforderungen Vergleich von Standardformaten serverseitige Konvertierung Vorschau usw...

Qualitätskriterien digitaler Bilder im Langzeitarchiv! KOST Veranstaltung in Bern vom Dr. Peter Fornaro

Bilddatenkompression

LMU München LFE Medieninformatik Mensch-Maschine Interaktion (Prof. Dr. Florian Alt) SS2016. Mensch-Maschine-Interaktion

Proseminar. Thema: Shannon-Fano und Huffman Verfahren

Einführung in die Informatik I

Inhalte. Photogram. Aufnahmesysteme. HS BO Lab. für Photogrammetrie: Digitalisierung analoger Bilder 1

Butz, Krüger: Mensch-Maschine-Interaktion, Kapitel 2 - Wahrnehmung. Mensch-Maschine-Interaktion

6. Komprimierung. (Text)komprimierung ist ein Wechsel der Repräsentation von Daten, so daß sie weniger

Zahlensysteme: Oktal- und Hexadezimalsystem

Unterrichtsmaterialien in digitaler und in gedruckter Form. Auszug aus: Multimedia für Referate und Präsentationen

Beispielhafte Testfragen (auch aus Schülerreferaten, Fragen können redundant sein, keine Audio Kompression berücksichtigt):

Kodierung. Kodierung von Zeichen mit dem ASCII-Code

5. Licht, Farbe und Bilder

J.P.E.G. Standard. J.P.E.G. Eigenschaften. J.P.E.G. System. JPEG Verschlüsselungsschritte. Farbmodell

Komprimieren von Bildern

Transkript:

Kompressionsverfahren- JPEG 2000 eingereicht durch Jan-Hendrik Sondermann 20.03.2013

Inhaltsverzeichnis Inhaltsverzeichnis INHALTSVERZEICHNIS... 2 VORWORT... 3 1. EINLEITUNG... 4 1.1. DATENKOMPRESSION... 4 1.2. BILDKOMPRESSION... 4 1.3. VISUELLE WAHRNEHMUNG DES MENSCHEN... 5 1.3. ALLGEMEINES ÜBER JPEG 2000... 7 2. DAS KOMPRESSIONSVERFAHREN VON JPEG 2000... 8 2.1. FARBTRANSFORMATION... 8 2.2. TRANSFORMATION... 8 2.3. QUANTISIERUNG... 10 2.4. CODIERUNG... 11 Signifikanz-Phase... 11 Verfeinerungs-Phase... 11 Cleanup-Phase... 12 2.4.1. CODIERUNGSMETHODEN... 12 Huffmann-Codierung... 12 Lauflängencodierung... 13 Bit-Markierung... 13 3. KURZER VERGLEICH JPEG UND ZUSAMMENFASSUNG... 14 4. REFERENZEN... 16 2

Vorwort Vorwort Trotz erhöhter Speicherkapazitäten und Übertragungsraten von Computern und Servern ist es auch im 21. Jahrhundert noch wichtig Daten effizient und platzsparend zu verwalten. Besonders Grafiken, welche im Internet häufig zum Einsatz kommen, sollen bei guter Qualität nur wenige kbytes in Anspruch nehmen. Daher wurden verschiedene Kompressionstechniken und Formate entwickelt, die die Informationen eines Bildes gut zusammenfassen bzw. unwichtige löschen. Das bekannteste Format ist wohl JPEG. Es bedient sich einer verlustbehafteten Kompression, in der eine Reduktion der Bilddaten stattfindet. Zwar richtet sich ein Teil der Reduktion nach der visuellen Wahrnehmung des Menschen es werden Farben gelöscht, die der Mensch nicht sehen kann doch eine sehr starke Kompression führt zu einem starken erkennbaren Qualitätsverlust. So ist JPEG bekannt dafür Blockartefakte zu bilden. Um die Kompression des JPEGs zu verbessern wurde JPEG 2000 entwickelt. Dieses Format beherrscht nicht nur die verlustbehaftete Kompression, sondern verbindet sie mit der verlustlosen. Dadurch ist es möglich bei besserer Qualität mehr Speicherplatz einzusparen. Diese Seminararbeit soll zunächst die physiologischen Wahrnehmung des Menschen darlegen und anschließend in die Kompression von JPEG 2000 einführen. Aus Gründen des eingeschränkten Umfangs und des Verständnisses wurden kaum Algorithmen gegeben, sowie bestimmte Abläufe leicht verfälscht dargestellt. 3

1. Einleitung 1. Einleitung 1.1. Datenkompression Die Kompression versucht möglichst viel Speicherplatz einzusparen, indem Repräsentationen (Gemeinsamkeiten) in einer Datei bestimmt werden und danach in verkürzter Form dargestellt werden. Die Umkehr wird als Decodierung bezeichnet. Dabei wird zwischen verlustfreier und verlustbehafteter Kompression unterschieden. Es wird von verlustfreier Kompression gesprochen, wenn aus den codierten Daten nach der Decodierung exakt das Original wieder hervorgeht. Dagegen können bei einer verlustbehafteten Komprimierung die Dateien nicht verlustfrei wieder rekonstruiert werden. Es werden entbehrliche Informationen entfernt. Dabei richtet sich die Reduktion meist nach der physiologischen Wahrnehmung des Menschen. 1.2. Bildkompression Die Daten einen Bildes sind im groben durch Farbewerte (je eine Bit- Folge) der einzelnen Pixel definiert. Verlustfrei lassen sich diese komprimieren, indem gleiche Pixel welche nebeneinanderliegen zusammengefasst werden oder häufig auftauchende Werte durch möglichst kleine Bitfolgen beschrieben werden. Da das menschliche Auge geringe Farbunterschiede zwischen minimalen Pixeln nur kaum wahrnimmt, können Pixel mit ähnlichen Farbwerten auf einen Mittelwert zusammengefasst werden. Dafür rechnen Algorithmen Koeffizienten zwischen den einzelnen Pixeln aus, ist der Unterschied gering werden sie zusammengefasst. Desweiteren ist es möglich die Anzahl der Farben zu minimieren, wie bei GIF auf 256 Farben (8 Bit). 4

1. Einleitung Diese beiden Methoden führen jedoch meist zur Blockbildung und Qualitätsverlust. 1.3. Visuelle Wahrnehmung des Menschen Der Aufbau des Auges bestimmt in erster Linie die Wahrnehmung der Menschen. Durch die Pupille fällt das Licht auf die Netzhaut und die Energie wird in Nervenreize umgewandelt. Als Blende wirkt die Pupille mit einer Größe von 2-8 mm und das Auge kann sich somit an verschiedene Helligkeiten anpassen. Die durch Muskulatur verformbare Linse ermöglicht eine scharfe Abbildung auf der Netzhaut. An der Netzhaut befinden sich zwei verschiedene Rezeptortypen. Zapfen arbeiten nur am Tage und sind farb- und helligkeitsempfindlich. Ihre Anzahl beträgt um die 6 Millionen. Stäbchen, welche keine Farben unterscheiden können, sind sehr helligkeitsempfindlich und schon bei geringer Einstrahlung aktiv. Ihre Anzahl beläuft sich pro Auge auf rund 120 Millionen. Das wahrnehmbare Spektrum der Zapfen reicht von 780 nm bis 390 nm. Dabei werden sie in drei Arten unterteilt. Das Maximum an Empfindlichkeit von Typ A liegt bei Grün (530 nm), von Typ B bei Gelb (570), von Typ C bei Blau-Violett (445 nm). Ein einzelner Rezeptor für Rot liegt nicht vor. Für weitere Farben werden die Reize der Zapfentypen kombiniert. Das menschliche Auge ist in der Lage rund 500 Helligkeiten zu unterscheiden. Unter optimalen Bedingungen erhöht sich der Wert. Die Helligkeitsadaptation von Zapfen und Stäbchen bei der Dunkelheit verringert auf Grund einer Zusammenschaltung zu rezeptiven Feldern das Auflösungsvermögen. 5

1. Einleitung Bei ruhenden Bilder ist das Auflösungsvermögen des Menschen am größten. Hier ist besonders zu beachten, dass die Auflösung beim Farbsehen viel geringer ist, als das Sehen von Helligkeiten. Dies machen sich die meisten verlustbehafteten Kompressionsmethoden zu nutze. Farbkanten werden nur schlecht wahrgenommen, Helligkeitskanten verstärkt. Z.B. nimmt das menschliche Auge eine Grauwerttreppe nicht als einzelne Flächen wahr, sondern als eine Fläche, in welcher sich der Kontrast verstärkt. 20 Bilder pro Sek. reichen aus um die Bewegtbildauflösung des Menschen zu genügen. Jedoch darf es keine Dunkelpausen geben, denn diese werden als Flackern wahrgenommen. Ebenfalls nimmt der Mensch bei der Verarbeitung von Bildinformationen eher horizontale und vertikale Kontraste wahr, als schräge Strukturen. Besonders nutzen die Kompressionsverfahren auch aus, dass es eine Grenze der Sichtbarkeit von Kontrasten gibt, welche in Abhängigkeit zur Ortsfrequenz steht. Die Modulationsübertragungsfunktion. Gleichfalls wird in den Verfahren auch berücksichtigt, dass das Gehirn des Betrachters bestimmte Formen automatisch erkennt. Bei einer Bildverzerrung könnte eine Veränderung von erkannten Kreisen oder Kanten stark auffallen. Verzerrungen fallen dem Betrachter auch eher in glatten Bereichen auf, als in der Nähe von Kanten und Texten. Dieser Effekt wird örtliche Maskierung genannt. Der Effekt der zeitlichen Maskierung kann in der Videokompression verwendet werden. Nach einem Bildwechsel (Szene) muss sich das Auge erst wieder anpassen und 6

1. Einleitung Störungen sind 1/15 Sekunden nicht oder nur kaum zu erkennen. (vgl. Tony Smith, 1999 [1]) (vgl. Tilo Strutz, 2009 [1]) 1.3. Allgemeines über JPEG 2000 Das Grafikformat JPEG 2000 wurde wie JPEG von Joint Photographic Experts Group veröffentlicht. Im Gegensatz zum normalen JPEG unterstützt es verlustlose und verlustbehaftete Kompression. Auch lassen sich bessere Komprimierungsraten erreichen. Bisher ist das Format noch nicht weit verbreitet. Es findet eher in speziellen Branchen Anwendung. So wird es vor allem in der Medizintechnik verwendet. Auch die meisten Digitalkinos benutzen die Erweiterung Motion JPEG 2000. Interessant ist weiterhin auch, dass die Passbilder auf dem Deutschen Reisepass im JPEG 2000 Format gespeichert werden. Die ansonsten geringe Verbreitung erklärt sich dadurch, dass alle Erweiterungen, die über den normalen Standard hinausgehen, lizensiert sind. Auch die teure Hardware wie Decoder-Chips für Kameras behindert die Verbreitung. Der Basis-Standard JPEG 2000 wird durch zahlreiche Erweiterungen spezialisiert, u.a. das schon erwähnte Motion JPEG 2000 für Bewegtbilder. Besonders ist auch ein Format, welches verschiedene Verfahren kombiniert, also z.b. Dokumente mit Text und Bildern optimal komprimiert. (vgl. Books LCC, 2011) Vorteile o mehr Pixel möglich o Bildregionen können unterschiedlich stark komprimiert werden o 256 Farbkanäle o beliebige Metadaten o bessere Kompressionsrate bei besserer Qualität Nachteile o mehr Rechenaufwand o Erweiterungen lizensiert 7

2. Das Kompressionsverfahren von JPEG 2000 2. Das Kompressionsverfahren von JPEG 2000 2.1. Farbtransformation Die Farbraumtransformation kann auf Grund des beschränkten Maßes dieser Seminararbeit nicht erläutert werden. Im Wesentlichen handelt es sich um eine Transformation der Farben in einen bestimmten Farbraum (Beispiel YCgCo). 2.2. Transformation Der mathematische Begriff der Transformation bezeichnet einen Basiswechsel. Übersetzt bedeutet es, dass z.b. ein Bild aus einem anderen Blickwinkel betrachtet wird. Bei einer Transformation geht keine Information verloren, sondern wird nur anders dargestellt. Auch ist der Vorgang der Transformation meist reversibel. Die JGEG 2000 Kompression bedient sich der sogenannten Wavelet-Transformation. Der lizenzfreie Part des Formates lässt zwei Typen von Wavelets zu. Bei der verlustbehafteten Kompression wird meist eine biorthogonale Transformation genutzt, während das verlustlose Codieren eine andere Wavelet-Art benutzt. Der größte Unterschied besteht darin, dass die erste Variante nur mit Gleitkommawerten arbeiten, somit irreversibel ist. Bei der zweiten Transformation werden dagegen immer ganzzahlige Signalwerte auch ganzzahligen Detailkoeffizenten (Integer) zugeordnet. Sie gehört also zur Gruppe der reversiblen Transformationen. Wavelets (rechts) sind mathematische Funktionen, welche ein gegebenes Signal bezüglich seines Verlaufes untersuchen. Also bei einem Bild die Änderungen zum nächsten Pixelwert. Dafür werden die Funktionen gestreckt, gestaucht und verschoben. Als 8

2. Das Kompressionsverfahren von JPEG 2000 Ausgangspunkt wird dabei ein Basis Wavelet benutzt. Die Summe dieser Funktionen bildet das komplette Signal. Bei der JPEG 2000 Kompression werden zusätzlich Filter verwendet, die bestimmten Pixelwerte extrahieren. Dabei wird ausgenutzt, dass das Gehirn aufgenommene Bilder in mehreren Auflösungen verarbeitet. Als Erstes wird mit einer Skalierungsfunktion das Bild in verschiedene Auflösungen approximiert. Hierbei benutzt man einen Tiefpassfilter, der nur die wirklich tiefen Frequenzen erfasst. Gleichfalls einen Hochpassfilter für die hohen Frequenzen. Die, jeweils nicht erfassten Frequenzen, werden durch ein geeignetes Wavelet beschrieben. Nach der Filtrierung wird das Signal um den Faktor 2 dezimiert, also wird die Funktion dadurch gestreckt und geglättet, dass jeder 2. Wert entfernt wird. Diese beiden Vorgänge der Filtrierung und des Subsampling wird immer wieder wiederholt bis das Signal kleiner ist, als die Länge des Filters, also der Tiefpass genau mit dem mittleren Farbwert des Bildes übereinstimmt (siehe Bild links oben). Bis zu diesem Schritt geht keine Information verloren, es werden nur progressiv bestimmte Details (Auflösungen) der Grafik zerlegt. Durch Upsampling und Addition könnte das Signal (hier x[n]) wieder rekonstruiert werden. (vgl. Tinku Acharya, 2005)(vgl. Alexander Stoffel, 2012) (vgl. Tilo Strutz, 2009 [2]) 9

2. Das Kompressionsverfahren von JPEG 2000 2.3. Quantisierung Nachdem die Daten transformiert sind, werden die Koeffizienten quantisiert. Jedoch nur wenn es sich um eine verlustbehaftete Kompression handelt, ansonsten wird dieser Schritt übersprungen. Die Quantisierung erlaubt eine höhere Kompression, indem die gewonnenen Koeffizienten nur mit der zum Erreichen einer gewünschten Bildqualität nötigen minimalen Auflösung repräsentiert werden. Dieser Schritt prägt am meisten den Informationsverlust. Nach folgender Formel verarbeitet diese Stufe u.a. die Koeffizienten: b = 2 R b ε b (1 + µ b 2 11) Die Intervallbreite b des Teilbandes b ergibt sich aus, dem Dynamikbereich R b, dem Exponenten ε b und einer Mantisse µ b. Der Decoder fügt automatisch ε b und µ b nach bestimmten Regeln ein. R b gibt die Anzahl der maximalen Bits pro Koeffizienten an. Hier wird also die Auflösung an sich festgelegt, also kann die Anzahl der Farben verringert werden um Speicher einzusparen. Zusätzlich wird in dieser Phase mit anderen Algorithmen, die in Kapitel 1.3 erwähnten, nicht wahrnehmbaren Frequenzen entfernt. Wie auch ähnliche Koeffizienten, welche nebeneinander liegen, auf einen Mittelwert zusammengelegt werden. (vgl. Tilo Strutz, 2009 [3]) 10

2. Das Kompressionsverfahren von JPEG 2000 2.4. Codierung Bevor mit der eigentlichen Codierung begonnen wird, werden die quantisierten Teilbände in Code-Blöcke unterteilt. Nun werden die Koeffizienten anders als bei JPEG in die Bitebenen überführt. Zunächst erhält jeder Koeffizient den Status insignifikant, liegen Unterschiede zum vorherigen Koeffizienten vor wechselt er zu signifikant. Die rechte Abbildung stellt die Reihenfolge dar. Nachdem der Decoder alle Bitebenen abgefahren ist, werden die Koeffizienten jeweils in eine der drei Phasen unterschiedlich codiert: Signifikanz-Phase Die noch insignifikanten Koeffizienten (mind. 1 gleicher Nachbar), werden vor Eintritt in die Phase auf alle ihre direkten Nachbarn überprüft. Es wird die Anzahl aller signifikanten Nachbarn bestimmt. Ist der Wert gleich 0 (Kontext 0) wird der Koeffizient für die Cleanup- Phase aufgehoben. Haben die Koeffizienten signifikante (unterschiedliche) Nachbarn (Kontex 1+) werden sie direkt in dieser Phase codiert und wechselt danach zum Status signifikant. Verfeinerungs-Phase Für alle Koeffizienten denen schon früher der Status signifikant zugeordnet wurde, beschränkt sich die Kodierung auf die Verfeinerung der Werte. Es wird der Kontext für jeden Koeffizienten bestimmt. Gibt es insignifikante (gleiche) Nachbarn findet eine Codierung statt, sonst nicht bzgl. einer Zusammenfassung. 11

2. Das Kompressionsverfahren von JPEG 2000 Cleanup-Phase Die verbleibenden Koeffizienten, welche insignifikant sind, werden nun codiert. Wiederum muss der Status der Nachbarn ausgewertet werden, da in der Signifikanz-Phase neue signifikante Koeffizienten hinzugekommen sein könnten. Diese wären ja schon codiert, nähmen also schon Bits in Anspruch. Dürfen also nicht noch einmal codiert werden, was Platzverschwendung wäre. Schließlich werden auch diese Koeffizienten codiert, wobei vor allem eine Lauflängencodierung mit einer Bit-Markierung benutzt wird. Dass die Koeffizienten in verschiedenen Phasen codiert werden, hat damit zu tun, dass je nachdem wie viele gleiche Nachbarn der Koeffizient besitzt, bestimmte Codierungsmethoden vorteilhafter sind. (vgl. Tilo Strutz, 2009 [4]) 2.4.1. Codierungsmethoden Wie schon aufgezeigt kommen bei der Codierung zahlreiche Methoden zur Verwendung. Hier kurz die drei Wesentlichen: Huffmann-Codierung Eine auf Häufigkeiten basierte Kompressionsmethode ist die Huffmann Codierung. Als Erstes wird die Häufigkeit für jedes Symbol bzw. bei einem Bild jeden Pixel bestimmt, diese werden auf einen Binärbaum übertragen, angefangen bei der höchsten Anzahl. Somit wird z.b. der häufigsten Farbe die kleinste Bitfolge (2Bit) zugeordnet. Der Binärbaum rechts stellt anhand des Wortes Huffmann dar. 12

2. Das Kompressionsverfahren von JPEG 2000 Lauflängencodierung Wenn bei einem Signal häufig gleiche Symbole aufeinanderfolgen, können diese effizient durch eine Lauflängencodierung zusammengefasst werden. Bespiel sehr vereinfachtes Schwarz(00) - Weiß(01) Bild (eigentlich lohnt es sich auch erst ab mind. 4 Wiederholungen): Normal: 00 00 01 01 01 00 01 01 00 00 00 00 00 Codiert: 2*00 3*01 00 2*01 5*00 Bit-Markierung Tritt ein Zeichen sehr häufig auf, aber kein großes Wiederholen erkennbar ist, wäre eine Lauflängenkodierung weniger effizient. Hier hilft eine Liste der Position des Symbols zu erstellen und diese eigenständig zu übertragen. Im eigentlichen Signal kann dieses Symbol dann weggelassen werden. (vgl. Tilo Strutz, 2009 [5]) Beispiel: Nehme man ein Signal mit 20 Symbolen, die Hälfte Nullen. Es wird eine Liste erstellt, in der vermerkt wirkt wird, ob das nächste Zeichen ein Sonderzeichen (0) ist oder nicht. Die Liste würde also 20Bit in Anspruch nehmen, zugerechnet 10*3 Bits für die verbleibenden Symbole des Signals (ausgegangen 3 Bits = 1 Symbol). Insgesamt würde das Signal codiert durch 50 Bits beschrieben werden. Das originale Signal hätte 3*20 Bits, also 60 Bits verbraucht. Signal: 05065604040053040300 Liste: 01011101010011010100 13

3. Kurzer Vergleich JPEG und Zusammenfassung 3. Kurzer Vergleich JPEG und Zusammenfassung Folgende Bilder zeigen, dass JPEG (rechts) eine schlechtere Kompression als JPEG 2000 (links) bietet, bei gleichem Speicherverbrauch. Besonders bei sehr hoher Kompression liefert JPEG 2000 noch Bilder ohne wesentliche Veränderungen, wo JPEG Bilder schon gar nicht mehr zu erkennen wären. Auch bei der verlustlosen Kompression lässt sich bei gleicher Qualität mehr Platz einsparen als beim TIFF-Standard. Wer sich mit dem JPEG Kompressionsverfahren beschäftigt hat, wird erkannt haben, dass der größte Unterschied zu JPEG 2000 in der Transformation besteht. JPEG nutzt die DCT (Diskrete Cosinus Transformation). Ein großer Vorteil der Wavelet-Transformation ist, dass sie örtlich endliche Funktionen verwendet und keine örtlich unendlichen Cosinusfunktionen. Ebenfalls zerlegt die DCT das Bild in 8 x 8 Pixel große Blöcke, was u.a. zur starken Bildung von Artefakten führt. Die Wavelet- Transformation verhindert dies, indem das Bild progressiv aufgebaut wird. Desweiteren dürfen die vielen Extras beim JPEG 2000 Standard nicht vergessen werden, der insgesamt viel flexibler ist. Es dürfte 14

3. Kurzer Vergleich JPEG und Zusammenfassung also eigentlich einer Ausbreitung des Formates nichts im Wege stehen, so wird schon seit Jahren gelegentlich der große Durchbruch prophezeit. Ich sehe jedoch keine Chance durch die Lizenzen, dass JPEG 2000 ins Alltagsleben findet. Eher wird der Standard wohl in speziellen Branchen, wo eine hohe Kompression von Nöten ist, vermehrt zur Anwendung kommen. Jedoch wäre es sehr vorteilhaft, wenn ein ähnlicher lizenzfreier Standard entwickelt werden könnte, welcher mehr auf die Bedürfnisse des normalen Hobbyfotographen zugeschnitten wäre. 15

4. Referenzen 4. Referenzen Acharya, Tinku JPEG2000 Standard for Image Compression (2005), veröffentlicht von Wiley-Interscience (ISBN 978-0471484226) Books LLC Datenkompression, kein genauer Autor enthält Inhalte von Wikipedia erschienen im Verlag Books LLC (ISBN 978-1-158-79155-2) Smith, Tony (Dr.) Der menschliche Körper (1999), erschienen im Verlag Bechtermünz (ISBN 3-8289-1843-3) [1] Anatomie: Augen und Sehvermögen, S.90 Stoffel, Alexander Wavelets und Filterbänke (2012), Internetveröffentlichung der Fachhochschule Köln Strutz, Tilo Bilddatenkompression (2009), erschienen im Verlag Vieweg+Teubner (ISBN 978-3-8348-0472-3) [1] 8.1 Visuelle Wahrnehmung, S.173 [2] 9.4.1.1 Transformation, S. 240 [3] 9.4.1.2 Quantisierung, S. 241 [4] 9.4.1.3 Codierung, S. 242 [5] 5.5 Bit-Markierung, S. 89 16