Digitales Video. Digitales Video

Ähnliche Dokumente
Digitalisierung. analoges Signal PAM. Quantisierung

, Franz J. Hauck, Verteilte Systeme, Univ. Ulm, [2006w-MMK-D-VoD.fm, ]

Rudolf Mäusl. Fernsehtechnik. Vom Studiosignal zum DVB-Sendesignal 4., erweiterte und überarbeitete Auflage. lhp Hüthig Verlag

Kompression. Kompression. Beseitigung der unnötigen Daten... Redundanz. Folie 2

Diskrete Cosinustransformation (DCT)

Nichtlineare Quantisierung

Bildkompression InTh, 2005, JPEG, Hak, Rur, 1

Standbildcodierung. Dipl.-Ing. Guido Heising. Digitale Videotechnik, SS 02, TFH Berlin, Dipl.-Ing. G. Heising G. Heising, K.

Digitales Video. digitale Übertragung weniger Störanfällig als analoge

Multimediatechnik / Video

Übung zur Vorlesung. Digitale Medien. Vorlesung: Heinrich Hußmann Übung: Renate Häuslschmid, Hanna Schneider

Verlustbehaftete Kompression. JPEG: Joint Photographic Experts Group

Image Compression. Kompression. Beseitigung der unnötigen Daten... Redundanz. Vorlesung FH-Hagenberg SEM. Backfrieder-Hagenberg. Backfrieder-Hagenberg

Digitale Medien. Übung zur Vorlesung. Vorlesung: Heinrich Hußmann Übung: Renate Häuslschmid

Image Compression. Vorlesung FH-Hagenberg DSB

Nichtlineare Quantisierung

Image Compression. Kompression. Beseitigung der unnötigen Daten... Redundanz. Vorlesung FH-Hagenberg SEM. Backfrieder-Hagenberg. Backfrieder-Hagenberg

Multimediatechnik / Video

Medien- Technik. Videotechnik

Kompressionsverfahren

JPEG, MPEG & Co. Alex Titze Angewandte Informatik FHTW-Berlin

Inhaltsverzeichnis. 1 Einführung 1

JPEG Kompression technische Realisierung

Bild-Erfassung Digitalisierung Abtastung/Quantisierung

Verlustbehaftete Kompression bei Multimedia

MPEG-1, MPEG-2 und MPEG-4. Projekt KlaVid

HD-Format Nettozeilen Bruttozeilen Nettopixel / Zeile Bruttopixel / Zeile 1080p/

Animation und Multimedia

MPEG Video Layer 1. Fachbereich Medieninformatik. Hochschule Harz. Referat. Kolja Schoon. Thema: MPEG Video Layer 1

1 Einführung. Bildformate Analyse der LSB-Ersetzung Weitere steganographische Algorithmen. Syndromkodierung in der Steganographie

Optimalcodierung. Thema: Optimalcodierung. Ziele

(Bitte geben Sie bei der Beantwortung von Fragen eine Begründung bzw. bei der Lösung von Kurzaufgaben eine kurze Berechnung an!)

Beispielhafte Testfragen (auch aus Schülerreferaten, Fragen können redundant sein, keine Audio Kompression berücksichtigt):

Puls-Code-Modulation. Thema: PCM. Ziele

Übungsaufgaben zur Vorlesung Quellencodierung

Abgabe Abgabe Abgabe Abgabe Bildbearbeitung PS Bildbearbeitung

Medien- Technik. Videotechnik

Hauptseminar: Digitale Medien und Übertragungstechnik. Videokomprimierung. Teil I. Vortrag: Philipp Correll Betreuer: Deti Fliegl

Vorkurs Informatik WiSe 16/17

Digitale Signalverarbeitung sehen, hören und verstehen

Signalverarbeitung für audiovisuelle Kommunikation

5 JPEG. 5.1 Bayer Filter. 5.2 Überblick. 5.3 Diskrete Cosinus-Transformation. 5.4 Bildmodell. 5.5 Codierung. 5.6 Übertragungsmodi

Adaptive Differenz-Puls-Code-Modulation (ADPCM) und Lineare, Prädiktive Codierung (LPC)

und mit t in Sekunden wird mit einer Frequenz von 8000 Hz abgetastet. Die Abtastung beginnt bei t=0 mit dem Zeitindex n=0.

Kommunikationsmodelle für verteilte Systeme

Alle Fragen nach der Häufigkeit und Kategorie geordnet:

Vorkurs Informatik WiSe 15/16

Zusammenfassung Graphik - Formate. Vektorgraphik - PS, EPS, WMF geometrische Figuren, exakte Berechnung auf beliebige Größe

Aufgabe 1 (20 Punkte)

Design, Entwicklung und Evaluation eines Low Motion Videocodecs

Multimedia Systeme. Dr. The Anh Vuong. http: Multimedia Systeme. Dr. The Anh Vuong

6 Vergleich und Bewertung der Optimierungs und Meßergebnisse

( ) ( ) Digitale Signalformen und Schnittstellen. Digitale SD-Signale

Kompressionsverfahren

Einführung Bitübertragungsschicht

Digital Signal Processing

Konzepte der Informatik

1.3 Digitale Audiosignale

EDV-Anwendungen im Archivwesen II

7. Grundlagen von Rasterdaten

Signalübertragung und -verarbeitung

Digitale Bilder. Dipl.-Ing. Guido Heising. Digitale Videotechnik, SS 02, TFH Berlin, Dipl.-Ing. G. Heising G. Heising, K.

Algorithmen und Datenstrukturen (für ET/IT)

Der JPEG-Standard. Der JPEG-Standard. Der JPEG-Standard. Der JPEG-Standard. Lineare Quantisierung

Bilddatenformate BMP GIF JPG. Digitale Bildverarbeitung Liedtke 7.1. Bezeichnung: Microsoft Windows Bitmap, BMP, DIB

- Sei r(x,y) Eingangsbild, dass nur Rauschen (Quantenrauschen) enthält.

2. Digitale Codierung und Übertragung

Arbeiten im Datennetz der Universität Regensburg

2.2 Kompressionsverfahren für Standbilder

2.2 Kompressionsverfahren für Standbilder

Digitales Fernsehen DVB

Kleine Formelsammlung zu Multimediakommunikation

Grundlagen von Rasterdaten

Grundlagen Videosignale. Prof. Dr. Ing. Marcus Purat

Verlustbehaftete Kompression. Verfahren zur verlustbehafteten Bildkodierung (auch verlustfreier Modus vorhanden)

Zusammenfassung Graphik - Formate. Vektorgraphik - PS, EPS, WMF geometrische Figuren, exakte Berechnung auf beliebige Größe

Adaptive Datenkompression Datenkompression II für Informatik-Student der Johann Wolfgang Goethe-Universität

2 Analoges Fernsehen. PAL (= Phase Alternating Line) SECAM (= Sequentielle a Memoire) NTSC (= North American Television System Committee)

Abschlussprüfung Digitale Signalverarbeitung. Aufgaben, die mit einem * gekennzeichnet sind, lassen sich unabhängig von anderen Teilaufgaben lösen.

Algorithmen und Datenstrukturen (für ET/IT)

Kompressionsverfahren für Texte

Grundlagen der Videotechnik, Farbe 2

Datenkompression. Theorie

ffl Die Portable Bitmap Utilities (PBM) manipulieren monochrome Bilder. ffl Die Portable Greymap Utilities (PGM) manipulieren Grauwert-Bilder.

Arne Heyna/Marc Briede/Ulrich Schmidt: Datenformate im Medienbereich, Fachbuchverlag Leipzig John Watkinson: The MPEG Handbook, Focal Press 2001

Schnelle Fouriertransformation (FFT)

DIGITALE VIDEO KOMPRESSION AM BEISPIEL DES JPEG-VERFAHRENS

MPEG. Ein Videokompressionsstandard

Arne Heyna/Marc Briede/Ulrich Schmidt: Datenformate im Medienbereich, Fachbuchverlag Leipzig John Watkinson: The MPEG Handbook, Focal Press 2001

Inhalte. Photogram. Aufnahmesysteme. HS BO Lab. für Photogrammetrie: Digitalisierung analoger Bilder 1

Statistische Kenngrößen. Histogramm. Grundlagen zur statistischen Signalverarbeitung. Statistische Beschreibung von Audio

'LJLWDOH%LOGHUXQG'DWHLIRUPDWH

Invertierung, Separierbarkeit

Nachrichtentechnik [NAT] Kapitel 1: Einführung. Dipl.-Ing. Udo Ahlvers HAW Hamburg, FB Medientechnik

Einführung Medienforscher Aufgabe 3 - MPEG. Tobias Reinsch 2011

Transkript:

Digitales Video

Analoges Signal ist durch Bildwandlung weitgehend quantisiert Zeitlich in Einzelbilder und räumlich in Zeilen Beim Einsatz eines CCD-Bildwandlers werden Bildpunkte gebildet Videosignal wird bei der Übertragung wieder in ein zeitkontinuierliches Signal überführt Videosignal muss digitalisiert (Filterung, Abtastung etc.) werden Bei 5 MHz Bandbreite ergibt sich eine Datenrate von 80Mbit/s (f A =10MHz, Quantisierung erfolgt mit 8 Bit, da menschliches Auge höchstens 200 Graustufen unterscheiden kann) Für die Übertragung wird eine Bandbreite von mindestens 40 MHz (NRZ (Non Return to Zero) - Kodierung) benötigt Digitale Videosignale beruhen auf den bekannten analogen Signalformen (FBAS bzw. RGB haben kaum Bedeutung, viel wichtiger ist das Digital Component Signal (Y, C R, C B ))

Bei der Digitalisierung des FBAS-Signals steigt die Datenrate erheblich über 80 Mbit/s Abtastfrequenz muss ein Vielfaches der Farbhilfsträgerfrequenz betragen f T = 4*f sc = 4 * 4,43 MHz = 17,72 MHz Abtastpunkte werden in Nulldurchgänge und Scheitelpunkte der Farbhilfsträgerschwingung gelegt Auch der Synchronimpuls und der Burst werden digitalisiert Aus jeder Zeile werden 1134 Abtastwerte gewonnen Digital Composite Signal ist für die Übertragung mit 8 oder 10 Bit definiert (177Mbit/s)

Quantisierungsstufen beim Digital Composite Signal Luminanzsignal Durch Einbeziehung des Synchronsignals erfolgt eine Dynamikeinschränkung! Als genereller Studiostandard schlecht geeignet

Digital Component Signal Aufteilung in die drei Komponenten für Helligkeit und Farbdifferenzen ermöglicht gegenüber FBAS-Signalen eine wesentlich bessere Signalverarbeitungs- und Übertragungsqualität. ITU-R BT.601 Um die Unterschiede zwischen den Systemen in den USA und Europa zumindest auf der digitalen Ebene möglichst gering zu halten, wurde die Abtastfrequenz für das Luminanzsignal mit 13,5 MHz festgelegt. Für die Farbdifferenzsignale wurde dieser Wert halbiert (6,75 MHz).

Spezifikationen bei ITU-R BT.601 Parameter Spezifikation System 525 Zeilen / 59,94 Hz 625 Zeilen / 50 Hz Abtastwert/Zeile Y 858 864 C R, C B 429 432 Bild-Abtastwert/Zeile Y 720 C R, C B 360 Abtastfrequenz Y 13,5 MHz C R, C B 6,75 MHz Quantisierung 8 / 10 Bit Nutzbare Stufenzahl Y 220 / 877 C R, C B 225 / 897

In allen Fernsehsystemen ist die aktive Zeile durch die horizontale Austastlücke begrenzt. Mit ITU-R 601 wurde für die europäische und US-Norm gleichermaßen festgelegt, dass die aktive Zeile 720 Luminanz-Abtastwerte enthält und je 360 für C R und C B. Aus 720 dividiert durch 13,5 MHz ergeben sich 53,33 µs, die digitale aktive Zeile ist somit länger als die analoge aktive Zeile, deren Dauer im 625- Zeilensystem 52 µs beträgt. Bei der Digitalisierung von analogen Material werden nur 702 Bildpunkte genutzt! Die restlichen 18 Bildpunkte fallen in die H-Austastlücke. Horizontal stehen pro Halbbild 288 aktive Zeilen zur Verfügung.

Abtast- und Quantisierungswerte nach ITU-R BT.601 Übersteuerungsreserve Untersteuerungsreserve

Um die digitalen Daten der Komponenten in einem Gesamtdatenstrom zu integrieren, werden sie wortweise im Zeitmultiplex in der Folge [C B Y 1 C R ] Y 2 [C B Y 3 C R ] Y 4 übertragen Der Datenstrom umfasst beim 625-System 1728 Abtastwerte pro Zeile

Vergleich der Abtaststrukturen

Synchronisationssignale und Zeitreferenz Nach ITU-R 601 wird das vollständige Komponentensignal einschließlich der Austastlücken abgetastet, allerdings wird der negativ gerichtete Synchronimpuls NICHT mit in die Quantisierung mit einbezogen, da andernfalls der SNR unnötig verschlechtert würde. Die Information, dass eine Zeile zu ende ist kann mit einem einzigen Bit codiert werden. Ein weiteres Bit ist erforderlich um horizontale und vertikale Synchronisationinformation zu unterscheiden. Diese beiden Bits sind besonders wichtig und werden deshalb fehlergeschützt und umgeben von besonders gut erkennbaren Bitkombinationen als Timing Referenz Signal (TRS) übertragen. Das TRS tritt pro Zeile zweimal auf. Am Anfang und am Ende der aktiven Zeile. Diese Zeitreferenzen werden als SAV (Start of Active Video) und EAV (End of Active Video) bezeichnet

Zusatzdatenbereiche in den Austastlücken

Video-Datenreduktion

Redundanzreduktion: Lauflängen-Codierung (Run-length Encoding (RLE)) : Muster-Vergleich (Pattern matching): Verwendung eines Code-Buches Statistische-Codierung: z.b. Huffman Codierung Irrelevanzreduktion: Reduktion der Quantisierungsstufen Downsampling: Farbdifferenzsignale benötigen nicht die Bandbreite wie Luminanzsignale Farbtabellen Differentielle Codierung Prädiktive Codierung

Vorliegen von Ähnlichkeiten im Bild selbst, bzw. zwischen Bildfolgen (örtliche bzw. zeitliche Korrelation) Änderung meist auf die Bewegung von Objekten zurückzuführen Große Flächen haben oft ähnliche Farb- und Grauwerte Mittlere Grauwerte sind häufiger zu finden als Schwarz und Weiß Räumliche Korrelation typischer Bilder Bewegungskompensation

Variable Lauflängencodierung Einige Werte treten häufiger auf als andere. Codewörter für häufig auftretende Werte werden möglichst kurz gehalten, selten auftretenden Werten werden längere Codewörter zugewiesen (vgl. Morsealphabet) Damit dieses Verfahren effizient arbeitet muss dafür gesorgt werden, dass die Unterschiede in den Auftrittswahrscheinlichkeiten möglichst groß werden, d.h., dass viele Werte möglichst häufig und nur wenige Werte selten auftreten. Anwendung der Huffman Codierung Weitere Steigerung der Effektivität durch Lauflängencodierung (Run Length Coding, RLC)

DPCM

Interframeprädiktion Bild N-1 Bild N Bild N+1

Diskrete Cosinustransformation (DCT) DCT-Blockbildung

Verteilung der Varianzen der Koeffizienten der DCT- Koeffizienten in einem 8x8 Block. Berechnet aus einer großen Anzahl von Bildblöcken.

Inverse Transformation jedes einzelnen Koeffizienten im DCT-Spektrum

Zick-Zack -weises Auslesen der quantisierten DCT-Koeffizienten aus einem 8x8 Block. Nur Koeffizienten, die ungleich Null sind werden codiert. Anwendung einer Lauflängencodierung Übertragung der Quantisierungsintervallgrößen, die für jeden Block adaptiert werden kann --> Kontrolle der Übertragungsrate

DCT-Rücktransformation

MPEG-Videocodierung MPEG- Videocodierung

MPEG-Videocodierung

MPEG-Videocodierung

MPEG-Videocodierung

MPEG-Videocodierung Quantisierungstabellen Divisor für jeden Koeffizienten eines 8x8-DCT-Blocks

MPEG-Videocodierung Zu codierender Frame N Frame N-1 wird zur Prädiktion des Inhalts von Frame N herangezogen. Die hier dargestellten Bewegungsvektoren gehören nicht zum Bild.

MPEG-Videocodierung Prädiktionsfehler, wenn Bewegungskompensation nicht angewendet wird. Prädiktionsfehler bei Anwendung der Bewegungskompensation.

MPEG-Videocodierung Demo nur mit INTRA-Frames Demo mit sich abwechselnden I/B- Frames

MPEG-Videocodierung Demo mit IBBPBB-Sequenz Demo mit IBBBPBBBPBBB-Sequenz

MPEG-Videocodierung Demo mit einem Intra- und 60 Predicted- Frames

MPEG-Videocodierung Blockschaltbild des MPEG-Video Encoders

MPEG-Videocodierung Blockschaltbild eines MPEG-Video-Decoders

MPEG-Videocodierung Group of Pictures

Profiles und Levels bei MPEG-2

MPEG-Videocodierung Skalierbare Codierung von Videosignalen