Seminarausarbeitung Videokodierung MPEG 1,2 & 4

Größe: px
Ab Seite anzeigen:

Download "Seminarausarbeitung Videokodierung MPEG 1,2 & 4"

Transkript

1 Seminarausarbeitung Videokodierung MPEG 1,2 & 4 Seminararbeit im Seminar Neue Technologien im Internet und WWW Wintersemester 2003/04 Universität Jena vorgelegt von Alexander Endter Januar 2004

2 Abstract Fast jeder Mensch hat schon einmal bewusst oder unbewusst ein kodiertes Video genutzt. Dies kann durch das Anschauen einer DVD, Nutzung von Digitalfernsehen oder auch durch das Abhalten einer Videokonferenz über das Internet geschehen sein. Die vorliegende Arbeit soll den Vorgang der Videokodierung näher bringen, indem zuerst festgestellt wird, welche Anforderungen das menschliche Wahrnehmungssystem an eine solche Komprimierung stellt. Anschließend werden einzelne Grundwerkzeuge zur Anwendung an einem digitalen Video und zum Erreichen einer Komprimierung dieses digitalen Videos vorgestellt. Der Schwerpunkt der Arbeit soll auf der Anwendung dieser vorgestellten Werkzeuge in den MPEG-1, MPEG-2 und MPEG-4 Videokomprimierungsverfahren liegen. Anschließend wird auf eine mögliche MPEG-4 Erweiterung und auf sogenannte Containerdatenformate wie DIVX und Quicktime Movie eingegangen. 1

3 Inhaltsverzeichnis 1. Einleitung 2. Anforderungen an die digitales Video 2.1 Analoges Fernsehen Visuelle Wahrnehmung Farbräume Digitales Video 3.1 Subsampling Standards für digitales Video Komprimierungstechniken für digitales Video 4.1 Einfache Techniken Interpolative Verfahren Prädiktive Verfahren Transformations-Verfahren Statische Kodierung Bewegungsvorhersage Kontextfreie Prädiktion Modellbasierte Prädiktion Objekt- und regionenbasierte Prädiktion Bewegungskompensation MPEG Moving Pictures Expert Group 5.1 Ausblick auf die vorgestellten MPEG-Standards Anforderungen an den MPEG-Standard Schichten MPEG-Videostrom Der MPEG-1 Standard Ablauf der MPEG-1 Kodierung Konvertierung des Farbraumes Blockvergleich DCT-Transformation I-Frame (Intra Coded Picture) P-Frame (Predictive Coded Picture) B-Frame (Bidirectionally Predictive Coded Picture) D-Frame (DC Coded Picture) Quantisierung Lauflängenkodierung Huffmannkodierung Das MPEG-Datenformat Constraint Parameter Set Der MPEG-2 Standard MPEG-2 Profile MPEG-2 Schichten

4 MPEG-2 Level und -Profile MPEG-Datenströme Der MPEG-4 Standard Medienobjekte MPEG-4 Video-Level und -Profile MPEG-4 Übertragung im Netz (z.b. Internet) Der H.264/AVC Codec Containerdatenformate 6.1 Quicktime Movie AVI (Audio Video Interleaved) DIVX Real Video Zusammenfassung und Ausblick A. Glossar B. Wichtige Internetadressen C. Abkürzungen und Akronyme Literaturverzeichnis Index

5 1. Einleitung Man gehe davon aus, dass man in einer Zeit lebt, in der vorwiegend digitales Bild und digitaler Ton kodiert wird. Aber es soll sich etwas verändern: fortlaufende Bildsequenzen mit dazu synchronem Ton - kurz Video - sollen durch Kodierung interaktiv nutzbar gemacht werden. Die kodierten Bild- und Videodaten sollen einen schnellen Zugriff erlauben und über digitale Netze wie das Internet übertragen werden können. Dies erfordert eine durch die Kodierung erreichte Reduktion des Platzbedarfs der Videoquelle und dies möglichst nicht zu Lasten der Videoqualität. Um diese Interaktivität zu erreichen, müsste man also ein einheitliches Dateiformat einführen und neben der Bild- und Tonkomprimierung auch noch Möglichkeiten finden, um ein Video zu komprimieren. 2. Anforderungen an die digitales Video 2.1 Analoges Fernsehen Am Beispiel des analogen Fernsehens sollen nun vorerst die Anforderungen des Menschen an die digitale Videokomprimierung abgesteckt werden. Dazu betrachten wir die beiden Fernsehstandards PAL und NTSC, wobei der PAL-Standard in Europa und der NTSC-Standard in Amerika verwendet wird. Bei diesen Standards wird das Fernsehbild - für den Betrachter nicht bemerkbar - in einer verwobenen Darstellung aus zwei Halbbildern erzeugt. Es wird alle 20 ms ein gerade zeiliges- und ein ungerade zeiliges Halbbild gesendet, wobei für jedes Halbbild jede einzelne Zeile, Bildpunkt für Bildpunkt eingescannt und übertragen werden muss. Die Halbbilder setzen sich dann zu dem schon genannten verwobenen Bild (interlaced) zusammen (Abbildung 2.1). Halbbild ungerader Zeilen Halbbild gerader Zeilen Verwobenes Bild Abbildung 2.1: Halbbilder und verwobenes Bild bei PAL und NTSC 2.2 Visuelle Wahrnehmung Das Ganze hat einen einfachen Grund. Das menschliche Auge ist erst ab einer Bildwiederholungsrate von mindestens 16 Bildern pro Sekunde in der Lage, einen kontinuierlichen Strom von Bildern zu erkennen ([MS04] Digitale Videokodierung). Es entsteht also beim PAL-Standard eine Darstellungsfrequenz von zwei mal 25 Herz, ergeben 50 Herz und beim NTSC-Standard zwei mal 30 Herz, ergeben 60 Herz im verwobenem Bild. Dies reicht aus, um für das Auge des Nutzers, 4

6 dank der Trägheit der Netzhaut des Menschen, ein flüssiges Fernsehbild darzustellen. 2.3 Farbräume Ein weiteres visuell wahrnehmbares Medium ist die Farbe des Fernsehbildes, welche im PAL-Standard im YUV-Farbraum dargestellt wird. Der YUV-Farbraum besteht aus einer Helligkeitskomponente und zwei Farbkomponenten, wobei sich eine Farbkomponente auf die rot-cyan Balance und die andere auf die gelb-blau Balance bezieht. Die einzelnen Komponenten des YUV-Farbraums lassen sich durch Werte von 0 bis 255 darstellen und müssen erst aus dem RGB-Farbraum, in dem sich die Farbsignale nach einer möglichen Kameraaufnahme befinden, überführt werden. Dies geschieht nach folgender Formel: Y = 0,299 R + 0,587 G + 0,114 B U = 0,493 * ( B Y ) V = 0,877 * ( R Y ) Für den NTSC-Standard wird der RGB-Farbraum der Kamera in den sogenannten YIQ-Farbraum umgerechnet und für das später behandelte digitale Fernsehen in den YCbCr-Farbraum. Diese Farbräume sind alle vom Prinzip her gleich und unterscheiden sich nur geringfügig bezüglich der Anwendung in unterschiedlichen Fernseh-Standards. Der eigentliche Grund warum wir den YUV-Farbraum mit seiner Helligkeitskomponente und den zwei Farbkomponenten verwenden ist wieder auf die visuelle Wahrnehmung des Menschen zurückzuführen. Das menschliche Auge kann Farbe nicht so gut Auflösen wie Helligkeit ([MS04] Digitale Videokodierung). Das heißt für unsere Anforderung an die Videokomprimierung, dass man bei der Komprimierung Farbinformationen einsparen könnte ohne für das menschliche Auge die Qualität des dargestellten Videobildes merklich zu verringern. Wir halten also fest, dass bei der Videokodierung eine Bildwiederholungsrate von mindestens 16 Bildern pro Sekunde dargestellt werden muss und das bei der Kodierung der Farbsignale Einsparungen vorgenommen werden können. 3. Digitales Video Die Vorteile des digitalen Videos im Gegensatz zu analogen Videos sind deutlich, da es neben der schon genannten Interaktivität, der möglichen Komprimierung und der Übertragbarkeit über digitale Netze auch noch räumliche- und zeitliche Skalierbarkeit erlaubt und keine Kopier- und Speicherverluste beim Arbeiten mit der Videoquelle entstehen. 5

7 3.1 Subsampling Die schon angesprochene Verringerung der Farbinformationen eines digitalen Videobildes kann durch verschiedene Arten des Subsampling erreicht werden. Es kommt hierbei zu einem Informationsverlust, aber auch zu einer ersten Reduktion des Datenvolumens der Videoquelle. Die Farbsignale der Bildpunkte eines Bildes werden hier horizontal oder horizontal und vertikal zusammengefasst. Hierfür gibt es verschiedene Abtastraten (Abbildung 3.1), welche auch einen unterschiedlichen Informationsverlust und eine unterschiedliche Datenvolumenreduktion hervorrufen. Beim 4:2:2-Subsampling werden horizontal jeweils zwei Farbwerte zusammengefasst, was zu einer Reduktion des Datenvolumens von 33% führt. Beim 4:2:0-Subsampling werden horizontal und vertikal jeweils vier Farbwerte zusammengefasst, was zu einer Reduktion des Datenvolumens von 50% führt. Abbildung 3.1: 4:2:2- und 4:2:0-Subsampling Die in der Abbildung dargestellten Kreise sollen die Farbkomponenten darstellen und die Quadrate die Helligkeitsinformationen. Neben den beiden in der Abbildung 3.1 gezeigten Abtastraten für das Subsampling gibt es noch weitere wie das Subsampling bei dem keine Einsparungen stattfinden und das Subsampling bei dem horizontal jeweils vier Farbwerte zusammengefasst werden, was zu einer Reduktion des Datenvolumens von auch 50% führt. Einige dieser Subsampling-Verfahren kommen bei den Standards für digitales Video (Tabelle 3.2) zum Einsatz. 6

8 3.2 Standards für digitales Video CCIR / ITU 601 Eigenschaft HDTV NTSC PAL CIF QCIF Helligkeitsinformation 1920x x x x x144 Farbinformation 960x x x x144 88x72 Subsampling 4:2:2 4:2:2 4:2:2 4:2:0 4:2:0 Bilder pro Sekunde Verwobenes Bild (interlaced) nein ja ja nein nein Tabelle 3.2: Standards für digitales Video Die in der Tabelle 3.2 dargestellten Standards würden trotz Subsampling noch ein erhebliches Datenvolumen und eine damit verbundene hohe Datenrate beim Übertragen hervorrufen. Das beste Beispiel ist HDTV. Es wird hierbei einer Farbtiefe von 8-Bit und bis zu 1920 x 1152 Bildpunkten mit 60 Herz Bildwiederholungsfrequenz und 4:2:2-Subsampling dargestellt. Dies ergibt eine Datenrate von 1920 * 1152 * 60 * * 1152 * 60 * (8 + 8) = 1,19 Gbps. Die gebräuchlichsten DSL-Techniken erlauben 1,5 Mbps bis 6 Mbps, was uns zwingt, weitere Komprimierungstechniken zu entwickeln und anzuwenden. 4. Komprimierungstechniken für digitales Video Eine Komprimierung ist möglich, da im unkomprimierten digitalen Bild viele Informationen stecken, die das menschliche Auge gar nicht wahrnehmen kann. In diesem Kapitel möchte ich die möglichen Komprimierungstechniken vorstellen und deren Funktionsweise an einem unkomprimierten Bitstrom im YCbCr-Farbraum erklären. 7

9 4.1 Einfache Techniken Bei den einfachen Techniken der Komprimierung beschränkt man sich auf die Reduktion der Bildinformation. So wird bei der Truncation einfach die Farbtiefe des Bildes reduziert, wobei es zu einem ersten Informationsverlust kommt. Eine weitere Möglichkeit wäre die Farbtiefe des Bildes zu verringern (Abbildung 4.1), da die vollen 24-bit Farbtiefe kaum verwendet werden. 8-bit Farbtiefe 24-bit Farbtiefe Abbildung 4.1: Beispiel für 8- und 24-bit Farbtiefe Ein letztes sogenanntes einfaches Verfahren ist das Lauflängenverfahren. Hier werden verlustfrei hintereinander auftretende, gleiche Farbflächen zusammengefasst und es wird nur der Wert und der dazugehörige Faktor einer Farbfläche kodiert. 4.2 Interpolative Verfahren Kommen wir nun zu den sogenannten interpolativen Verfahren, bei denen aus einer Teilmenge von Bildpunkten die noch fehlenden oder vorher zum Beispiel beim Subsampling reduzierten Bildpunkte berechnet werden. Dies ist eine sehr effiziente Technik, da sich viele Bildbereiche oft über lange Zeit kaum ändern. Es können sogar komplette Zwischenszenen interpoliert werden, da sich meistens nur wenige Objekte in einer Szene bewegen. Die Komprimierung hierbei kommt dadurch zu Stande, dass nur Abweichungen vom Zwischenbild zum interpoliertem Zwischenbild gespeichert werden. 4.3 Prädiktive Verfahren Die DPCM (Differential Pulse Code Modulation) ist ein prädiktives Verfahren, d.h. es werden die Redundanzen aufeinanderfolgender Einzelbilder ausgenutzt. Dadurch ist hier eine starke Reduktion des Datenvolumens möglich, da bei der DPCM nur die Differenz aufeinanderfolgender Bildpunkte gespeichert wird. Oft ist diese Differenz sehr klein und die DPCM liefert eine gute Reduktion. Ist aber die Differenz zweier 8

10 aufeinanderfolgender Bildpunkte groß, wie bei Bildern mit hohen Kontrasten, dann liefert die DPCM keine Reduktion. Hier greift dann die sogenannte Adaptive DPCM ein, die an den kontrastreichen Stellen die Auflösung erhöht und somit die Differenz benachbarter Bildpunkte geringer wird. Dadurch erhält man durch die Anwendung der DPCM wieder eine höhere Reduktion des Datenvolumens. 4.4 Transformations-Verfahren Das sogenannte Transformations-Verfahren basiert auf der Fourier-Transformation, bei dem die Daten in deren Frequenzraum transformiert werden, um eine günstige Ausgangslage für die Kodierung zu erreichen ([UT] 2.1 DCT). Dabei ist es wichtig, dass die Datentransformation umkehrbar ist, um die Ursprungsdaten wieder aus den transformierten Daten herstellen zu können. Für die Komprimierung ist hier die Dekorrelation der Bildinformationen ausschlaggebend. Das Bild wird in möglichst nicht symmetrisch verteilte Bildinformationsanteile aufgeteilt, was dann bei der Entropiekodierung der Frequenzbeträge ausgenutzt werden kann. Eine besondere Bedeutung für Video- und Bildkodierung hat die DCT (diskrete Cosinus Transformation). Hier werden aus einer 8 x 8 Eingabematrix die 64 Koeffizienten nach Größe der Beträge in eine 8 x 8 Koeffizientenmatrix geordnet. Anschließend werden dann die Beträge der Koeffizienten kodiert, wobei die Koeffizienten, deren Beträge nahe null sind, ignoriert und welche nicht mit kodiert werden. Es kommt dadurch zu der gewünschten Komprimierung und auch zu einem unerwünschten Informationsverlust bei der Dekodierung, welcher möglichst klein gehalten werden sollte. 4.5 Statische Kodierung Bei der statischen Kodierung wird verlustfrei kodiert. Es wird hier die statistische Verteilung der Werte der Bildpunkte ausgenutzt, um häufiger vorkommende Bildpunkte mit Codes geringerer Bitlängen und weniger häufig vorkommende Bildpunkte mit Codes größerer Bitlängen zu codieren. Ein sehr bekanntes Beispiel hierfür ist die Huffmann Kodierung ([UOHK] Huffmann-Kodierung) Bewegungsvorhersage Bei der Bewegungsvorhersage bzw. der Bewegungskompensation handelt es sich um eine Reihe von Verfahren, die zu den schon im Abschnitt 4.3 genannten prädiktiven Verfahren zählen. Auch hier wird wie bei den anderen Techniken der überschüssige Informationsgehalt des Videostroms ausgenutzt. Als Beispiel kann man sich hier die Bewegung eines Objektes im Bild vorstellen, wobei sich dessen Hintergrund kaum verändert. Die Bewegung wäre hier als Veränderung der Position bestimmter Bildpunkte durch deren Helligkeitsänderung zu betrachten. Wir suchen also Verfahren, welche Helligkeitsänderungen und deren Ursache innerhalb einer Bildfolge erkennen, um eine Komprimierung zu erreichen. Die gesuchten Verfahren lassen sich in 3 Gruppen einteilen. 9

11 Kontextfreie Prädiktion Bei der kontextfreien Prädiktion wird die Bewegungsvorhersage ohne jegliche Information über den Bildinhalt getroffen und die Graustufenwerte der Bildpunkte werden aufgrund von Nachbarschaftsbeziehungen zwischen den einzelnen Bildpunkten vorhergesagt Modellbasierte Prädiktion Bei der modellbasierten Prädiktion werden dagegen Vorwegnahmen über den Bildinhalt getroffen wie z.b. die Kopf-Schulter-Darstellung. Der Bildinhalt wird durch eine geeignete Gitterstruktur modelliert und die Bewegungen im Bild werden mit Vektoren beschrieben Objekt- und regionenbasierte Prädiktion Verwendet man objekt- und regionenbasierte Prädiktion dann wird zuerst das Bild in Segmente eingeteilt, um einzelne Objekte in diesem Segment zu erkennen. Die erkannten Objekte werden dann getrennt voneinander bearbeitet, wie es im MPEG-4 Standard gehandhabt wird. Bei typischen Anwendungen der kontextfreien Prädiktion wie bei der DPCM, wird für das vorherzusagende Bild das vorhergehende Einzelbild genutzt und deren Differenzbild festgehalten. Darüber hinaus kann für die Vorhersage der Sachverhalt ausgenutzt werden, dass Bewegungen im Folgebild meist nur von den erkannten Objekten ausgehen Bewegungskompensation Bei der Bewegungskompensation kommt es darauf an, eine zweite mögliche Ursache für Bewegung zu beachten. Die Kamerabewegung, welche erheblich zur Vorhersage des Folgebildes und einer dadurch möglichen Reduktion des Datenvolumens beitragen kann. Nachteil dieser Technik ist es, dass keine Bildschnitte oder ähnliches bewältigt werden können. Um ein effizientes Bewegungsmodell zu erhalten, müssen verschiedene Teilaufgaben wie z.b. die Trennung von Hinter- und Vordergrund oder die Erkennung von geradlinigen Kamerabewegungen, Kameraschwenks und Zoom bewältigt werden. Die Erkennung dieser Bewegungen geschieht wie bei der Bewegungsvorhersage. Das Bild wird segmentiert und die einzelnen Segmente werden auf Bewegungen untersucht. Die Anwendung dieser Komprimierungstechniken für digitales Video soll nun am Standard der MPEG-Videokomprimierung gezeigt werden. Es werden dabei MPEG- 1, MPEG-2 und MPEG-4 vorgestellt. 10

12 5. MPEG Moving Pictures Expert Group 1988 wurde die MPEG-Gruppe gegründet und stellte eine gemeinsame Arbeitsgruppe von ISO und IEC dar. Die Gruppe legt Dateiformate und Verfahren zum platzsparenden Komprimieren und Speichern von Multimediadaten in hoher Qualität fest. Folglich würde das in Abschnitt 1 angesprochene einheitliche Dateiformat nicht lange auf sich warten lassen. Der MPEG-Standard teilt sich in MPEG-1, MPEG-2, MPEG-3, MPEG-4, MPEG-7 und MPEG-21, wobei MPEG-7 und MPEG-21 hier nicht betrachtet werden sollen. 5.1 Ausblick auf die vorgestellten MPEG-Standards Der MPEG-1 Standard (1992) wurde für flüssige Video-Wiedergaben entworfen und weist daher die größten Kompressionsraten auf. Die MPEG-1-Komprimierung bzw. Dekomprimierung war ursprünglich ein hardwareabhängiges Verfahren, welches aber mittlerweile, dank der mit der Zeit schneller gewordenen Prozessoren, auch ein Software komprimieren oder dekomprimieren möglich macht ([GLMP] MPEG). Der wesentliche Unterschied zwischen MPEG-1 und MPEG-2 besteht darin, dass der MPEG-2 Standard (1995) besser mit dem beim digitalen Fernsehen eingesetzten Zeilensprungverfahren (verwobenes Bild / interlaced) umgehen kann. Das Geheimnis von MPEG-2 liegt in der Kompression auf höchster Qualitätsstufe, so dass Filmmaterial nahezu 1 zu 1 in Studioqualität bearbeitet und editiert werden kann. Konsequenter Weise etablierte sich MPEG-2 zu einem beim Fernsehen und dadurch weit verbreitet eingesetzten Standard ([GLMP] MPEG). Der Teil des MPEG-3 Standard, der für HDTV vorgesehen war, wurde mittlerweile in den MPEG-2 Standard integriert. MPEG-3 ist dabei aber nicht mit MP3 zu verwechseln ([GLMP] MPEG). Der MPEG-4 Standard (1999) ist eine Weiterentwicklung des MPEG-2-Formats und befindet sich seit 1996 in der Entwicklung. Obwohl MPEG-4 ursprünglich als ein Kodierungsstandard für audiovisuelle Daten mit sehr niedriger Bitrate gedacht war, diente die Entwicklung weit mehr Zwecken, als lediglich der Mediendatenübertragung über digitale Netze. MPEG-4 stellt z.b. effiziente Mechanismen zur Komprimierung und Verteilung interaktiver Medieninhalte bereit. Die Kompressionsrate als solche, ist bei MPEG-4 nicht höher als bei MPEG-2, aber Sprites können besser komprimiert werden, weil dem Kodiermechanismus dafür wesentlich mehr Zeit zur Verfügung steht. Eine später beschriebene Skriptsprache (VRML97) ermöglicht es, in wenigen Bytes, Operationen wie Verschieben wesentlich schneller durchzuführen, als es die digitalisierte komprimierte Form der gleichen Operation ermöglichen würde. Microsofts erste Implementierung von MPEG-4 ist seit Windows 98 auf jedem Windows-PC installiert ([GLMP] MPEG). 5.2 Anforderungen an den MPEG-Standard Eine Anforderung, die sich an den MPEG-Standard stellte, war das Speichermedium. Die Videoquelle sollte auf einer CD Platz finden, was zur Folge hatte, dass die Bitrate der Videoquelle maximal bei 1,2 Mbps liegen durfte. Da aber eine einfache 8-Bit 11

13 abgetastete Videoquelle nach dem CCIR/ITU 601-Standard eine Bitrate von ca. 210 Mbps besitzt wäre eine Komprimierung von mindestens 200:1 nötig, um eine solche Videoquelle von CD abzuspielen. Darüber hinaus sollte auf die Speicherquelle wahlfrei zugegriffen werden können. Jede Stelle der Videoquelle sollte weitgehend ohne Zeitverlust anwählbar sein. Beim Empfang von digitalen Fernsehen über die Hausantenne hat man ein durch andere Rundfunksignale eingeschränktes Frequenzband von ca Mbps zur Verfügung. Dies würde für das oben genannte Beispiel eine Komprimierung von mindestens 6:1 erfordern, wobei der Nutzer dann lediglich nur ein Programm empfangen könnte. Mit einer angemessenen Komprimierung in Kombination mit Multiplexingverfahren wäre die Übertragung mehrerer Programme in einem digitalen Signal möglich. Der gleiche Sachverhalt ist beim Empfang digitalen Fernsehens über den Kabelanschluss zu finden. Die Datenfülle, die hier bewältigt werden muss, kann trotz Glasfaserleitungen nicht bewältigt werden. Es ist hier also eine Komprimierung und auch ein ausgereifter Standard notwendig, an dem sich die unterschiedlichen Hersteller von Empfangsdekodern orientieren können. Eine weitere Möglichkeit die digitale Videoquelle über Kabel zu empfangen ist ADSL, bei dem über herkömmliche Telefonkabel (Twisted Pair) mit Hilfe von speziellen Datenübertragungstechniken eine Bitrate von 1,5 Mbps bis 6 Mbps erreicht wird. Es wird also eine Komprimierung von mindestens 35:1 benötigt um die im oben genannten Beispiel beschriebene Videoquelle zu übertragen. Für den Empfang von HDTV sind wie in Abschnitt 3.2 berechnet 1,19 Gbps Bitrate zu bewältigen. Dies würde für die Übertragung über ADSL bedeuten, dass an der oben genannten Videoquelle eine Komprimierung von mindestens 200:1 durchgeführt werden müsste. Ein ausgereifter, allgemein akzeptierter Standard für die Videokodierung wäre eine Grundlage für die Hersteller von Multimediadaten, um unabhängig von Speichermedien wie CD oder DVD Medien in digitalen Netzen wie das Internet zu vertreiben. Die Anforderungen an den MPEG-Standard sind also eine erhebliche Komprimierung der Videoquelle, die Möglichkeit des wahlfreien Zugriffs und die Möglichkeit, dass der MPEG-Standard als ausgereifter Standard allgemein akzeptiert wird. Es soll jetzt gezeigt werden, wie diese Anforderungen im MPEG-1 Standard erfüllt wurden. 5.3 Schichten MPEG-Videostrom Die Bestandteile einer digitalen MPEG-Videosequenz (Abbildung 5.3) sind Gruppen von Bildern (GOP), welche wiederum aus Einzelbildern bestehen. Diese Einzelbilder werden in Zeilen von Makroblöcken (16 x 16 Bildpunkte) unterteilt, wobei ein Makroblock aus 4 Blöcken (8 x 8 Bildpunkte) besteht. 12

14 5.3.1 Der MPEG-1 Standard Abbildung 5.3: Syntax des MPEG-Videostroms Zuerst soll der Ablauf der MPEG-1 Kodierung anhand der Abbildung gezeigt werden. Abbildung 5.3.1: Ablauf der MPEG-1 Kodierung Ablauf der MPEG-1 Kodierung Konvertierung des Farbraumes Der möglicherweise von einer Kamera aufgenommene Videostrom wird nun vom 24- Bit RGB-Farbraum in den YCrCb-Farbraum konvertiert. Anschließend wird ein 4:2:2 Subsampling durchgeführt und somit die Farbinformation des Videostroms reduziert. Es kommt dabei zwar zu einem Informationsverlust, aber auch zu einer ersten Komprimierung des Videostroms. 13

15 Blockvergleich Im nächsten Schritt werden die einzelnen Bilder des Videostroms in Makroblöcke unterteilt, um anhand der Helligkeitskomponenten der Bildpunkte eine mögliche Bewegung von Objekten zu erkennen. Ein sogenannter Bewegungsvorhersagealgorithmus, für Objekte im Bild, sucht nach Mehrfachblöcken von Bildpunkten im Suchraum. Es wird nun der aktuelle Makroblock (nur Helligkeitskomponente) mit den umgebenden Makroblöcken und den Makroblöcken des vor- und nachfolgenden Einzelbildes verglichen. Wenn dabei eine Ähnlichkeit zwischen Makroblöcken festgestellt wird, dann wird der Vektor zwischen den Positionen der ähnlichen Makroblöcke berechnet und zusammen mit eventuellen Differenzinformationen kodiert ([FHJMC] Motion-Compensation) (Abbildung ) Folgebilder ähnliche Makroblöcke Vektor Abbildung : Entstehung eines Verschiebungsvektors Die Qualität der Bewegungsvorhersage ist von der Leistungsfähigkeit des Enkodierers und der Größe des Suchraums abhängig, da die Suche für jedes einzelne Objekt durchgeführt werden muss DCT-Transformation Die schon in Abschnitt 4.4 beschriebene diskrete Cosinus Transformation wird hier folgendermaßen eingesetzt: Ein Block von Bildpunkten wird ausgehend von dessen Raumkoordinaten in seinen Frequenzbereich transformiert, wobei dann hochfrequente Bildanteile vernachlässigt werden, weil diese für das menschliche Auge kaum erkennbar sind ([MS04] MPEG Komprimierung: Prinzipielles Vorgehen). Für die Komprimierung eines MPEG-Videostroms gibt es verschiedene Arten von Einzelbildern (Frames). Einige dieser Frames sind voneinander abhängig, da sich bestimmte Frames die Information über die Position eines Objektes von vorund/oder nachfolgenden Einzelbildern beziehen können I-Frame (Intra Coded Picture) Das I-Frame ist eine Art Standbild, welches keinerlei Informationen über andere Einzelbilder besitzt. Dieses Standbild wird JPEG-ähnlich komprimiert und dient als Ankerpunkt und Startpunkt für den wahlfreien Zugriff. Womit also die erste Anforderung an den MPEG-Standard erfüllt wird ([UT2] Frametypen). 14

16 P-Frame (Predictive Coded Picture) Die Makroblöcke im P-Frame bestehen entweder nur aus Vektoren und Bilddifferenzinformationen und beziehen sich auf das vorhergehende I-Frame (Abbildung ) oder wenn der Vorhersagealgorithmus bei verschiedenen Makroblöcken erfolglos war, dann besteht dieser Makroblock aus einem vollständig pixelkodierten Makroblock. Der Dekoder muss also die komplette I-Frame Information vorhalten, um das P-Frame erfolgreich dekodieren zu können ([UT2] Frametypen) B-Frame (Bidirectionally Predictive Coded Picture) Bei der Kodierung eines B-Frames werden die Makroblöcke zuerst mit einem nachfolgenden I-Frame oder P-Frame und danach mit einem davor liegenden I- Frame oder P-Frame verglichen. Sind beide Vergleiche erfolgreich, so werden aus den gefundenen I-Frames oder P-Frames Mittelwerte gebildet und für die Kodierung des B-Frames zu Grunde gelegt (Abbildung ). Sollte kein Vergleich erfolgreich sein, so wird dieser Makroblock des B-Frames als ein herkömmlicher, vollständiger, pixelkodierter Makroblock kodiert. Der Dekoder muss also eine ganze Reihe an vor- und nachfolgenden I-Frame und P-Frames vorhalten, um das B-Frame erfolgreich dekodieren zu können ([UT2] Frametypen). Abbildung : Beispiel B- + P-Frame kodierung D-Frame (DC Coded Picture) D-Frames sollen nur am Rande genannt werden, da sie bei geeignet periodischer Speicherung von I-Frames (alle 0,4 Sekunden oder alle 12 Einzelbilder([MS04] MPEG Komprimierung: Prinzipielles Vorgehen)) im Videostrom überflüssig sind. Diese D-Frames werden nur mit ihren DC-Koeffizienten (entstanden bei der DCT- 15

17 Transformation) kodiert und sind generell von schlechter Qualität. D-Frames werden meist nur beim schnellen Vorlauf angezeigt ([UT2] Frametypen). Der MPEG-Standard erlaubt es, anwendungsabhängig die Komprimierungsrate, Bildqualität und Frame-Typen-Nutzung festzulegen. Es ist sogar eine beliebige Reihenfolge der gespeicherten Einzelbilder möglich, was aber beim Umformen zu erheblichen Speicherplatzbedarf führt Quantisierung Bei der Quantisierung kommt es zu einem Informationsverlust, da die bei der DCT entstandenen Koeffizienten nahe Null auf den Wert Null gerundet werden. Dies tritt also bei der Speicherung der I-Frames und den DCT-kodierten Anteilen der B- Frames und P-Frames auf. Die Bewegungsvektoren für P-Frames und B-Frames werden dagegen verlustfrei gespeichert ([CSQ] Quantisierung) Lauflängenkodierung Anschließend wird die im Abschnitt 4.1 schon beschriebene Lauflängenkodierung der Koeffizientenmatrizen in Zick-Zack-Reihenfolge von niedrigen zu hohen Frequenzkomponenten angewendet. Die Lauflängenkodierung ist verlustfrei, also kommt es zu keinem Informationsverlust Huffmannkodierung Am Ende der MPEG-1 Videokomprimierung wird das Huffmannverfahren angewandt, welches im Abschnitt 4.5 schon vorgestellt wurde Das MPEG-Datenformat Da ein MPEG-Datenstrom aus Video und dem dazugehörigen Audio (oder mehreren Audioströmen) besteht, muss zur synchronen Übertragung der beiden elementaren Datenströme das Multiplexingverfahren angewandt werden. Ab einem Unterschied von nur 80 ms würde dem Betrachter auffallen, dass sich Audio und Video nicht synchron verhalten ([MS04] MPEG Komprimierung: Prinzipielles Vorgehen). Darüber hinaus besitzt jedes Einzelbild eine Zeitstempelinformation, damit der Dekoder erkennen kann, wann der genaue Wiedergabezeitpunkt für jedes Einzelbild und den dazugehörigen Ton ist. Die Zeitstempelinformation wird durch eine Referenzuhr (90 khz) realisiert. So kann beim wahlfreien Zugriff auf den MPEG- Datenstrom der exakte Zugriffszeitpunkt des Einzelbildes ermittelt werden, welches aktuell wiedergegeben werden soll. Dank eines Puffers und der vorhandenen Zeitstempelinformationen kann man die vorhandenen Datenströme flexibel dekodieren. Dadurch sind auch variable Datenübertragungsraten möglich, wobei man die Dekodierung einzelner Bilder unterdrückt, falls die dafür vorgesehene Dekodierzeit nicht zur Verfügung steht und die Synchronität der Datenströme nicht beeinträchtigt wird. Der Puffer des Dekoders muss Pufferüberläufe vermeiden, die durch zeitlich ungeordnete Einzelbilder hervorgerufen werden können. 16

18 Constraint Parameter Set Durch eine hohe Flexibilität der Bildgröße, Bitraten etc. ist es notwendig, eine Art Obergrenze dieser Schlüsselwerte zu setzen, um den Standard auch für kostengünstige Dekoder-Implementationen nutzbar zu machen. Dafür wurde der Constraint Parameter Set (Tabelle ) von der MPEG-Gruppe 1992 festgelegt. Der MPEG-Datenstrom, der den Kriterien des Constraint Parameter Set entspricht, sollte von jedem MPEG-En- und Dekoder unterstützt werden. Andersherum muss der Constraint Parameter Set von jedem MPEG-En- und Dekoder unterstützt werden, wobei dies für Soft- und Hardwareimplementierungen gilt. Horizontale Bildgröße Vertikale Bildgröße Anzahl Makroblöcke/Einzelbild Anzahl Makroblöcke/Sekunde Bilder pro Sekunde Bitrate Dekoderpuffer <= 720 Pixel <= 576 Pixel <= 396 <= 396x25 oder 330x30 <= 30 <= 1.82 Mbp/s <= Tabelle : Constraint Parameter Set Es wurden also alle an den MPEG-1 Standard gestellten Anforderungen erfüllt. MPEG-1 wurde als ausgereifter Standard allgemein akzeptiert, der wahlfreie Zugriff war möglich (Zugriff auf I-Frames) und es kam zu einer erheblichen Komprimierung (siehe Constraint Parameter Set) Der MPEG-2 Standard Da sich der MPEG-1 Standard als großer Erfolg entpuppte, begann man gleich nach der Veröffentlichung, an den Nachfolgern MPEG-2, MPEG-3 und MPEG-4 zu arbeiten. MPEG-1 war auf die CD zugeschnitten und unterstützte nur den progressiven (zeilenweise, Bildpunkt für Bildpunkt) Bildaufbau. Die MPEG-Gruppe sah sich dann Anfang der 90er Jahre zunehmend dem Druck der Medienindustrie ausgesetzt, die ein Verfahren forderten, welches die herkömmlichen Fernsehstandards (PAL und NTCS) komprimieren sollte. Zudem sollte mit dem MPEG-2 Standard eine bessere Bildqualität erzielt und die Möglichkeit einer Skalierbarkeit geschaffen werden, um unterschiedliche Bedingungen für unterschiedliche Leistungsklassen von Nutzern zu schaffen. Dadurch kann mit MPEG-2 alles - von der einfachen Videokonferenz bis zum hochauflösenden HDTV - dargestellt werden. 17

19 MPEG-2 Profile Das Profil Main unterstützt sämtliche Hauptanwendungsgebiete und erlaubt keine Skalierung. Das Profil Simple verhält sich wie das Main Profil, unterstützt keine B- Frames und wird hauptsächlich in Software-Dekodern verwendet. Im Profil SNR legt man mehr Wert auf gesteigerte Qualität bzgl. des Signal-Rausch-Verhaltens und die Farbauflösung ist skalierbar. Das Spatial Profil stellt ein verbessertes Main Profil dar, in dem die Pixeldichte skalierbar ist. Das letzte Profil ist das High Profil, welches die höchste Qualitätsstufe darstellt und in dem wiederum die Pixeldichte skalierbar ist. Im SNR-skalierten Modus stehen die Videodaten in unterschiedlichen Bitraten zur Verfügung und je nach Leistungsfähigkeit des Dekoders werden die Daten bei gleicher räumlicher Auflösung in unterschiedlicher Qualität dargestellt. Eine Skalierung der Pixeldichte wird durch mehrfaches Subsampling erzeugt. Das entstandene Einzelbild der letzten Anwendung des Subsamplings gilt als Basisfrequenz. Dann wird die Differenz zwischen der nächst höher aufgelösten Stufe des Subsamplings und dem Interpolationsergebnis kodiert und zusammen mit der Basisfrequenz übertragen. Bei einer zeitlichen Skalierung wird eine Sequenz mit reduzierter Bildfolge kodiert, wobei dann die fehlenden Bilder interpoliert und die Vorhersagebilder zusätzlich kodiert werden. Hier kommt es wiederum auf die Leistungsfähigkeit des Dekoders an, inwieweit dieser abgesehen von der Basisfrequenz noch zusätzliche mitempfangene Daten dekodieren kann, um die Bildqualität zu verbessern. MPEG-2 ist zudem noch im Stande, Daten zu portionieren in wichtige Bestandteile wie Header, Bewegungsvektoren etc. und weniger wichtige Anteile. Dadurch soll die Bildqualität gegenüber (Übertragungs-) Fehlern verbessert werden MPEG-2 Schichten Die Schicht Low ist vergleichbar mit dem MPEG-1 Standard und unterstützt CIF und PAL bis 4 Mbps. Anwendung findet diese Schicht am allgemeinen Verbrauchermarkt (z.b.videorecorder). Bei der Verwendung der Main Schicht werden die CCIR 601 Standard-Bildformate unterstützt. Das heißt, Maximal 720 x 480 Bildpunkte bei 30 Bildern pro Sekunde und ergibt bis zu 15 Mbps Bitrate. Die Main Schicht wurde für den qualitativ hochwertigen Verbrauchermarkt entwickelt. Die Schicht High1440 unterstützt Bildformate bis 1440x1152 Bildpunkte (4xCCIR) bei 30 Bildern pro Sekunde. High1440 erzeugt also Bitraten bis zu 60 Mbps und ist für den Verbrauchermarkt für hochauflösendes TV entwickelt worden. Für die Nutzung von HDTV ist die Schicht High entwickelt worden, die bei 1920x1080 Bildpunkten und 60 Bildern pro Sekunde eine Bitrate von bis zu 80 Mbps erzeugt MPEG-2 Level und Profile Die in Tabelle dargestellten Schichten und Profile werden vom MPEG-2 unterstützt. 18

20 Simple Main SNR Spatial High High x1152, 60 fps x1152, 60 fps High x1152, 60 fps x1152, 60 fps 720x576, 30 fps 1440x1152, 60 fps 720x576, 30 fps Main 720x576, 30 fps 720x576, 30 fps 720x576, 30 fps - 720x576, 30 fps 352x288, 30 fps Low - 352x288, 30 fps 352x288, 30 fps MPEG-Datenströme Tabelle : MPEG-2 Level und Profile Es sollen verschiedene multimediale Datenströme wie Audio, Video, etc. übertragen werden. Dies geschieht wie schon in Abschnitt erwähnt mit geeigneten Multiplex- und Synchronisationsverfahren. Die komprimierten Audio- und Videodaten bilden die Komprimierungsschicht. Die Systemschicht (Referenzuhr, etc.) reguliert die Zeitsteuerung und Synchronisation der Daten. System- und Komprimierungsschicht zusammen schaffen die Möglichkeit der gemeinsamen Speicherung von Audio- und Videostrom in einem gemeinsamen Datenstrom (Abbildung ). Abbildung : MPEG Systemstruktur 19

Digitales Video I Wie wird Video am Computer codiert?

Digitales Video I Wie wird Video am Computer codiert? Digitales Video I Wie wird Video am Computer codiert? Bilder Auflösung Speicherung am Computer Bewegte Bilder Interlacing Kompression / Codec Ton Audioformate / Codecs Videoformate Bilder Auflösung: z.b.:

Mehr

Analyse und Vergleich aktueller Videokompressionsverfahren

Analyse und Vergleich aktueller Videokompressionsverfahren Analyse und Vergleich aktueller Videokompressionsverfahren 29.05.2008 Inhalt 1 Grundlagen der Videocodierung Frame-Typen & Farbraum Diskrete Konsinustransformation & Quantisierung MPEG Encoder 2 MPEG4

Mehr

Neue Technologien im Internet und WWW

Neue Technologien im Internet und WWW Neue Technologien im Internet und WWW Thema: Videokodierung (Alexander Endter) 1 Seminar Wintersemester 2003/04 Dr. rer. nat. Harald Sack Institut für Informatik Universität Jena Gliederung I 1. Einleitung

Mehr

Von der Kamera zur DVD Klaus Wünschel LUG-LD

Von der Kamera zur DVD Klaus Wünschel LUG-LD Von der Kamera zur DVD Klaus Wünschel LUG-LD Inhalt Allgemeine Grundlagen Codecs / Container Vom Camcorder zum PC / Module - Devices Linuxsoftware zur Videomanipulation Vom PC zur DVD DVD-Authoring praktische

Mehr

DIGITALE VIDEO KOMPRESSION AM BEISPIEL DES JPEG-VERFAHRENS

DIGITALE VIDEO KOMPRESSION AM BEISPIEL DES JPEG-VERFAHRENS 1 DIGITALE VIDEO KOMPRESSION AM BEISPIEL DES JPEG-VERFAHRENS Um das digitale Schneiden von digitalisierten Bildern zu ermöglichen, ist es notwendig, die drastisch hohe Datenmenge, die für jedes Bild gespeichert

Mehr

Kompression und Datenformate. Grundlagen der Bildspeicherung, Kompressionsverfahren, Datenformate

Kompression und Datenformate. Grundlagen der Bildspeicherung, Kompressionsverfahren, Datenformate Kompression und Datenformate Grundlagen der Bildspeicherung, Kompressionsverfahren, Datenformate Digitale Speicherung von Bildern Digitalisierung Informationsgehalt Speicherbedarf Kompression von Multimediadaten

Mehr

7. Bewegtbilder. 7.1! Bewegungswahrnehmung! 7.2! Videokompression!!!! insbesondere MPEG-1 und MPEG-2! 7.3! Videodatenformate. Literatur:!

7. Bewegtbilder. 7.1! Bewegungswahrnehmung! 7.2! Videokompression!!!! insbesondere MPEG-1 und MPEG-2! 7.3! Videodatenformate. Literatur:! 7. Bewegtbilder 7.1! Bewegungswahrnehmung! 7.2! Videokompression!!!! insbesondere MPEG-1 und MPEG-2! 7.3! Videodatenformate Literatur:! Arne Heyna/Marc Briede/Ulrich Schmidt: Datenformate im Medienbereich,

Mehr

Agenda MPEG-2 DVB / MHP. Berlin, 19.4.2005 2/ 20. LV: Interaktives Digitales Fernsehen TFH Berlin Dipl.-Ing. Henrik Pantle

Agenda MPEG-2 DVB / MHP. Berlin, 19.4.2005 2/ 20. LV: Interaktives Digitales Fernsehen TFH Berlin Dipl.-Ing. Henrik Pantle Berlin, 19.4.2005 Agenda MPEG-2 DVB / MHP 2/ 20 Übertragungswege für interaktives TV 3/ 20 Übertragungswege für interaktives TV Broadcast Channel Überträgt (i)tv-inhalte in die Haushalte 1 zun Verbindung

Mehr

Medienarchitektur AVI. ein Vortrag von Christian Beugel

Medienarchitektur AVI. ein Vortrag von Christian Beugel Medienarchitektur AVI ein Vortrag von Christian Beugel Agenda Einführung Geschichte Aufbau Anwendung Vor- und Nachteile Perspektive Zusammenfassung Quellen Einführung AVI steht für Audio Video Interleaved

Mehr

Grafikformate. Grafikformate. Digitale Bildverarbeitung Bildkompression

Grafikformate. Grafikformate. Digitale Bildverarbeitung Bildkompression Digitale Bildverarbeitung Bildkompression Einleitung Datenmenge für ein unkomprimiertes Bild Verwendungszweck des Bildes Bild soll weiterverarbeitet werden Bild soll archiviert werden Bild soll per E-Mail

Mehr

Multimediale Werkzeuge, Audio: Formate, Tools. -Sound/Audio Objekte. Formate, Beispiele:

Multimediale Werkzeuge, Audio: Formate, Tools. -Sound/Audio Objekte. Formate, Beispiele: Multimediale Werkzeuge, Audio: Formate, Tools -Sound/Audio Objekte Formate, Beispiele: - Mp3 (Kurz für MPEG1/2 Layer 3) - PCM (z.b. Wave Datei), übliche Formate: CD: 44100 HZ Abtastrate, 16 Bits/Abtastwert.

Mehr

Multimediatechnik / Video

Multimediatechnik / Video Multimediatechnik / Video Video-Kompression Zusammenfassung http://www.nanocosmos.de/lietz/mtv 2009 1 Motivation: Video-Kompression Unkomprimierte Datenmengen sind zu groß! TV: 20 MB/s = 72 GB/h (720x576x2x25)

Mehr

Videokonferenzen & multimediale Kommunikation

Videokonferenzen & multimediale Kommunikation Videokonferenzen & multimediale Kommunikation Falko Dreßler, Regionales Rechenzentrum falko.dressler@rrze.uni-erlangen.de 1 Überblick Einteilung Videokommunikation Meeting vs. Broadcast Transportnetze

Mehr

Zusammenfassung Graphik - Formate. Vektorgraphik - PS, EPS, WMF geometrische Figuren, exakte Berechnung auf beliebige Größe

Zusammenfassung Graphik - Formate. Vektorgraphik - PS, EPS, WMF geometrische Figuren, exakte Berechnung auf beliebige Größe Zusammenfassung Graphik - Formate Vektorgraphik - PS, EPS, WMF geometrische Figuren, exakte Berechnung auf beliebige Größe Rastergraphik - BMP, GIF, JPEG, PNG feste Anzahl von Bildpunkten (ppi) Wiedergabe

Mehr

Grundlagen der. Videokommunikation

Grundlagen der. Videokommunikation Grundlagen der Videokommunikation Netzwerke: Qualitäts- und Leistungserwartungen Netzwerke: Qualitäts- und Leistungserwartungen Bandbreite Kenngrößen Firewall NAT Netzwerke: über DFN X-WiN-Anbindung X-WiN

Mehr

Digitales Video. Teil 1: MPEG-2. Ein Vortrag von: Jana Cavojska

Digitales Video. Teil 1: MPEG-2. Ein Vortrag von: Jana Cavojska Digitales Video Teil 1: MPEG-2 Ein Vortrag von: Jana Cavojska Unterschiede zwischen MPEG-2 und MPEG-1 Auflösung und Bitrates MPEG-2: MPEG-1: 80 Mbit/s (im High Level) bis 1,5 Mbit/s 1920 x 1152 (im High

Mehr

EDV-Anwendungen im Archivwesen II

EDV-Anwendungen im Archivwesen II EDV-Anwendungen im Archivwesen II 070472 UE WS08/09 Grundlagen der Digitalisierung Überblick Allgemeine Grundlagen der Digitalisierung anhand der Ton-Digitalisierung Abtastrate (Samplerate) Wortlänge (Bitrate)

Mehr

Multimediatechnik / Video

Multimediatechnik / Video Multimediatechnik / Video Codec-Standards DV, MPEG, H264 http://www.nanocosmos.de/lietz/mtv 1 Codec-Standards und Videoformate Industrie-Standards zur Videocodierung ISO/IEC/DIN: MPEG, H264 Firmenstandards:

Mehr

Videokodierung MPEG. Dirk Theisen

Videokodierung MPEG. Dirk Theisen MPEG Dirk Theisen Proseminar Multimediadatenbanken und Retrieval Institute for Web Science and Technologies FB4 Computer Science Universität Koblenz-Landau, 56070 Koblenz, Germany dirktheisen@uni-koblenz.de

Mehr

VIDEO / AUDIO1. 16. Dezember 2005 Claudia Große, Britta Wartke. Ein Referat von Claudia Große und Britta Wartke

VIDEO / AUDIO1. 16. Dezember 2005 Claudia Große, Britta Wartke. Ein Referat von Claudia Große und Britta Wartke VIDEO / AUDIO1 Ein Referat von Claudia Große und Britta Wartke 1. Codec? Verfahren zur digitalen De-/Codierung von Daten und Signalen (coder und decoder) Verlustfreie Codierung kaum möglich, Einbußen bei

Mehr

Hauptseminar: Digitale Medien und Übertragungstechnik. Videokomprimierung. Teil I. Vortrag: Philipp Correll Betreuer: Deti Fliegl

Hauptseminar: Digitale Medien und Übertragungstechnik. Videokomprimierung. Teil I. Vortrag: Philipp Correll Betreuer: Deti Fliegl Hauptseminar: Digitale Medien und Übertragungstechnik Videokomprimierung Teil I Vortrag: Philipp Correll Betreuer: Deti Fliegl Übersicht 1. Grundlagen Standards (PAL, NTSC) 2. Motivation Sehr große Datenmengen

Mehr

1 2 3 4 5 Ergebnis der. Einspielen in. Bearbeitung im Belichtung Aufnahme. Wandlung des Datenstroms in Dateien durch Codec, 2. Kompression der Daten

1 2 3 4 5 Ergebnis der. Einspielen in. Bearbeitung im Belichtung Aufnahme. Wandlung des Datenstroms in Dateien durch Codec, 2. Kompression der Daten Tom Krug 31.03.15 1 2 3 4 5 Ergebnis der Einspielen in Bearbeitung im Belichtung Aufnahme PC, Casablanca Schnittprogramm Export nach Bearbeitung Mini-DV SD (720 x 576 50i) HDV2 (1440 x1080 50i) Speicherkarte,

Mehr

Handbuch DVC Pro 25/50 DV Codec

Handbuch DVC Pro 25/50 DV Codec Copyright 2006 MainConcept AG. Alle Rechte vorbehalten. Alle hier erwähnten Programme und Namen sind Warenzeichen oder eingetragene Warenzeichen der jeweiligen Unternehmen. Je nach verwendeter Programmversion

Mehr

Kodierungsalgorithmen

Kodierungsalgorithmen Kodierungsalgorithmen Komprimierung Verschlüsselung Komprimierung Zielsetzung: Reduktion der Speicherkapazität Schnellere Übertragung Prinzipien: Wiederholungen in den Eingabedaten kompakter speichern

Mehr

10%, 7,57 kb 20%, 5,3 kb 30%, 4,33 kb 40%, 3,71 kb 50%, 3,34 kb. 60%, 2,97 kb 70%, 2,59 kb 80%, 2,15 kb 90%, 1,62 kb 99%, 1,09 kb

10%, 7,57 kb 20%, 5,3 kb 30%, 4,33 kb 40%, 3,71 kb 50%, 3,34 kb. 60%, 2,97 kb 70%, 2,59 kb 80%, 2,15 kb 90%, 1,62 kb 99%, 1,09 kb Die Komprimierung: Die Abkürzung JPG (oder auch JPEG) steht für "Joint Photographic Experts Group". Dieses Bildformat ist nach der Expertengruppe, die es erfunden hat, benannt. Die Komprimierung empfiehlt

Mehr

Arne Heyna/Marc Briede/Ulrich Schmidt: Datenformate im Medienbereich, Fachbuchverlag Leipzig 2003. John Watkinson: The MPEG Handbook, Focal Press 2001

Arne Heyna/Marc Briede/Ulrich Schmidt: Datenformate im Medienbereich, Fachbuchverlag Leipzig 2003. John Watkinson: The MPEG Handbook, Focal Press 2001 7. Bewegtbilder 7.1! Bewegungswahrnehmung 7.2! Videokompression!!! insbesondere MPEG-1 und MPEG-2 7.3! Videodatenformate Literatur: Arne Heyna/Marc Briede/Ulrich Schmidt: Datenformate im Medienbereich,

Mehr

Modulation. Kommunikationstechnik, SS 08, Prof. Dr. Stefan Brunthaler 104

Modulation. Kommunikationstechnik, SS 08, Prof. Dr. Stefan Brunthaler 104 Modulation Kommunikationstechnik, SS 08, Prof. Dr. Stefan Brunthaler 104 Datenfernübertragung I Über kurze Entfernungen können Daten über Kupferkabel übertragen werden, indem jedes Bit mit einer positiven

Mehr

Kompressionsverfahren

Kompressionsverfahren Kompressionsverfahren Quelle: Steinmetz, Ralf: Multimedia-Technologie: Einführung und Grundlagen, Springer, Verlag Adaptive Huffman - Kodierung Nach 17 Zeichen: A(1),B(2),C(2),D(2),E(10) Kodierung A: 000

Mehr

Videos die Videokamera

Videos die Videokamera Videos die Videokamera Steffen Schwientek Kurzvortrag zum Videokurs Themen heute Kurze Einführung in die Videotechnik Drehen eines kurzen Dokumentarfilmes Fernsehtechnik Kameratechnik (Kleine) Kaufberatung

Mehr

JPEG, MPEG & Co. Alex Titze Angewandte Informatik FHTW-Berlin

JPEG, MPEG & Co. Alex Titze Angewandte Informatik FHTW-Berlin Referat KIM Alex Titze Angewandte Informatik FHTW-Berlin 76900504811 Einleitung JPEG Geschichte & Überblick Komprimierungsablauf Farbformat DCT (Diskrete Cosinus Transformation) Quantisierung Koeffizientenkodierung

Mehr

Beispielhafte Testfragen (auch aus Schülerreferaten, Fragen können redundant sein, keine Audio Kompression berücksichtigt):

Beispielhafte Testfragen (auch aus Schülerreferaten, Fragen können redundant sein, keine Audio Kompression berücksichtigt): Beispielhafte Testfragen (auch aus Schülerreferaten, Fragen können redundant sein, keine Audio Kompression berücksichtigt): Was versteht man unter PCM, DPCM, DM, ADPCM? Skizze! Was versteht man unter PCM

Mehr

Bilddatenformate BMP GIF JPG. Digitale Bildverarbeitung Liedtke 7.1. Bezeichnung: Microsoft Windows Bitmap, BMP, DIB

Bilddatenformate BMP GIF JPG. Digitale Bildverarbeitung Liedtke 7.1. Bezeichnung: Microsoft Windows Bitmap, BMP, DIB Bilddatenformate BMP Bezeichnung: Microsoft Windows Bitmap, BMP, DIB Format: Raster Farben: 1 Bit (s/w), 4 Bit (16 Farben), 8 Bit (256 Farben), 24 Bit (16,7 Mio. Farben) Kompression: Keine (meist) oder

Mehr

Zahlensysteme: Oktal- und Hexadezimalsystem

Zahlensysteme: Oktal- und Hexadezimalsystem 20 Brückenkurs Die gebräuchlichste Bitfolge umfasst 8 Bits, sie deckt also 2 8 =256 Möglichkeiten ab, und wird ein Byte genannt. Zwei Bytes, also 16 Bits, bilden ein Wort, und 4 Bytes, also 32 Bits, formen

Mehr

Campus-TV der Uni Mainz

Campus-TV der Uni Mainz Die Themen Campus - TV Videosignal und Datenkompression Windows Media Encoder und RealProducer Formate bei Campus - TV Video Live Streams mit dem Media Encoder 1 Campus-TV der Uni Mainz Eine Initiative

Mehr

Die MPEG-Audiocodierverfahren

Die MPEG-Audiocodierverfahren Die MPEG-Audiocodierverfahren Johannes Hilpert Fraunhofer IIS, Erlangen http://www.iis.fraunhofer.de/amm 1 Themen Die MPEG-Audio Codierverfahren Wer oder was ist MPEG eigentlich? Von MPEG-1 bis MPEG-21

Mehr

Multimediatechnik / Video

Multimediatechnik / Video Multimediatechnik / Video Video-Verarbeitung Verarbeitung / Codecs / Formate Decodierung, Encodierung http://www.nanocosmos.de/lietz/mtv 1 Inhalt Video-Verarbeitung: Verarbeitung: Wiedergabe, Aufnahme

Mehr

EDV-Anwendungen im Archivwesen II

EDV-Anwendungen im Archivwesen II EDV-Anwendungen im Archivwesen II 070472 UE WS08/09 Digitale Formate (Beispiele) Überblick Kurzer Überblick über derzeit übliche Formate Bild Ton Video Archivierungsformate Ist Komprimierung immer zu vermeiden?

Mehr

Digitalisierung. analoges Signal PAM. Quantisierung

Digitalisierung. analoges Signal PAM. Quantisierung Digitalisierung U analoges Signal t U PAM t U Quantisierung t Datenreduktion Redundanzreduktion (verlustfrei): mehrfach vorhandene Informationen werden nur einmal übertragen, das Signal ist ohne Verluste

Mehr

Arne Heyna/Marc Briede/Ulrich Schmidt: Datenformate im Medienbereich, Fachbuchverlag Leipzig 2003. John Watkinson: The MPEG Handbook, Focal Press 2001

Arne Heyna/Marc Briede/Ulrich Schmidt: Datenformate im Medienbereich, Fachbuchverlag Leipzig 2003. John Watkinson: The MPEG Handbook, Focal Press 2001 7. Bewegtbilder 7.1 Bewegungswahrnehmung 7.2 Grundbegriffe der digitalen Videotechnik 7.3 Videokompression insbesondere MPEG-1 und MPEG-2 7.4 Videodatenformate Literatur: Arne Heyna/Marc Briede/Ulrich

Mehr

Video. Grundlagen Videokompression

Video. Grundlagen Videokompression Video Grundlagen Videokompression Videokompression: Motion Compensation Video 1. Grundlagen der Videokompression Damit im Film Bewegung flüssig dargestellt werden kann, benötigt man ca. 15-25 Bilder pro

Mehr

Fachbereich Medieninformatik. Hochschule Harz H.264/AVC. Referat. Olaf Cempel. Abgabe: 15.01.2007

Fachbereich Medieninformatik. Hochschule Harz H.264/AVC. Referat. Olaf Cempel. Abgabe: 15.01.2007 Fachbereich Medieninformatik Hochschule Harz H.264/AVC Referat Olaf Cempel 11273 Abgabe: 15.01.2007 Inhaltsverzeichnis 1 Einleitung...1 2 Einsatzgebiete...1 3 Funktionsweise von H.264...1 3.1 Slices und

Mehr

Bilder im BMP Format (1)

Bilder im BMP Format (1) Bilder im BMP Format (1) Eines der ältesten Bildformate ist das so genannte Bitmap Format. Entsprechende Dateien werden mit der Endung bmp gekennzeichnet. Wesentliche Eigenschaften von BMP Bildern sind:

Mehr

Basisinformationstechnologie II

Basisinformationstechnologie II Basisinformationstechnologie II Sommersemester 2013 19. Juni 2013 Audio / Video: Kompressionsverfahren Universität zu Köln. Historisch-Kulturwissenschaftliche Informationsverarbeitung Jan G. Wieners //

Mehr

Erfahrungsbericht Live Streaming Peter Bagschik, VfL Oker (www.vfloker.de)

Erfahrungsbericht Live Streaming Peter Bagschik, VfL Oker (www.vfloker.de) Erfahrungsbericht Live Streaming Peter Bagschik, VfL Oker (www.vfloker.de) Für eine Sportveranstaltung im Kunstturnen sollte für interessierte Zuschauer ein Live Video im Internet übertragen werden. Da

Mehr

Digitale Videoformate

Digitale Videoformate Was ist Video? Begriffsklärung: Videotechnik: allgemeine Verfahren und Ausstattung zur elektronischen Aufzeichnung, Speicherung und Wiedergabe von Bewegtbildinformationen und Toninformationen Video: jegliche

Mehr

Stefan Gössner 21.09.2004 Multimedia: Eine Einführung. Was ist Multimedia? Was ist ein Medium? Was ist Multimedia? Multimedia?

Stefan Gössner 21.09.2004 Multimedia: Eine Einführung. Was ist Multimedia? Was ist ein Medium? Was ist Multimedia? Multimedia? 1 of 7 Stefan Gössner 21.09.2004 Multimedia: Eine Einführung Stefan Gössner Was ist Multimedia? vielverwendeter Begriff hat was mit Computern zu tun? Multi + Media? Was ist ein Medium? Mittel zur Verbreitung

Mehr

Vorkurs Informatik WiSe 16/17

Vorkurs Informatik WiSe 16/17 Konzepte der Informatik Dr. Werner Struckmann / Stephan Mielke, Jakob Garbe, 14.10.2016 Technische Universität Braunschweig, IPS Inhaltsverzeichnis Bildcodierung Huffman scher Algorithmus Verlustbehaftete

Mehr

Woraus besteht ein Bild? 28.02.2008 (c) Winfried Heinkele 2006 2

Woraus besteht ein Bild? 28.02.2008 (c) Winfried Heinkele 2006 2 Woraus besteht ein Bild? 28.02.2008 (c) Winfried Heinkele 2006 2 Was ist ein Pixel? Die durch das Objektiv einer Kamera auf einen Film oder einen elektronischen Bildsensor projizierte Wirklichkeit ist

Mehr

Digitales Video. Digitales Video

Digitales Video. Digitales Video Digitales Video Analoges Signal ist durch Bildwandlung weitgehend quantisiert Zeitlich in Einzelbilder und räumlich in Zeilen Beim Einsatz eines CCD-Bildwandlers werden Bildpunkte gebildet Videosignal

Mehr

DVB Digital Video Broadcasting

DVB Digital Video Broadcasting DVB Digital Video Broadcasting MPEG 2 als Grundlage DVB-S Satellitenübertragung DVB-T Terrestrische Sender (Gleichwellenfunk, Überall-Fernsehen) DVB-C Kabelfernsehen DVD MPEG 2 und Stufen High beste Qualität

Mehr

Digitales Fernsehen DVB

Digitales Fernsehen DVB Digitales Fernsehen DVB Thomas Lauterbach DL1NAW 1. Video- und Audiokodierung (MPEG) 2. DVB 3. DVB-T in Nürnberg Quellen: U. Reimers, Digitale Fernsehtechnik http://www.dvb-t-baern.de Referate und Ausarbeitungen

Mehr

Digitale Bildverarbeitung (DBV)

Digitale Bildverarbeitung (DBV) Digitale Bildverarbeitung (DBV) Prof. Dr. Ing. Heinz Jürgen Przybilla Labor für Photogrammetrie Email: heinz juergen.przybilla@hs bochum.de Tel. 0234 32 10517 Sprechstunde: Montags 13 14 Uhr und nach Vereinbarung

Mehr

VC-1 / WMV-9 Entwicklung & Fähigkeiten

VC-1 / WMV-9 Entwicklung & Fähigkeiten Fachbereich Medieninformatik Hochschule Harz VC-1 / WMV-9 Entwicklung & Fähigkeiten Referat Jochen Oppermann Matrikel-Nr: 9486 Abgabe: 29.01.2007 Inhaltsverzeichnis 1 Einführung & Standardisierung... 1

Mehr

Im Original veränderbare Word-Dateien

Im Original veränderbare Word-Dateien Computergrafik Bilder, Grafiken, Zeichnungen etc., die mithilfe von Computern hergestellt oder bearbeitet werden, bezeichnet man allgemein als Computergrafiken. Früher wurde streng zwischen Computergrafik

Mehr

Wichtige Eigenschaft: zeitliche Abnahme der Schallintensität. Akustische Ereignisse sind zeitliche Phänomene mit Anfang und Ende

Wichtige Eigenschaft: zeitliche Abnahme der Schallintensität. Akustische Ereignisse sind zeitliche Phänomene mit Anfang und Ende Schallaufzeichnung Wichtige Eigenschaft: zeitliche Abnahme der Schallintensität Akustische Ereignisse sind zeitliche Phänomene mit Anfang und Ende Akustische Ereignisse sind vergänglich Akustische Ereignisse

Mehr

Aktenverwaltung einfach gemacht

Aktenverwaltung einfach gemacht Aktenverwaltung einfach gemacht Das Problem Der sichere und schnelle Zugriff auf Geschäftsakten und - Dokumente ist das Rückgrat jedes betrieblichen Informations- Management-Systems und kann wesentlich

Mehr

Analoges Video-Quellensignal

Analoges Video-Quellensignal Kapitel 2 Analoges Video-Quellensignal 2.1 Prinzip der Bildübertragung Fernsehen als ein Übertragungsverfahren der elektrischen Nachrichtentechnik beruht auf der Umwandlung der Helligkeits- und Farbverteilung

Mehr

1 Die Active Directory

1 Die Active Directory 1 Die Active Directory Infrastruktur Prüfungsanforderungen von Microsoft: Configuring the Active Directory Infrastructure o Configure a forest or a domain o Configure trusts o Configure sites o Configure

Mehr

Grundlagen der. Videokommunikation

Grundlagen der. Videokommunikation Grundlagen der Videokommunikation Netzwerke: Qualitäts- und Leistungserwartungen Netzwerke: Qualitäts- und Leistungserwartungen Netzwerke: über DFN X-WiN-Anbindung X-WiN ist im DFN-Verein technische Basis

Mehr

Dynamisches Huffman-Verfahren

Dynamisches Huffman-Verfahren Dynamisches Huffman-Verfahren - Adaptive Huffman Coding - von Michael Brückner 1. Einleitung 2. Der Huffman-Algorithmus 3. Übergang zu einem dynamischen Verfahren 4. Der FGK-Algorithmus 5. Überblick über

Mehr

Kontinuierliche Digitaltechnik als völlig neues Prinzip der Digitalisierung

Kontinuierliche Digitaltechnik als völlig neues Prinzip der Digitalisierung Kontinuierliche Digitaltechnik als völlig neues Prinzip der Digitalisierung Horst Völz Die Digitalisierung von Signalen insbesondere bei Audio und Video erfolgt im Wesentlichen unverändert seit reichlich

Mehr

Streaming Media - MPEG-4 mit Linux

Streaming Media - MPEG-4 mit Linux Streaming Media - MPEG-4 mit Linux Überblick Streaming Media Streaming Anbieter Benötigte Software Vorführung Videostreaming Streaming Was ist Streaming? Sender Daten Empfänger Kontinuierlicher Datenstrom

Mehr

Sortierverfahren für Felder (Listen)

Sortierverfahren für Felder (Listen) Sortierverfahren für Felder (Listen) Generell geht es um die Sortierung von Daten nach einem bestimmten Sortierschlüssel. Es ist auch möglich, daß verschiedene Daten denselben Sortierschlüssel haben. Es

Mehr

Videostreaming. Josko Hrvatin DMT. Prof. Dr. Robert Strzebkowski. TFH-Berlin WS 05/06

Videostreaming. Josko Hrvatin DMT. Prof. Dr. Robert Strzebkowski. TFH-Berlin WS 05/06 Josko Hrvatin DMT Prof. Dr. Robert Strzebkowski TFH-Berlin WS 05/06 Streaming Media Streaming Media ist der Oberbegriff von Streaming Audio und Streaming Video und bezeichnet die aus einem Computernetzwerk

Mehr

White paper. H.264 Video-Komprimierungsstandard. Neue Möglichkeiten bei der Videoüberwachung.

White paper. H.264 Video-Komprimierungsstandard. Neue Möglichkeiten bei der Videoüberwachung. White paper H.264 Video-Komprimierungsstandard. Neue Möglichkeiten bei der Videoüberwachung. Inhalt 1. Einleitung 3 2. Entwicklung von H.264 3 3. Funktionsweise von Videokomprimierung 4 4. H.264-Profile

Mehr

... relevante Ports für Streaming bzw. Remote Control!

... relevante Ports für Streaming bzw. Remote Control! ... relevante Ports für Streaming bzw. Remote Control! Wenn Sie mit der Installation des IO [io] 8000 / 8001 beginnen, ist es am sinnvollsten mit einem minilan zu beginnen, da dies mögliche Fehlrequellen

Mehr

Bitfehlerrate (bit error rate, BER) Die Bitfehlerrate ist das Verhältnis zwischen fehlerhaft empfangenen Bits zu den gesamt übertragenen Bits.

Bitfehlerrate (bit error rate, BER) Die Bitfehlerrate ist das Verhältnis zwischen fehlerhaft empfangenen Bits zu den gesamt übertragenen Bits. Glossar Abtastung, Quantisierung, Quellencodierung Bei DVB werden Bild-, Ton- und Zusatzinformationen als Datensignal in digitalisierter Form übertragen. Das analoge, zeit- und wertkontinuierliche Eingangssignal

Mehr

TCP/UDP. Transport Layer

TCP/UDP. Transport Layer TCP/UDP Transport Layer Lernziele 1. Wozu dient die Transportschicht? 2. Was passiert in der Transportschicht? 3. Was sind die wichtigsten Protkolle der Transportschicht? 4. Wofür wird TCP eingesetzt?

Mehr

Run Length Coding und Variable Length Coding

Run Length Coding und Variable Length Coding Fachbereich Medieninformatik Hochschule Harz Run Length Coding und Variable Length Coding Referat Matthias Zittlau 11034 Abgabe: 15.01.2007 Inhaltsverzeichnis 1. RLC...1 2.1 Einführung...1 2.2 Prinzip...1

Mehr

Schnellanleitung: Bilder für das Internet optimieren

Schnellanleitung: Bilder für das Internet optimieren Inhaltsverzeichnis Inhaltsverzeichnis... 1 Schnellanleitung: Bilder für das Internet optimieren... 1 Bilder für das Internet optimieren... 2 Auflösung bei Grafiken für Printmedien... 2 Auflösung bei Grafiken

Mehr

Systeme II 2. Multimedia

Systeme II 2. Multimedia Systeme II 2. Multimedia Thomas Janson, Kristof Van Laerhoven*, Christian Ortolf Folien: Christian Schindelhauer Technische Fakultät : Rechnernetze und Telematik, *: Eingebettete Systeme Albert-Ludwigs-Universität

Mehr

Kodierung. Kodierung von Zeichen mit dem ASCII-Code

Kodierung. Kodierung von Zeichen mit dem ASCII-Code Kodierung Kodierung von Zeichen mit dem ASCII-Code Weiterführende Aspekte zur Kodierung: Speicherplatzsparende Codes Fehlererkennende und -korrigierende Codes Verschlüsselnde Codes Spezielle Codes, Beispiel

Mehr

Dateiformate. 16.4.2015 CCS Leipzig 1

Dateiformate. 16.4.2015 CCS Leipzig 1 Dateiformate 1. Definitionsversuch 2. Grundsätzliche Einteilung 3. Ausführbare Dateien 4. Anwendungsdateien Audio- und Videodateien Bilddateien Officedateien (Text, Tabellen, Präsentationen) ASCII-Dateien

Mehr

SAT-Empfangsanlagentechnik

SAT-Empfangsanlagentechnik Bernhard Lang AXING AG Gewerbehaus Moskau CH 8262 Ramsen / Schweiz www.axing.com SAT-Empfangsanlagentechnik LNB und Rauschen L low N noice B block converter, rauscharmer Signalumsetzer Rauschmaß typ. 0,6

Mehr

PADS 3.0 Viewer - Konfigurationen

PADS 3.0 Viewer - Konfigurationen PADS 3.0 Viewer - Konfigurationen Net Display Systems (Deutschland) GmbH - Am Neuenhof 4-40629 Düsseldorf Telefon: +49 211 9293915 - Telefax: +49 211 9293916 www.fids.de - email: info@fids.de Übersicht

Mehr

Komprimieren von Bildern

Komprimieren von Bildern Komprimieren von Bildern Weshalb komprimiert man Bilder? Internet-Browser können lediglich eine begrenzte Zahl von Bilddateien lesen: Dies sind die Formate.gif,.jpg und.png. Man kann Bilder jedoch in einer

Mehr

MPEG Video Layer 1. Fachbereich Medieninformatik. Hochschule Harz. Referat. Kolja Schoon. Thema: MPEG Video Layer 1

MPEG Video Layer 1. Fachbereich Medieninformatik. Hochschule Harz. Referat. Kolja Schoon. Thema: MPEG Video Layer 1 Fachbereich Medieninformatik Hochschule Harz MPEG Video Layer 1 Referat Kolja Schoon 10952 Abgabe: 15.01.2007 Stand: (Januar 2007) Autor: Kolja Schoon Seite 1 Inhaltsverzeichnis 1. Einleitung / Vorwort...3

Mehr

Digital-ATV Signal-Verzögerung bei der MPEG-2 Übertragung

Digital-ATV Signal-Verzögerung bei der MPEG-2 Übertragung TechTalk 85 Digital-ATV Signal-Verzögerung bei der MPEG-2 Übertragung von Ken Konechy W6HHC und Hans Hass DC8UE In TechTalk 83 wurde unter anderem über die Signal- Verzögerung zwischen Kamera und Widergabe-

Mehr

BENUTZERANLEITUNG Adobe Media Encoder

BENUTZERANLEITUNG Adobe Media Encoder BENUTZERANLEITUNG Adobe Media Encoder 1 Übersicht SurCode for Dolby Digital konvertiert Ihre 5.1 Surround-Sounddateien in das Dolby Digital-Format (auch AC-3 genannt) innerhalb von Adobe Premiere Pro.

Mehr

Rheinisch-Westfälische Technische Hochschule Aachen Lehrstuhl für Informatik IV Prof. Dr. rer. nat. Otto Spaniol. Die MPEG Standards

Rheinisch-Westfälische Technische Hochschule Aachen Lehrstuhl für Informatik IV Prof. Dr. rer. nat. Otto Spaniol. Die MPEG Standards Rheinisch-Westfälische Technische Hochschule Aachen Lehrstuhl für Informatik IV Prof. Dr. rer. nat. Otto Spaniol Die MPEG Standards Proseminar: Internetprotokolle für die Multimediakommunikation Wintersemester

Mehr

Linear Workflow. Linear Workflow. Version 1.0-2011-10-11

Linear Workflow. Linear Workflow. Version 1.0-2011-10-11 Version 1.0-2011-10-11 Verfahren, Bilder unter Rücksichtnahme ihres Farbprofils und der des Ausgabegeräts zu berechnen (3D), bzw. zu bearbeiten (Compositing), um eine mathematisch und physikalisch korrekte

Mehr

Multimediatechnik / Video

Multimediatechnik / Video Multimediatechnik / Video Video-Verarbeitung Verarbeitung / Codecs / Formate http://www.nanocosmos.de/lietz/mtv Videoverarbeitung / Wiedergabe Einlesen von Videodaten von einer Quelle Disk/Internet/WLAN,

Mehr

Der neue Weg zur Audio-Verteilung in Echtzeit im LAN/WAN

Der neue Weg zur Audio-Verteilung in Echtzeit im LAN/WAN White Paper: AUDIO GATEWAY CODEC WP0503, MAYAH Communications GmbH InHouseStreaming Der neue Weg zur Audio-Verteilung in Echtzeit im LAN/WAN Paper Status: White Paper Language: German Keywords, Summary:

Mehr

Proseminar Datenkomprimierung Dr. U. Tamm. JPEG - Kompression WS 2002/03. Torsten Zichner

Proseminar Datenkomprimierung Dr. U. Tamm. JPEG - Kompression WS 2002/03. Torsten Zichner Proseminar Datenkomprimierung Dr. U. Tamm JPEG - Kompression WS 2002/03 Torsten Zichner Inhaltsangabe: 1. Einleitung 2. JPEG Kompression 2.1. Konvertierung des Bildes in ein geeignetes Farbmodell 2.2.

Mehr

ND.Zip & Notes/Domino 6

ND.Zip & Notes/Domino 6 ND.Zip for Notes Version 1.1 ND.Zip & Notes/Domino 6 Stand: 9.5.2003 Inhaltsverzeichnis 1 Inhaltsverzeichnis 2 ND.Zip: ein Muss auch für Notes/Domino 6! 3 LZ1 erzielt keinen Mehrwert, 4 Sofortiger und

Mehr

Bildbearbeitungstechniken Lehrerinformation

Bildbearbeitungstechniken Lehrerinformation Lehrerinformation 1/9 Arbeitsauftrag Ziel Zwanzig klassische Elemente der Bildbearbeitung werden vorgestellt. Die Sch arbeiten in Zweierteams und erarbeiten sich das Wissen zu je 1 2. Sie bearbeiten Bildausschnitte,

Mehr

Multimediatechnik / Video

Multimediatechnik / Video Multimediatechnik / Video Video-Verarbeitung Verarbeitung / Codecs / Formate Decodierung, Encodierung http://www.nanocosmos.de/lietz/mtv Oliver Lietz - Multimediatechnik / Video - 2010 1 Inhalt Video-Verarbeitung:

Mehr

Tutorial Komprimierung mit XviD

Tutorial Komprimierung mit XviD Tutorial Einleitung Vorbereitung Theorie Settings Fertigstellung Inhalt: wey (wey0un@tiscali.de) 2 Einleitung Dieser Guide gibt einen Überblick über die Kompression mit XviD. Zum Coden wurde das Open-Source

Mehr

3 GRAFIKEN, BILDER, ZEICHNUNGSOBJEKTE

3 GRAFIKEN, BILDER, ZEICHNUNGSOBJEKTE 3 GRAFIKEN, BILDER, ZEICHNUNGSOBJEKTE Grafiken, Bilder und Zeichnungsobjekte können in einer Präsentation mehrere Funktionen haben: Sie können eine Präsentation anschaulicher machen, können das Vorgeführte

Mehr

aft irtsch Der Vorfilm... er W er d artn etp tern In

aft irtsch Der Vorfilm... er W er d artn etp tern In Vitamine für Ihr Business Unser Thema heute: Der Vorfilm... Was wir für unsere Kunden tun... tun wir seit 1996. Wir betreiben Ihre Services. DC Berlin 1 DC Berlin 2 auf eigener Technik. Es sollte schon

Mehr

Bildanalyse und neue Workflows für eine verbesserte Bildqualität bei der Distribution

Bildanalyse und neue Workflows für eine verbesserte Bildqualität bei der Distribution Bildanalyse und neue Workflows für eine verbesserte Bildqualität bei der Distribution dirk hildebrandt wavelet beam 21 April 2015 FKTG Regionalgruppe Rhein-Main AGENDA: > Rauschanteile und Bildqualität

Mehr

Ein dynamisches Messdatenerfassungssystem großer Kanalanzahl, dezentral verteilt mit kaskadierbarer Rechenleistung

Ein dynamisches Messdatenerfassungssystem großer Kanalanzahl, dezentral verteilt mit kaskadierbarer Rechenleistung Gigabit-Ethernet machts möglich: Ein dynamisches Messdatenerfassungssystem großer Kanalanzahl, dezentral verteilt mit kaskadierbarer Rechenleistung Der Unternehmensbereich Power Generation innerhalb der

Mehr

Videoüberwachung & Zutrittssteuerung Professionelle Lösungen für mehr Sicherheit

Videoüberwachung & Zutrittssteuerung Professionelle Lösungen für mehr Sicherheit 1 Videoüberwachung & Zutrittssteuerung Professionelle Lösungen für mehr Sicherheit Die neue Firmware für SANTEC IP-Kameras: Mehr Features, mehr Leistung Die neue Firmware Version 2 3 Die neue Firmware

Mehr

Digitales Video. Codierung von Digital-Videos. Motion-JPEG H.261 MPEG-1 MPEG-2 andere. Telemedia 1 Vorlesungsskript 1

Digitales Video. Codierung von Digital-Videos. Motion-JPEG H.261 MPEG-1 MPEG-2 andere. Telemedia 1 Vorlesungsskript 1 Codierung von Digital-Videos Motion-JPEG H.261 MPEG-1 MPEG-2 andere Telemedia 1 Vorlesungsskript 1 Motion-JPEG (M-JPEG) JPEG-Bildfolge als Video betrachtet Abhängigkeiten zwischen Bildern nicht beachtet

Mehr

Web Datei Formate GIF JPEG PNG SVG. Einleitung. GIF Graphic Interchange Format. JPEG Joint Photographic Expert Group. PNG Portable Network Graphic

Web Datei Formate GIF JPEG PNG SVG. Einleitung. GIF Graphic Interchange Format. JPEG Joint Photographic Expert Group. PNG Portable Network Graphic Einleitung Graphic Interchange Format Joint Photographic Expert Group Portable Network Graphic scalabel Vector Graphic Fazit Übungsaufgabe Speichern Einleitung Das Web ist eines der wichtigsten Medien

Mehr

Kreatives Gestalten mit Flash 5.0

Kreatives Gestalten mit Flash 5.0 Kreatives Gestalten mit Flash 5.0 Animationen, Effekte und Anwendungen für das WWW Bearbeitet von Isolde Kommer 1. Auflage 2000. Buch. 444 S. Hardcover ISBN 978 3 446 21463 7 Format (B x L): 20,1 x 23,6

Mehr

Atomic Force Microscopy

Atomic Force Microscopy 1 Gruppe Nummer 103 29.4.2009 Peter Jaschke Gerd Meisl Atomic Force Microscopy Inhaltsverzeichnis 1. Einleitung... 2 2. Theorie... 2 3. Ergebnisse und Fazit... 4 2 1. Einleitung Die Atomic Force Microscopy

Mehr

Weniger ist mehr. Funktion eines Triggers. Messen + Testen

Weniger ist mehr. Funktion eines Triggers. Messen + Testen Messen + Testen Weniger ist mehr Ein Oszilloskop ist dumm, es unterscheidet nicht die Relevanz der Daten. Um der erfassten Datenflut Herr zu werden fischt der geschickte Anwender die relevanten Daten mit

Mehr

Erklärung und Unterschiede der Video-Formate

Erklärung und Unterschiede der Video-Formate Erklärung und Unterschiede der Video-Formate Also dann mal los: Alles was mit Avi enden soll wird mit VirtualDub bearbeitet Alles was als mpg enden soll in TMPGEnc Formate: DivX (derzeit 5.03, komp. mit

Mehr

1. Kurzer Rückblick: Datenkompression. 5. Kodierung und Übertragung der MPEG-Daten

1. Kurzer Rückblick: Datenkompression. 5. Kodierung und Übertragung der MPEG-Daten Digitale Videotechnik MPEG im Überblick 1. Kurzer Rückblick: Datenkompression 2. Standardisierung 3. MPEG DER Standard für digitale Videodaten 4. MPEG-Formate im Überblick 5. Kodierung und Übertragung

Mehr