HLSL PostProcess Shaders

Größe: px
Ab Seite anzeigen:

Download "HLSL PostProcess Shaders"

Transkript

1 HLSL Advanced 1 HLSL PostProcess Shaders Einführung PostProcess Effekte werden erst nach dem Rendern aller Objekte angewandt, nämlich auf das Render-Target (daher der Name). Das Spektrum der Möglichkeiten reicht von einfachen Farbfiltern (z.b. Sepia) bis hin zu doch recht aufwändigen Bewegungsunschärfeeffekten. Anstatt den Shader direkt auf das Render-Target in Vollbildgrösse anzuwenden, sollte man das Render-Target mit einem Filter herunterskalieren (Down-Sampling) und in einer Textur von beispielsweise einem sechszehntel der Originalgrösse zwischenspeichern. Auf diese herunterskalierte Textur können dann beliebig viele Shader angewandt werden. Damit spart man eine Menge Rechenzeit und das Endergebnis ist in etwa dasselbe. Die folgende Darstellung veranschaulicht die Funktionsweise: Abb. 1: Funktionsweise von PostProcess Effekten Das Ganze jetzt noch am Beispiel eines einfachen Blur-Shaders betrachtet: - Zuerst wird die ganze Szene in den Back-Buffer gerendert. - Nun muss der Back-Buffer in eine Textur mit denselben Abmessungen kopiert werden. Dies geschieht mittels der Funktion StretchRect, die über das Direct3D-Device aufgerufen wird. - In einem nächsten Schritt setzt man die eben gefüllte Textur für einen Shader, der die Farbwerte herunterrechnet. Die Ausgabe des Shaders wird in einer Textur mit viermal kleineren Kantenlängen gespeichert. Dies geschieht ganz einfach, indem man die kleine Textur ( 1 / 16 Back- Buffer-Grösse) als Render-Target für das Device setzt.

2 HLSL Advanced 2 - Momentaner Stand: eine Vollbild- und eine verkleinerte Textur, beide mit demselben Inhalt. Die Textur mit den Abmessungen des Back-Buffers wird im Folgenden nicht mehr verändert. Wenn wir mehr als einen Shader auf die verkleinerte Textur anwenden möchten (was ja der Fall ist), dann brauchen wir auf jeden Fall zwei Render-Targets, welche abwechslungsweise gesetzt werden können. Also erstellen wir eine noch eine dritte Textur (ebenfalls 1 / 16 Back-Buffer- Grösse) und setzen diese gerade als Render-Target. - Nun kommt der Blur-Shader zum Einsatz: Die Farbwerte werden aus der kleinen Textur gelesen, entsprechend verändert, und anschliessend eben in der dritten Textur abgespeichert. - Jetzt werden Render-Target und Quelltextur für den Shader gerade vertauscht: Die eben vom Shader veränderte Textur dient als Quelle für den nächsten Shader und die ehemalige Quelltextur wird nun ja nicht mehr benötigt und kann als Render-Target gesetzt werden. - Sind alle Shader durch, so werden die Vollbild- und die verkleinerte Textur, die als letztes als Render-Target diente, mit Hilfe eines weiteren Shaders zusammengeblendet (Texture- Lookups). Weshalb denn in den Back-Buffer rendern und nicht gleich in eine Textur? Eine Textur als Render- Target unterstützt kein Multisampling (Anti-Aliasing)! Natürlich könnte man, je nach dem, ob der Benutzer Kantenglättung wünscht oder nicht, von Anfang an in die Textur rendern, sodass der Kopiervorgang von Back-Buffer zu Textur wegfällt. Depth of Field (Tiefenunschärfe) Dies ist ein Effekt, der den Realismus eines Grafikprogramms wesentlich erhöht. Wie in der Natur auch, erscheinen weit entfernte Objekte leicht verschwommen, ebenso sehr nahe Objekte. Es ist komisch, wenn alle Objekte, egal wie weit sie vom Betrachter entfernt sind, genau gleich scharf gezeichnet werden. Also definiert man drei Ebenen: - Near Plane: alle Objekte, die sich hinter dieser Ebene befinden, werden völlig unscharf dargestellt - Focal Plane: alle Objekte, die sehr nahe bei dieser Ebene sind, sollen scharf gerendert werden. - Far Plane: Alle Objekte, die sich hinter der fernen Ebene befinden, werden völlig unscharf dargestellt. Zwischen Near und Focal Plane sowie zwischen Focal und Far Plane wird eine Interpolation durchgeführt.

3 HLSL Advanced 3 Abb. 2: Tiefeninformationen als 8-bit Graustufenwert Die folgende Funktion liefert den Faktor für die Interpolation, also einen Wert zwischen null und eins. Hinweise: Die Variable Distance ist nichts anderes als der z-wert der Vertexposition in View-Space. Die Ebenen können mit einem einzigen float-wert, welcher die Entfernung zur Kamera angibt, definiert werden, denn der normalisierte Blickrichtungsvektor bildet gerade den Normalenvektor der Ebene. float BlurFactor; if (Distance < g_focalplane) { // zwischen der Near Plane und Focal Plane BlurFactor = (Distance - g_focalplane) / (g_focalplane - g_nearplane); } else { // zwischen Focal Plane und Far Plane BlurFactor = (Distance - g_focalplane) / (g_farplane - g_focalplane); } // nur positive Werte BlurFactor = saturate(abs(blurfactor)); Der nun berechnete Faktor könnte im Alphakanal des Render-Targets abgespeichert werden. Ein anderer Ansatz ist beispielsweise die Verwendung einer separaten Textur für diesen Wert. Dann ist auch genügend Spielraum für Erweiterungen vorhanden. Will man z.b. zusätzlich zur Tiefe auch noch die Geschwindigkeit jedes einzelnen Pixels speichern (für Motion Blur), kann man diese Information ganz einfach im zweiten Farbkanal (grün) unterbringen. Ich würde empfehlen, jedes Objekt zweimal zu rendern. Einmal ganz gewöhnlich in den Back-Buffer, das zweite mal eben in diese Tiefentextur (wobei wir ja nur den rot-kanal belegen). Das hat den Vorteil, dass unabhängig vom DOF-Shader auch andere Vertex- und Pixel-Shader auf die Objekte angewendet werden können. Als erstes wird die ganze Szene in den Back-Buffer kopiert, dann in eine Fullscreen-Textur kopiert und mittels eines Down-Sampling-Shader (wie oben bereits beschrieben) eine viermal kleinere Textur

4 HLSL Advanced 4 erstellt ( 1 / 16 Grösse). Im DOF-Shader wird dann der Farbwert aus der grossen und aus der kleinen Textur gelesen. Mittels des Faktors, den wir oben berechnet haben, werden diese beiden Texturen zusammengeblendet. Die Formel entspricht der der vordefinierten Funktion lerp: Color FullscreenTexture + Factor Dof (Color SmallTexture Color FullscreenTexture ) Abb. 3: Der DOF-Shader im Einsatz (Fokus auf dem mittleren Objekt) Hinweise Tiefenunschärfen sehen zwar wirklich toll aus, aber ein Blick auf die Framerate verrät uns, dass diese Technik doch relativ hohe Anforderungen an die Hardware stellt. Man sollte sich dessen im Klaren sein und den DOF-Effekt daher nur dann einsetzen, wenn es sich wirklich lohnt (z.b. beim Terrain- Rendering). Wenn man dem Tiefenpuffer 8 Bits pro Farbkanal zur Verfügung stellt, reicht das gerade für 256 verschiedene Tiefenwerte. Deshalb empfehle ich, ein so genanntes Floating-Point Format zu verwenden (z.b. D3DFMT_R16F). Damit hat jeder Farbkanal 16 oder sogar 32 Bits zur Verfügung, was einem Spektrum von mehr als 65'000 respektive 4 Milliarden verschiedenen Werten entspricht.

5 HLSL Advanced 5 Weitere Techniken kurz erklärt Motion Blur (Bewegungsunschärfe) Nicht nur mit zunehmender Tiefe werden Objekte unscharf, sondern auch mit zunehmender Geschwindigkeit. Die Bewegungsunschärfe nennt man Motion Blur. Die Funktionsweise ist relativ einfach. Wie bei der Tiefenunschärfe wird die Szene in eine verkleinerte Textur kopiert und geblurt. Anstatt nun aber in einem separaten Durchgang die Tiefe in einen Puffer zu rendern, wird der Geschwindigkeitsvektor jedes einzelnen Pixels berechnet und als Farbe in ein Render-Target geschrieben. Im PostProcess-Shader wird dann die kleine geblurte Textur mit der Szene in Abhängigkeit der Geschwindigkeit des Pixels vermischt. Abb. 4: Motion Blur Bloom oder Glow Diese Technik verleiht den Objekten einen hellen Schein. Die Implementierung ist relativ einfach: - Szene in eine Fullscreen-Textur rendern - Fullscreen-Textur herunterskalieren und zwischenspeichern - einen Gaussian-Blur-Shader auf die verkleinerte Textur anwenden und die Farbwerte mit einem Faktor erhöhen - geblurte und normale Textur zusammenblenden

6 HLSL Advanced 6 Abb. 5: Bloom-Shader High Dynamic Range (HDR) Bis vor kurzem hatten Pixel maximal 24-bit Farbwerte, also acht Bit pro Kanal (RGB) und weitere acht Bit für den Alphakanal. Damit lassen sich rund 16.7 Millionen verschiedene Farben darstellen, das menschliche Auge kann aber nur wenige tausend Farbtöne unterscheiden, dafür aber extreme Helligkeitsunterschiede von bis zu 1000 : 1 (selbst die Farbe des Sonnenlichts können wir von der Farbe des künstlichen Lichts unterscheiden). Solche Helligkeitsunterschiede lassen sich aber mit den herkömmlichen 24 Bits nicht darstellen. Der Dynamikumfang, damit meint man den Unterschied zwischen dem hellsten und dunkelsten Farbwert, beträgt bei LDR (Low Dynamic Range) mit den 8-Bit- Kanälen gerade mal 1.0 resp Eine Technik namens HDR (High Dynamic Range) soll genau diese Lücke stopfen. Mit der HDR-Technik können Pixel nun grössere Farbwerte als 1.0 resp. 255 annehmen und somit lassen sich extreme Helligkeitsunterschiede besser darstellen. Da als Render- Target eine so genannte Floating-Point-Textur dient, stehen jedem Farbkanal 16 bis 32 Bits zur Verfügung, das entspricht einem Dynamikumfang von resp. von mehr als 4 Milliarden. Diese relativ neue und geniale Technik ist schon heute ein Pflichtfeature für jedes Computerspiel oder Grafikdemo. Für ganz Fleissige: Im Sample Browser des DirectX SDK gibt es ein Beispiel zu HDR-Lighting, das kann ich nur empfehlen.

7 HLSL Advanced 7 Quellenverzeichnis Literaturverzeichnis Microsoft DirectX SDK 9 Documentation: PostProcess Sample ATI Render Monkey 1.6: Depth Of Field Advanced Abbildungsverzeichnis Abb. 1 5: eigene Screenshots und Grafiken Copyright 2005 by Reto Da Forno Irrtümer vorbehalten

Die Welt der Shader. Fortgeschrittene Techniken III

Die Welt der Shader. Fortgeschrittene Techniken III Die Welt der Shader Fortgeschrittene Techniken III Universität zu Köln WS 14/15 Softwaretechnologie II (Teil 1) Prof. Dr. Manfred Thaller Referent: Lukas Kley Gliederung 1. Was ist ein Shader? 2. Verschiedene

Mehr

Probelektion zum Thema. Shadow Rendering. Shadow Maps Shadow Filtering

Probelektion zum Thema. Shadow Rendering. Shadow Maps Shadow Filtering Probelektion zum Thema Shadow Rendering Shadow Maps Shadow Filtering Renderman, 2006 CityEngine 2011 Viewport Real reconstruction in Windisch, 2013 Schatten bringen viel Realismus in eine Szene Schatten

Mehr

Farbtiefe. Gängige Farbtiefen

Farbtiefe. Gängige Farbtiefen Farbtiefe Die Anzahl der darstellbaren Farben ist abhängig von den Farbabstufungen, die in einem Pixel gespeichert werden. Die Anzahl der darstellbaren Farbtöne wird als Farbtiefe bezeichnet. Die Farbtiefe

Mehr

Prozedurale Texturen >>Was nicht passt wird passend gemacht...<<

Prozedurale Texturen >>Was nicht passt wird passend gemacht...<< Prozedurale Texturen >>Was nicht passt wird passend gemacht...

Mehr

Advanced Rendering Interior Szene

Advanced Rendering Interior Szene Advanced Rendering Interior Szene in Cinema 4D 11-11.5 Als erstes, sollten Sie ihre Szene in Cinema 4D öffnen. vergewissern sie sich, ob alle Licht quellen die evtl. mit importiert wurden, aus der Szene

Mehr

Kapitel 4: Schattenberechnung

Kapitel 4: Schattenberechnung Kapitel 4: Schattenberechnung 1 Überblick: Schattenberechnung Motivation Schattenvolumen Shadow Maps Projektive Schatten 2 Motivation Wesentlich für die Wahrnehmung einer 3D-Szene Eigentlich ein globaler

Mehr

Linear Workflow. Linear Workflow. Version 1.0-2011-10-11

Linear Workflow. Linear Workflow. Version 1.0-2011-10-11 Version 1.0-2011-10-11 Verfahren, Bilder unter Rücksichtnahme ihres Farbprofils und der des Ausgabegeräts zu berechnen (3D), bzw. zu bearbeiten (Compositing), um eine mathematisch und physikalisch korrekte

Mehr

Postprocessing. Algorithmen für Computerspiele. Alexander Martin 19. Juli 2010

Postprocessing. Algorithmen für Computerspiele. Alexander Martin 19. Juli 2010 Postprocessing Algorithmen für Computerspiele Alexander Martin 19. Juli 2010 Inhaltsverzeichnis 1. Einführung Definition Postprocessing Überblick Postprocessing generierte Bildeffekte Einordnung in den

Mehr

Real-Time High-Dynamic Range Texture Mapping

Real-Time High-Dynamic Range Texture Mapping Real-Time High-Dynamic Range Texture Mapping Jonathen Cohen, Chris Tchou, Tim Hawkins and Paul Debevec Präsentiert von Daniel Wickeroth Einführung Worum geht s? Darstellung realistischer Szenen Innen -

Mehr

Rendering Grundlagen Autodesk Maya. Grundlagen. Version 1.0-2009-04-08. 2009 Ingo Clemens brave rabbit www.braverabbit.de

Rendering Grundlagen Autodesk Maya. Grundlagen. Version 1.0-2009-04-08. 2009 Ingo Clemens brave rabbit www.braverabbit.de Rendering Grundlagen Version 1.0-2009-04-08 Allgemeine Unterschiede bei Renderern Scanline Rendering Raytrace Rendering Renderlayer Einsatz von Renderlayern Overrides Material Overrides Layer Presets Batch

Mehr

Rendern mit PSD Ebenen in Poser

Rendern mit PSD Ebenen in Poser Rendern mit PSD Ebenen in Poser Das Rendern in Ebenen gibt es seit Poser Pro 2010 und ist auch nur in den Pro Versionen vorhanden! Dieses Tutorial wurde mit Poser Pro 2014 und PaintShop Photo Pro erstellt.

Mehr

(10) Deferred Shading

(10) Deferred Shading (10) Deferred Shading Vorlesung Computergrafik II Stefan Müller Dank an Niklas Henrich, Gerrit Lochmann Wdh. 1: Framebufferobjects (FBOs) Statt in den Framebuffer direkt zu rendern, kann man Texturen attachen,

Mehr

Christina Nell. 3D-Computergrafik

Christina Nell. 3D-Computergrafik Christina Nell 3D-Computergrafik Was ist 3D-Computergrafik? 3D graphics is the art of cheating without getting caught. (unbekannte Quelle) Folie 2/52 Inhalt Beleuchtung Shading Texturierung Texturfilterung

Mehr

(7) Normal Mapping. Vorlesung Computergraphik II S. Müller. Dank an Stefan Rilling U N I V E R S I T Ä T KOBLENZ LANDAU

(7) Normal Mapping. Vorlesung Computergraphik II S. Müller. Dank an Stefan Rilling U N I V E R S I T Ä T KOBLENZ LANDAU (7) Normal Mapping Vorlesung Computergraphik II S. Müller Dank an Stefan Rilling Einleitung Die Welt ist voller Details Viele Details treten in Form von Oberflächendetails auf S. Müller - 3 - Darstellung

Mehr

FARBTIEFE / KANÄLE 1 5

FARBTIEFE / KANÄLE 1 5 1 5 FARBTIEFE Die Farbtiefe gibt an, wieviel bit an Informationen pro Pixel gespeichert werden. Je mehr bits gespeichert werden, desto mehr verschiedene Farbabstufungen können dargestellt werden. Farbtiefe

Mehr

Digitale Schwarz-Weiß-Fotografie

Digitale Schwarz-Weiß-Fotografie Digitale Schwarz-Weiß-Fotografie Warum Schwarz-Weiß? Zonensystem, Dynamikumfang und Bittiefe Bewusst SW fotografieren Der Kamera-Workflow SW-Umsetzung die falschen Wege SW-Umsetzung die richtien Wege Der

Mehr

Direct3D. (Scherfgen S )

Direct3D. (Scherfgen S ) Direct3D (Scherfgen S. 98-131) Universität zu Köln Historisch-Kulturwissenschaftliche Informationsverarbeitung WS 14/15 AM3 Hauptseminar Softwaretechnologie II (Teil 1): Simulation und 3D Programmierung

Mehr

Der Einsatz von HDRIs in LightWave 7

Der Einsatz von HDRIs in LightWave 7 Seite 1 DOSCH DESIGN TUTORIAL Der Einsatz von HDRIs in LightWave 7 Eine Schritt-für-Schritt-Anleitung LightWave kann ab der Version 6.5 HDRIs (High Dynamic Range Images) als Beleuchtung und Hintergrund

Mehr

Beleuchtung. in Computerspielen

Beleuchtung. in Computerspielen Beleuchtung in Computerspielen Motivation Überblick Licht und Schattierung Lichtquellen Lokale Beleuchtungsmodelle Schattierungsverfahren Oberflächensimulation Beispiele der CryEngine Ausblick Zusammenfassung

Mehr

Echtzeit-Röntgenbildverarbeitung mit Standardhardware erschien in Bildverarbeitung für die Medizin 2004 ISSN X ISBN

Echtzeit-Röntgenbildverarbeitung mit Standardhardware erschien in Bildverarbeitung für die Medizin 2004 ISSN X ISBN Echtzeit-Röntgenbildverarbeitung mit Standardhardware erschien in Bildverarbeitung für die Medizin 2004 ISSN 1431-472-X ISBN 3-540-21059-8 Springer-Verlag Berlin Heidelberg New York Echtzeit-Röntgenbildverarbeitung

Mehr

Übung zu Einführung in die Informatik # 14

Übung zu Einführung in die Informatik # 14 Übung zu Einführung in die Informatik # 14 Tobias Schill tschill@techfak.uni-bielefeld.de 12. Februar 2016 Aktualisiert am 12. Februar 2016 um 11:13 Erstklausur: Mi, 24.02.2016 von 10-12Uhr Antworten von

Mehr

HDR für Einsteiger Wann brauche ist das? Anregungen aus Fotobuch und ersten eigenen Erfahrungen von Christian Sischka

HDR für Einsteiger Wann brauche ist das? Anregungen aus Fotobuch und ersten eigenen Erfahrungen von Christian Sischka HDR für Einsteiger Wann brauche ist das? Anregungen aus Fotobuch und ersten eigenen Erfahrungen von Christian Sischka Thema Was ist HDR? Wann ist es sinnvoll es anzuwenden? Wie mache ich ein HDR? Was stelle

Mehr

Image Based Lighting High Dynamics Range Rendering in Maya und Mental Ray

Image Based Lighting High Dynamics Range Rendering in Maya und Mental Ray Image Based Lighting High Dynamics Range Rendering in Maya und Mental Ray Image Based Lighting Einleitung Image Based Lighting (IBL) ist ein Beleuchtungs- Verfahren, bei dem keine Standard-Lichtquellen

Mehr

Terrain-Rendering mit Geometry Clipmaps

Terrain-Rendering mit Geometry Clipmaps Vorarbeiten & Grundlagen Basiskomponenten Der Clipmap-Algorithmus Terrain-Rendering mit Seminar Computergrak 2010 Vorarbeiten & Grundlagen Basiskomponenten Der Clipmap-Algorithmus Worum geht's? Algorithmus

Mehr

Seminar Game Development Game Computer Graphics. Einleitung

Seminar Game Development Game Computer Graphics. Einleitung Einleitung Gliederung OpenGL Realismus Material Beleuchtung Schatten Echtzeit Daten verringern Grafik Hardware Beispiel CryEngine 2 Kristian Keßler OpenGL Was ist OpenGL? Grafik API plattform- und programmiersprachenunabhängig

Mehr

1. Sichtbarkeitsproblem beim Rendern einer dreidimensionalen Szene auf einer zweidimensionalen

1. Sichtbarkeitsproblem beim Rendern einer dreidimensionalen Szene auf einer zweidimensionalen 3D-Rendering Ulf Döring, Markus Färber 07.03.2011 1. Sichtbarkeitsproblem beim Rendern einer dreidimensionalen Szene auf einer zweidimensionalen Anzeigefläche (a) Worin besteht das Sichtbarkeitsproblem?

Mehr

Let's talk Gimp Farbräume. RGB-Farbraum. Digitales Gestalten mit Open Source

Let's talk Gimp Farbräume. RGB-Farbraum. Digitales Gestalten mit Open Source Unter Farbmodelle versteht man die Aufteilung in unterschiedliche Farbräume, über die eine Farbe definiert werden kann. Alle hier genannten Farbräume werden in Gimp dargestellt: Die bekanntesten sind:

Mehr

Asteroids3D Seminar: Game Programming. Anita Dieckhoff, Pedro Flemming, Jan Ole Vollmer Betreuung: Christine Lehmann

Asteroids3D Seminar: Game Programming. Anita Dieckhoff, Pedro Flemming, Jan Ole Vollmer Betreuung: Christine Lehmann Asteroids3D Seminar: Game Programming Anita Dieckhoff, Pedro Flemming, Jan Ole Vollmer Betreuung: Christine Lehmann Gliederung 2 1. Live-Demo und Spielidee 2. Softwarearchitektur und Szenengraph Übersicht

Mehr

Im Original veränderbare Word-Dateien

Im Original veränderbare Word-Dateien Bildbearbeitung Unter der digitalen Bildbearbeitung versteht man die computergestützte Bearbeitung von Bitmaps, zumeist Fotos oder gescannten Bildern. Dabei werden die Bilder oder Teile der Bilder verändert.

Mehr

HLSL High-Level Shader Language

HLSL High-Level Shader Language HLSL Einführung 1 HLSL High-Level Shader Language High-Level Shader Language ist eine relativ neue Programmiersprache für die Graphic Processing Unit (GPU). Mit HLSL ist das Programmieren von Shadern mit

Mehr

Jens Konerow. Managed DirectX und C#

Jens Konerow. Managed DirectX und C# Jens Konerow Managed DirectX und C# Jens Konerow Managed DirectX und C# Einstieg und professioneller Einsatz Jens Konerow: Managed DirectX und C# Einstieg und professioneller Einsatz ISBN-10: 3-935082-17-4

Mehr

C++ Tutorial: Timer 1

C++ Tutorial: Timer 1 C++ Tutorial: Timer 1 Timer v1.0 Einleitung Raum und Zeit sind spätestens seit der kopernikanischen Wende wichtige Gegenstände des Denkens geworden. In einem Programm bestimmt die Zeit die Abläufe und

Mehr

FARBKORREKTUR. Überlegungen vor der Farbkorrektur. Bevor mit der Korrektur von Farb- und Tonwerten begonnen wird, sollte Folgendes beachtet werden:

FARBKORREKTUR. Überlegungen vor der Farbkorrektur. Bevor mit der Korrektur von Farb- und Tonwerten begonnen wird, sollte Folgendes beachtet werden: FARBKORREKTUR Überlegungen vor der Farbkorrektur Bevor mit der Korrektur von Farb- und Tonwerten begonnen wird, sollte Folgendes beachtet werden: Eigentlich sollte stets ein kalibrierter Monitor mit Farbprofil

Mehr

Diplomarbeit. Neue Möglichkeiten durch programmierbare Shader. Unter der Leitung von: Prof. Dr.-Ing. Detlef Krömker

Diplomarbeit. Neue Möglichkeiten durch programmierbare Shader. Unter der Leitung von: Prof. Dr.-Ing. Detlef Krömker Diplomarbeit 5HDO7LPH6SHFLDO (IIHFWV Neue Möglichkeiten durch programmierbare Shader Unter der Leitung von: Prof. Dr.-Ing. Detlef Krömker Betreut von: Paul Grimm, Ralf Dörner Beginn: 01.04.02 Abgabe: 30.09.02

Mehr

Hardware Tessellation in DirectX11 zur Berechnung von Levels of Detail in Echtzeitanwendungen

Hardware Tessellation in DirectX11 zur Berechnung von Levels of Detail in Echtzeitanwendungen MASTER THESIS zur Erlangung des akademischen Grades Master of Science in Engineering im Studiengang 585 Hardware Tessellation in DirectX11 zur Berechnung von Levels of Detail in Echtzeitanwendungen Ausgeführt

Mehr

Posertutorial - Renderoptionen. Rendern in Poser 3

Posertutorial - Renderoptionen. Rendern in Poser 3 Rendern in Poser 3 Schon mal darüber geärgert, dass man zwar ein tolles Hintergrundbild hat, womit man eventuell ein sehr schönes Poser Bild zustande kriegen könnte, es aber leider viel grösser war, als

Mehr

"rendern" = ein abstraktes geometrisches Modell sichtbar machen

rendern = ein abstraktes geometrisches Modell sichtbar machen 3. Grundlagen des Rendering "rendern" = ein abstraktes geometrisches Modell sichtbar machen Mehrere Schritte: Sichtbarkeitsberechnung Beleuchtungsrechnung Projektion Clipping (Abschneiden am Bildrand)

Mehr

Spezialprozessoren zur Übernahme Grafik-spezifischer Aufgaben, vorrangig der Bildschirmausgabe

Spezialprozessoren zur Übernahme Grafik-spezifischer Aufgaben, vorrangig der Bildschirmausgabe Grafikprozessoren Spezialprozessoren zur Übernahme Grafik-spezifischer Aufgaben, vorrangig der Bildschirmausgabe 2D: Berechnung der Bildes aus einfachen Grafikprimitiven 3D: Bildaufbau aus räumlicher Beschreibung

Mehr

Jörn Loviscach Hochschule Bremen

Jörn Loviscach Hochschule Bremen Programmierbare Hardware-Shader Jörn Loviscach Hochschule Bremen Überblick Vertex- und Pixel-Shader Anwendungsbeispiele fx-dateien Anwendungsbeispiele Zusammenfassung Puffer Vertex- und Pixel-Shader Hardware-Renderpipeline

Mehr

Ajdovic/Mühl Farbmodelle FARBMODELLE

Ajdovic/Mühl Farbmodelle FARBMODELLE FARBMODELLE Grundlagen: Gegenstände, die von einer Lichtquelle beleuchtet werden, reflektieren und absorbieren jeweils einen Teil des Lichts. Dabei wird das von den Gegenständen reflektierte Licht vom

Mehr

Grundlagen der Spieleprogrammierung

Grundlagen der Spieleprogrammierung Grundlagen der Spieleprogrammierung Teil I: 3D-Graphik Kapitel 9: Engines, Cg und anderes Peter Sturm Universität Trier Outline 1. Übersicht und Motivation 2. Mathematische Grundlagen 3. Das Ideal: Photorealistisch

Mehr

Benutzerhandbuch Deutsch

Benutzerhandbuch Deutsch 1 Gmini 402 CamCorder CamCorder and Camera functions Benutzerhandbuch Das neueste Handbuch und die neueste Firmware für dieses Produkt finden Sie auf unserer Website. v 1.0 1 1 Video Aufnehmen eines Videos

Mehr

3D Programmierpraktikum: Schattenberechnung in Echtzeit

3D Programmierpraktikum: Schattenberechnung in Echtzeit 3D Programmierpraktikum: Schattenberechnung in Echtzeit Praktikum 3D Programmierung Sebastian Boring, Otmar Hilliges Donnerstag, 20. Juli 2006 LMU München Medieninformatik Boring/Hilliges 3D Programmierpraktikum

Mehr

Nichtrealistische Darstellung von Gebirgen mit OpenGL

Nichtrealistische Darstellung von Gebirgen mit OpenGL Nichtrealistische Darstellung von Gebirgen mit OpenGL Großer Beleg Torsten Keil Betreuer: Prof. Deussen Zielstellung Entwicklung eines Algorithmus, der die 3D- Daten einer Geometrie in eine nichtrealistische

Mehr

Zwischenvortrag zum Entwicklungsstand der Bachelor-Arbeit. Direct 3D-Output für ein Rendering Framework

Zwischenvortrag zum Entwicklungsstand der Bachelor-Arbeit. Direct 3D-Output für ein Rendering Framework Zwischenvortrag zum Entwicklungsstand der Bachelor-Arbeit Direct 3D-Output für ein Rendering Framework von Benjamin Betting unter der Betreuung von Daniel Schiffner 1 Gliederung Kapitel I und II: Motivation,Einführung,Grundlagen

Mehr

Bilder im Tagebuch Bildformate BMP muss JPG werden Bildgröße

Bilder im Tagebuch Bildformate BMP muss JPG werden Bildgröße Bilder im Tagebuch Tagebucheinträge können um Bildern ergänzt werden und das auf verschiedene Arten. Dieser Artikel zeigt alle Möglichkeiten auf. Wieweit die sinnvoll sind, muss jeder selbst entscheiden.

Mehr

Programmierpraktikum 3D Computer Grafik

Programmierpraktikum 3D Computer Grafik Prof. Andreas Butz, Dipl.Inf. Otmar Hilliges Programmierpraktikum 3D Computer Grafik Dynamische Schattenberechnung Agenda Der Stencil-Puffer Der 1-bit Stencil-Puffer Der 8-bit Stencil-Puffer Volumetrische

Mehr

Lights & Cameras Grundlagen Autodesk Maya. Grundlagen. Version Ingo Clemens brave rabbit

Lights & Cameras Grundlagen Autodesk Maya. Grundlagen. Version Ingo Clemens brave rabbit Lights & Cameras Grundlagen Version 1.0-2009-06-15 Grundlagen 3D Beleuchtung Reguläre Lichter in 3D sind in erster Linie direkt beleuchtende Lichtquellen es gibt keine diffuse Beleuchtung durch die Reflexion

Mehr

Bildbearbeitung und Texturierung

Bildbearbeitung und Texturierung Ulf Döring, Markus Färber 07.03.2011 1. Anti-Aliasing (a) Wodurch entsteht der Aliasing-Effekt bei der Rasterisierung einer Linie? (b) Wie kann der Aliasing-Effekt durch Supersampling mit nachträglichem

Mehr

3D-Oberflächen-Rekonstruktion und plastisches Rendern aus Bilderserien

3D-Oberflächen-Rekonstruktion und plastisches Rendern aus Bilderserien plastisches Rendern aus Bilderserien Sebastian Schäfer Carsten Heep Detlef Krömker Unterstüzung: Thomas Lehmann Krister Smith Naturmuseum Senckenberg Übersicht Motivation & Problemstellung Verfahren Anforderungen

Mehr

HDR Aufnahmetechniken. B.Eng. Paschá Kulijew Limelight Photography

HDR Aufnahmetechniken. B.Eng. Paschá Kulijew Limelight Photography HDR Aufnahmetechniken B.Eng. Paschá Kulijew Limelight Photography Teil 1: Vorüberlegungen Was bedeuten DR? Absolute Definition : Dynamic Range DR ist das Verhältnis von einer maximaler physikalischer Größe

Mehr

Aufbau interaktiver 3D-Engines

Aufbau interaktiver 3D-Engines Aufbau interaktiver 3D-Engines ActorComponents Im Folgenden findet sich eine Übersicht über alle bereits implementierten Actorcomponents der Engine. Dabei werden XML-Elemente, die die Komponente beschreiben

Mehr

Einführung in Truevision3D

Einführung in Truevision3D Einführung in Truevision3D Einleitung: In diesem Artikel werden wir uns mit der Truevision Engine beschäftigen, ihr werdet lernen wie man in C# auf die Engine zugreift und wie man einfache 2D Ausgaben

Mehr

Bildschirmauflösungen im Vergleich (verkleinert!)

Bildschirmauflösungen im Vergleich (verkleinert!) Bildschirmauflösungen im Vergleich (verkleinert!) nun zur Farbtheorie... Die Farbräume RGB CMYK Rot, Grün, Blau addieren sich zu weißem Licht - Additive Lichtmischung Cyan, Magenta, Yellow verschlucken

Mehr

RTT DeltaGen Suite. Materialeinstellungen für OpenGL, RTT RealTrace & Global illumination. Copyright 2010 by Realtime Technology AG

RTT DeltaGen Suite. Materialeinstellungen für OpenGL, RTT RealTrace & Global illumination. Copyright 2010 by Realtime Technology AG RTT DeltaGen Suite Materialeinstellungen für OpenGL, RTT RealTrace & Global illumination Copyright 2010 by Realtime Technology AG Look Editor Der Look Editor zeigt die Eigenschaften des Looks des selektierten

Mehr

Zu hell oder zu dunkel? Histogramm im ueye Cockpit nutzen

Zu hell oder zu dunkel? Histogramm im ueye Cockpit nutzen Zu hell oder zu dunkel? Histogramm im ueye Cockpit nutzen Kennen Sie das? Ihr Bild wirkt flau oder in dem dunklen, kontrastarmen Bild können Sie die aufgenommenen Objekte nicht unterscheiden. In diesem

Mehr

Games Engines. Realtime Terrain Rendering

Games Engines. Realtime Terrain Rendering Games Engines Realtime Terrain Rendering RTR Gliederung Probleme & Anforderungen Grundlagen Heightmaps und Paging Visibility View Frustrum Culling Occlusion Culling/ Occlusion Map Fogging Level of Detail

Mehr

Grundlagen digitaler Bildbearbeitung

Grundlagen digitaler Bildbearbeitung Grundlagen digitaler Bildbearbeitung Folie 2 Inhaltsübersicht Bitmaps und Vektorgrafiken Grafikformate Farbräume und Farbmodelle Farbmodus (Farbtiefe) Bildauflösung Webfarben Folie 3 Bitmaps und Vektorgrafiken

Mehr

computer graphics & visualization

computer graphics & visualization Entwicklung und Implementierung echtzeitfähiger Verfahren zur Darstellung von reflektierenden Objekten auf GPUs echtzeitfähiger Verfahren zur Darstellung von reflektierenden Objekten auf GPUs Motivation

Mehr

Rahmen Dragonlove. Das Copyright dieses Bild liegt bei Anne Stokes

Rahmen Dragonlove. Das Copyright dieses Bild liegt bei Anne Stokes Rahmen Dragonlove Dieser Rahmen ist von mir selbst ausgedacht jede Ähnlichkeit mit anderen Rahmen ist rein zufällig und nicht beabsichtigt by Sabine geschrieben mit PS CS 3 am 07.05.2010 Das Copyright

Mehr

Praktikum im Bereich Praktische Informatik Echtzeitgraphik in C++ und DirectX10. computer graphics & visualization

Praktikum im Bereich Praktische Informatik Echtzeitgraphik in C++ und DirectX10. computer graphics & visualization Praktikum im Bereich Praktische Informatik Echtzeitgraphik in C++ und DirectX10 Billboards Letztes Übungsblatt: Meshes & Instancing um dem Terrain zusätzliche Details (Vegtation) hinzuzufügen. Nachteil:

Mehr

Einführung in Final Cut Studio 2

Einführung in Final Cut Studio 2 Einführung in Final Cut Studio 2 Vorhandene Themen: 1. Vorbereitungen + Neues Projekt anlegen und sichern 2. Videofilm von DV Kassette importieren 3. Filmsequenzen ausschneiden 4. Übergänge einfügen und

Mehr

Fakultät für Informatik

Fakultät für Informatik Fakultät für Informatik der Technische Universität München Seminararbeit Advanced Topics in Computer Graphics and Visualization Subpixel Reconstruction Antialiasing for Deferred Shading Peter Arndt Einleitung

Mehr

8 Cycles. ein GUI-basierter Ansatz wie bei den Blender-Intern-Materialien.

8 Cycles. ein GUI-basierter Ansatz wie bei den Blender-Intern-Materialien. 301 Cycles ist die seit Blender 2.61 verfügbare physikbasierte Renderengine. Hauptentwickler ist Brecht van Lommel, der schon lange die interne Renderengine in Blender betreut. Nachdem Blender Intern mit

Mehr

Bilder korrigieren. So sieht das ursprüngliche Bild aus: So sieht das Bild nach den Korrekturen aus:

Bilder korrigieren. So sieht das ursprüngliche Bild aus: So sieht das Bild nach den Korrekturen aus: Bilder korrigieren Willkommen bei Corel PHOTO-PAINT, der leistungsfähigen Anwendung zum Bearbeiten von Fotos und zum Erstellen von Bitmaps. In diesem Lernprogramm lernen Sie, wie Sie einfache Bildkorrekturen

Mehr

HDR-Aufnahmetechnik mit Raw-Workflow

HDR-Aufnahmetechnik mit Raw-Workflow HDR-Aufnahmetechnik mit Raw-Workflow Prof. Gregor Fischer Klaus Hesse-Camozzi FH Köln Institut für Medien- und Phototechnik Dr.-Ing. Nils Kohlhase Dr.-Ing. Volker Zimmer Leica Camera AG Überblick Motivation

Mehr

Softwareprojekt Spieleentwicklung

Softwareprojekt Spieleentwicklung Softwareprojekt Spieleentwicklung Prototyp I (2D) Prototyp II (3D) Softwareprojekt 12.04. 19.04. 26.04. 03.05. 31.05. Meilenstein I 28.06. Meilenstein II Prof. Holger Theisel, Tobias Günther, OvGU Magdeburg

Mehr

5 - CAMERA - RIG ADOBE AFTER EFFECTS. von Christoph Schreiber und Stefan Bernhardt Fulldome - Fachmodul WS 2010 / 11 Bauhaus - Universität Weimar

5 - CAMERA - RIG ADOBE AFTER EFFECTS. von Christoph Schreiber und Stefan Bernhardt Fulldome - Fachmodul WS 2010 / 11 Bauhaus - Universität Weimar ADOBE AFTER EFFECTS 5 - CAMERA - RIG von Christoph Schreiber und Stefan Bernhardt Fulldome - Fachmodul WS 2010 / 11 Bauhaus - Universität Weimar Beim 5 - Camera - Rig wird mit Hilfe von 5 Kameras ein Fulldome

Mehr

Debayeringverfahren. 19. Mai Thomas Noack, Nikolai Kosjar. SE Computational Photography - Debayeringverfahren

Debayeringverfahren. 19. Mai Thomas Noack, Nikolai Kosjar. SE Computational Photography - Debayeringverfahren Debayeringverfahren Thomas Noack, Nikolai Kosjar 19. Mai 2010 Was bisher geschah... Reduktion der Herstellungskosten durch Einsatz von nur noch einem CCD-Sensor mit Bayer-Filter Problem: Bayer Image Full

Mehr

So funktioniert eine Digitalkamera Lehrerinformation

So funktioniert eine Digitalkamera Lehrerinformation Lehrerinformation 1/6 Arbeitsauftrag Die SuS lösen die Arbeitsblätter und lernen dabei die Grundlage der Funktionsweise einer Digitalkamera kennen. Damit sie sich etwas darunter vorstellen können, zeigt

Mehr

Digital Imaging Einführung

Digital Imaging Einführung Tutorium Digital Imaging Einführung 7./14. Juli 2004 Martin Stricker martin.stricker@rz.hu-berlin.de Bilder bestehen aus Pixeln Die Maße eines Bildes bestimmen sich aus Breite x Höhe in Pixeln (Auflösung)

Mehr

GAAANZ wichtiger Hinweis:

GAAANZ wichtiger Hinweis: Bildbearbeitung, da denkt jeder sofort erst einmal an GIMP oder an Photoshop oder Neben den Boliden der Branche gibt es viele kleine kostenlose Programme, sog. Freeware, die ganz spezielle Aufgaben lösen

Mehr

Digital Image Interpolation with CUDA

Digital Image Interpolation with CUDA Digital Image Interpolation with CUDA Matthias Schwarz & Martin Rustler Hardware-Software-Co-Design Universität Erlangen-Nürnberg matthias.schwarz@e-technik.stud.uni-erlangen.de martin.rustler@e-technik.stud.uni-erlangen.de

Mehr

2 Los geht s! Unkomplizierter geht s kaum!

2 Los geht s! Unkomplizierter geht s kaum! 2 Los geht s! Das Fotografieren mit dem iphone geht schnell und einfach. Um Fotos zu machen, brauchen Sie nicht einmal den Bildschirm zu entsperren. Tippen Sie nur auf das kleine Kamerasymbol, das auf

Mehr

Grundlagen der Spieleprogrammierung

Grundlagen der Spieleprogrammierung Grundlagen der Spieleprogrammierung Teil I: 3D-Graphik Kapitel 8: Hardware Peter Sturm Universität Trier Outline 1. Übersicht und Motivation 2. Mathematische Grundlagen 3. Das Ideal: Photorealistisch (Raytracing,

Mehr

Universität Osnabrück Fachbereich Mathematik / Informatik. 5. Vorlesung ( )

Universität Osnabrück Fachbereich Mathematik / Informatik. 5. Vorlesung ( ) Universität Osnabrück Fachbereich Mathematik / Informatik 5. Vorlesung (06.05.2013) Prof. Dr. rer. nat. Oliver Vornberger Nico Marniok, B. Sc. Erik Wittkorn, B. Sc. Game Application Layer Rückblick Game

Mehr

Funktionen nur wenn dann

Funktionen nur wenn dann Funktionen nur wenn dann Funktionen können auch nur in bestimmten Fällen angewendet werden. Code wird nur in einem bestimmten Fall ausgeführt Code Ja Code Block wahr if wahr? Nein else Code Block Alternative

Mehr

Eigene Texturen für DAZ 3D-Studio 3.1

Eigene Texturen für DAZ 3D-Studio 3.1 Dies ist eine Anleitung der Künstlerin und Autorin Efyriel von Tierstein (kurz: EvT) Die Anleitung ist nur für den privaten Gebrauch gedacht und EvT übernimmt keine Garantien dafür, dass eine Arbeit nach

Mehr

Programmieren mit DirectX

Programmieren mit DirectX 2D 3D Programmieren mit DirectX Teil 3: Malte Ried Fachhochschule Gießen-Friedberg 30. Oktober 2005 Inhalt 2D 3D 1 2D 2 3D 3 2D 3D Bis jetzt Windows-Fenster, das man schließen kann initialisiertes Direct3D

Mehr

3d Tracking bezeichnet eine Technik im Film, die es erlaubt, virtuelle Objekte in bewegte Film- oder Video-Aufnahmen einzusetzen.

3d Tracking bezeichnet eine Technik im Film, die es erlaubt, virtuelle Objekte in bewegte Film- oder Video-Aufnahmen einzusetzen. 3dTracking: 3d Tracking bezeichnet eine Technik im Film, die es erlaubt, virtuelle Objekte in bewegte Film- oder Video-Aufnahmen einzusetzen. Dabei werden die Bewegungen verschiedener Objekte in den Aufnahmen

Mehr

Photonik Technische Nutzung von Licht

Photonik Technische Nutzung von Licht Photonik Technische Nutzung von Licht Raytracing und Computergraphik Überblick Raytracing Typen von Raytracern z-buffer Raytracing Lichtstrahlen-Verfolgung (engl. ray tracing): Berechnung von Lichtstrahlen

Mehr

MF Breadcrumbs. Sergej Schefer & Fabian Marx

MF Breadcrumbs. Sergej Schefer & Fabian Marx MF Breadcrumbs Sergej Schefer & Fabian Marx MF Breadcrumbs! Entwurf! Algorithmen! Screenshots / Live-Demo Entwurf! 2.5D Jump n Run! Spieler kann sich durch Level bewegen und Punkte aufsammeln! Freie Levelgestaltung

Mehr

Für die Camerasettings wurden folgende Einstellungen verwendet:

Für die Camerasettings wurden folgende Einstellungen verwendet: RENDERING Beim rendern einer kompletten Szene kommt es natürlich hauptsächlich auf die Renderdauer an, die durch diverse Faktoren leicht bis ins Unendliche getrieben werden kann. Daher war es von Nöten

Mehr

Kennen, können, beherrschen lernen was gebraucht wird

Kennen, können, beherrschen lernen was gebraucht wird Abbildung 1 - Übersichtsorganigramm 15.06.2013 Seite 1 Inhaltsverzeichnis Inhaltsverzeichnis... 2 Farbdisproportionen... 2 Farben gezielt ersetzen... 3 Reduzieren der Sättigung... 3 Farben invertieren...

Mehr

FARBEN IM INTERNET FARBWERTE, FARBTIEFEN IN DER BILDBEARBEITUNG

FARBEN IM INTERNET FARBWERTE, FARBTIEFEN IN DER BILDBEARBEITUNG FARBEN IM INTERNET FARBWERTE, FARBTIEFEN IN DER BILDBEARBEITUNG Unter dem Begriff Farbtiefe versteht man die Anzahl der pro Pixel zur Verfügung stehenden Bits zur Speicherung der Farbinformationen. Die

Mehr

3D-Grafik-Chips. Informatik-Seminar Michael R. Albertin. Betreuer: E. Glatz

3D-Grafik-Chips. Informatik-Seminar Michael R. Albertin. Betreuer: E. Glatz 3D-Grafik-Chips Informatik-Seminar Michael R. Albertin Betreuer: E. Glatz Übersicht Übersicht Ziel Einleitung Chipgrundlagen Funktionen Benchmarks Schluss Ziel Grundlegende Techniken kennen Chips unterscheiden

Mehr

Game Engine Architecture and Development. Effekte (Sound, Partikel, Physik)

Game Engine Architecture and Development. Effekte (Sound, Partikel, Physik) Game Engine Architecture and Development Effekte (Sound, Partikel, Physik) Wer hat schon was? Sound s Soundsysteme Einfach zu benutzen Leveldesigner müssen sehr einfach Sounds hinzufügen können (Gamplay

Mehr

Rendering: Lighting and Shading

Rendering: Lighting and Shading Rendering: Lighting and Shading Hauptseminar: How to make a Pixar Movie Inhalt Einführung Was ist Rendering Was ist Reflexionsmodelle Lighting Shading Globale Beleuchtungsmodelle Zusammenfassung 2/53 Inhalt

Mehr

Sensorenvergleich (Zeilen vs. Flächenscanner) Prof. Dr.-Ing. Manfred Ehlers

Sensorenvergleich (Zeilen vs. Flächenscanner) Prof. Dr.-Ing. Manfred Ehlers Sensorenvergleich (Zeilen vs. Flächenscanner) Prof. Dr.-Ing. Manfred Ehlers mehlers@igf.uni-osnabrueck.de Inhalt Sensorsysteme ADS-40 DMC Ultracam-D Flächen vs. Zeilensensor Geometrische Genauigkeit Pansharpening

Mehr

1.8 Wie viel Schärfe hätten Sie denn gern: Schärfentiefe und Blende

1.8 Wie viel Schärfe hätten Sie denn gern: Schärfentiefe und Blende 1 Grundlagen der Belichtung Neben den Motiv- und Programmautomatiken gibt es noch die halbautomatischen Varianten: Blenden- und Zeitautomatik. Mit der Blendenautomatik hat der Fotograf leider keine Kontrolle

Mehr

Bilder durch Rahmen verschönern

Bilder durch Rahmen verschönern Bilder durch Rahmen verschönern Haben Sie Ihr Bild fertiggestellt, und wollen Sie ihm noch einen schönen Rahmen verpassen? Gut, dann sehen wir uns nun einige Möglichkeiten an, wie Sie dies bewerkstelligen

Mehr

White Paper Order Independent Transparency (OIT) in PTC Creo Parametric 2.0

White Paper Order Independent Transparency (OIT) in PTC Creo Parametric 2.0 White Paper Order Independent Transparency (OIT) in PTC Creo Parametric 2.0 Übersicht: OIT Definition: Order Independent Transparency oder OIT bezeichnet in der Programmierungstechnik für Computergrafik

Mehr

Tutorial zur Erstellung einer aufwendigen, Signatur mit Adobe Photoshop in Crystal Style.

Tutorial zur Erstellung einer aufwendigen, Signatur mit Adobe Photoshop in Crystal Style. Tutorial zur Erstellung einer aufwendigen, Signatur mit Adobe Photoshop in Crystal Style. Schritt 1: Traditionell sind meine Signaturen immer 550x200 Pixel groß. Deswegen erstelle ich sie auch in diesem

Mehr

- Für die beiden zu überblendenden Farben (source und destination) werden Blending-Faktoren besimmt (S r

- Für die beiden zu überblendenden Farben (source und destination) werden Blending-Faktoren besimmt (S r 3.2 Blending Anwendung - Kombination der Farbinformation eines neu zu zeichnenden Objekts (Source) mit der Farbinformation, die bereits im Framebuffer gespeichert ist (Destination) - Darstellung teilweise

Mehr

Technologievergleich Digitalkamerasysteme

Technologievergleich Digitalkamerasysteme Technologievergleich Digitalkamerasysteme A. Bayer- Matrix Sensoren 1. Technologie Bayer Farbmatrix (1) In nahezu allen Digitalkamerasystemen werden Sensoren mit Bayer- Farbmatrix eingesetzt. Hierzu wird

Mehr

HDRI mit Cinema 4D von Sascha Häusler für tutorials.de

HDRI mit Cinema 4D von Sascha Häusler für tutorials.de HDRI mit Cinema 4D von Sascha Häusler für tutorials.de Seit einigen Jahren geistert ein magischer Begriff durch die Köpfe von Grafikern. HDRI verspricht schnelle und effiziente Beleuchtung von virtuellen

Mehr

OpenGL ES 2.0. OpenGL ist eine Bibliothek zur Ansteuerung von Grafikhardware

OpenGL ES 2.0. OpenGL ist eine Bibliothek zur Ansteuerung von Grafikhardware Begriffsbestimmung Was ist OpenGL (Open Graphics Library) OpenGL ist eine Bibliothek zur Ansteuerung von Grafikhardware Plattform- und Programmiersprachenunabhängig Darstellung komplexer 2D- und 3D-Szenen

Mehr

How to make a PIXAR movie

How to make a PIXAR movie How to make a PIXAR movie Non-Photorealistic Rendering Definition NPR is an area of computer graphics that focuses on enabling a wide variety of expressive styles for digital art. Alternativbezeichnungen:

Mehr