Computergraphik Grundlagen
|
|
|
- Lennart Jaeger
- vor 9 Jahren
- Abrufe
Transkript
1 Computergraphik Grundlagen IX. Texturen und Schatten Prof. Stefan Schlechtweg Hochschule Anhalt Fachbereich Informatik
2 Inhalt Lernziele 1. Texture Mapping 1. Texture Pipeline 2. Environment Mapping 3. Bump Mapping 4. Displacement Mapping 5. Zusammenfassung 2. Schattenberechnung 1. Kern- und Halbschatten 2. Position der Lichtquelle 3. Generelle Vorgehensweise 4. Algorithmen 3. Zusammenfassung Texture-Mapping als Möglichkeit des Einbringens von Details in Computergraphiken verstehen Verschiedene Möglichkeiten des Texture Mapping kennen Generellen Ablauf der Texturing-Pipeline erklären können Schattenalgorithmen kennen Vor- und Nachteile der Mapping-Verfahren gegenüber detaillierter Modellierung verstehen 2
3 Lokale Koordinaten Modellierung der Geometrie einzelner Objekte lokal Welt Plazierung der Objekte Weltkoordinaten Plazierung der Lichtquellen Plazierung der Kamera Beleuchtungsberechnung Transformation in Kamerakoordinaten Kamerakoordinaten Entfernen verdeckter Rückseiten Viewing-Transformation Normalisierte Projektionskoordinaten Clipping gegen Sichtkörper Entfernen verdeckter Modellteile Projektion (Normalisierte) Bildschirmkoordinaten Rastertransformation Rasterung Rasterkoordinaten Shading Entfernen verdeckter Modellteile 3
4 Jim Blinn: All it takes is for the rendered image to look right Polygonale Modelle approximieren eine Oberfläche nur. Sehr detaillierte Oberflächen erfordern sehr viele, kleine Polygone. nicht akzeptabel in Bezug auf Rendering-Zeit und Speicherplatz daher andere Möglichkeiten der Darstellung von Details notwendig Texture Mapping Hinzufügen von Detailinformationen auf Polygone Detailinformationen sind typischerweise 2D-Bilder Erhöhung des Photorealismus aber: rechen- und speicheraufwendig eingeführt von Ed Catmull 1974, dann verfeinert von Jim Blinn 1976
5 Das Modell (links) nach dem Shading (Mitte) Details der Hautstruktur, Farbnuancen und weitere Details werden durch Texturen hinzugefügt (rechts)
6 Folgende Eigenschaften eines geometrischen Modells können mit Hilfe von Texturen verändert werden: Farbe: Modulation des diffusen Reflektionskoeffizienten mit der Farbe aus der Textur Spekulare Farbe : Erzeugen des Anscheins, daß das Objekt die Umgebung spiegelt (environment mapping) Normalenvektor: Erzeugen eines 3D-Relief-Eindrucks auf der Objektoberfläche (bump mapping) Objektpunkte: Verschieben der Oberflächenpunkte in Normalenrichtung auf Basis der Textur (displacement mapping) Transparenz: Steuerung der Durchsichtigkeit einer Oberfläche auf Basis der Textur (opacity mapping)
7 Textur ist typischerweise ein 2D-Bild Bildelemente (Pixel) hier Texel genannt Wert des Texels beeinflußt Aussehen der Oberfläche Mapping der Textur auf die Oberfläche bestimmt, wie die Textur auf der Oberfläche liegt Mapping einer Textur auf ein Dreieck ist einfach. Mapping einer Textur auf eine beliebige 3D-Oberfläche ist kompliziert. Rendering unter Benutzung von Texture-Mapping: Finde die zum Pixel gehörende sichtbare Oberfläche Finde den Punkt auf dieser Oberfläche, der auf den Pixel abgebildet wird Finde den Punkt in der Textur (Texel), der zu dem Oberflächenpunkt gehört Benutze die Farbe des Texels, um das Shading des Pixels zu ändern
8 allgemeine Definition: Zweidimensionale Texturen oder kurz 2D-Texturen sind Funktionen, die Punkte der (u, v)-ebene auf (r, g, b)-werte abbilden: (r, g, b) = c tex (u, v). Das Mapping (engl.: Abbildung) beschreibt, wie eine 2D-Textur bzw. ein Ausschnitt aus einer 2D-Textur auf eine Fläche aufgebracht wird. Beim Rendering muß jedoch das inverse Mapping-Problem gelöst werden, d. h. den bekannten (x, y, z)-koordinaten des Flächenpunktes P müssen (u, v)-koordinaten zugeordnet werden: (u, v) = F invmap (x, y, z).
9 1.1. Texture Pipeline Was passiert an einem Punkt, z. B. dem Eckpunkt eines Polygons? 1. Berechnung der Farbe aus Licht, Material, Betrachterstandpunkt 2. Textur modifiziert die berechneten Farbwerte abhängig von der Position auf der Oberfläche Allgemeine Texturing-Pipeline: Berechne Oberflächenposition Projektorfunktion findet (u,v)- Texturkoordinaten Korrespondenzfkt. findet zugehöriges Texel möglicherweise weitere Transformation Modifiziere Beleuchtungswert (x,y) (x,y,z) (u,v) (s,t) (r,g,b)... Bestimmung der Objektraumposition Parametrisierung der Oberfläche Umwandlung von Parameterraum in Texturraum Transformation der Texel-Werte Modifikation der Oberflächenparameter
10 1.1. Texture Pipeline Bestimmung der Objektraumposition Für jeden Eckpunkt i eines Polygons werden die 3D- Koordinaten (x i, y i, z i ) im Objektraum, in dem die Oberfläche definiert ist, bestimmt Parametrisierung der Oberfläche Raumkoordinaten des Eckpunktes i werden in 2D- Koordinaten im Parameterraum (u i, v i ) überführt: Projektorfunktion Φ Mapping: Φ (x i, y i, z i ) (u i, v i ) Parameterkoordinaten (u i, v i ) liegen in [0,1]
11 1.1. Texture Pipeline Umwandlung vom Parameterraum in den Texturraum Parameterkoordinaten (u i, v i ) geben relative Position eines Eckpunktes i in der Textur an Korrespondenzfunktion ψ wandelt diese in Texturkoordinaten um und bestimmt somit die ganzzahligen Index-Koordinaten zum Zugriff auf den Texel Transformation der Texel-Werte Filterung und ähnliche Aänderungen der Texel-Werte sind möglich Modifikation der Oberflächenparameter Texel-Wert modifiziert oder ersetzt bestimmte Parameter des Eckpunktes i (Farbe, Normale, )
12 1.1. Texture Pipeline
13 1.1. Texture Pipeline
14 1.2. Environment Mapping Spiegelungen sind ein globales Phänomen (Objekt-Objekt- Interaktion) eine Möglichkeit, Reflektionen (approximativ) mit Hilfe von Textur- Hardware (und ohne Raytracing, d.h. schnell) zu berechnen Annahme: Umgebung besteht aus Objekten und Lichtquellen, die weit vom zu rendernden Objekt entfernt sind, d. h. Objekt ist klein im Vergleich zum Abstand zu umgebenden Objekten einfallende Beleuchtung kann für Objekt vorberechnet und in Texturgespeichert werden Vorgehen: Mapping eines Bildes der Umgebung auf eine (große) Kugel, deren Zentrum der Objektmittelpunkt ist andere Möglichkeit: Textur auf einem Würfel und Mapping der Würfeloberfläche auf das Objekt
15 1.2. Environment Mapping
16 1.2. Environment Mapping
17 1.3. Bump Mapping Texture Mapping verändert das Shading (Farbberechnung) Oberfläche bleibt geometrisch glatt ( smooth ) Texturierung rauher Oberflächen problematisch: Lichtverhältnisse in der Textur (im Bild) sind anders als die am Modell beim Rendering Bump Mapping verändert die Normalen der Oberfläche und damit die Geometrie, bevor die Beleuchtungsberechnung ausgeführt wird entwickelt von Jim Blinn, 1978
18 1.3. Bump Mapping 1. offset vector bump map oder offset map Speicherung zweier Werte pro Texel b u und b v Variation der Normale entlang der u- bzw. v-achse um diesen Betrag also: b u und b v als Skalierungsfaktor für zwei Vektoren, die senkrecht zur Normale in der Tangentialebene an dem entsprechenden Punkt senkrecht zueinander stehen und dann Addition dieser skalierten Vektoren zur ursprünglichen Normale 2. hightfield bump map Bump map wird als Höhenfeld aufgefaßt Skalierung der Vektoren in u- bzw. v-richtung wird aus der Differenz benachbarter Texel abgeleitet
19 1.3. Bump Mapping
20 1.3. Bump Mapping
21 1.3. Bump Mapping
22 1.4. Displacement Mapping Bump-Mapping erzeugt den Eindruck einer rauhen Oberfläche Konturen / Schatten bleiben die der Geometrie Displacement Mapping verändert die Geometrie des Modells durch Verändern de Koordinaten von Oberflächenpunkten Grobgeometrie + Displacement Map => Feingeometrie hellere Texel bedeuten stärkere Verschiebung 22
23 1.4. Displacement Mapping
24 1. Texture Mapping 1.4. Displacement Mapping Quelle: Quelle: Matt Pharr, Pat Hanrahan: Geometry Caching for Ray-Tracing Displacement Maps
25 1.5. Zusammenfassung Vorteile des Texture Mappings Szene interessanter gestalten Realismus erhöhen durch verhältnismäßig wenig Rechenaufwand Einfache Möglichkeit Preprocessing zu integrieren (global illumination)
26 1.5. Zusammenfassung Nachteile/Probleme des Texture Mappings Eventuell stark sichtbare Aliasing-Artefakte genaue Berechnung der u,v-paramter schwierig (Interpolieren zwischen Gitterpunkten) durch verstärkte Implementierung von Texture Mapping Funktionalitäten in Grafikhardware Konzentration auf typisches Szenario 2D-Texture auf Oberfläche
27 2. Schattenberechnung verankert Objekte in der Szene (keine fliegenden Objekte) hebt die Richtung der Beleuchtung hervor Steigerung des Realismus des Bildes Schatten geben Hinweise zum Aufbau der Szene Verbesserung der Tiefenwahrnehmung verwendbar für Simulationen (Energie-, Wärmeverteilung)
28 2. Schattenberechnung 2.1. Kern- und Halbschatten Schatten bestehen aus zwei Teilen: Kernschatten (umbra) und Halbschatten (penumbra) Kernschatten: zentraler, scharf abgegrenzter dunkler Teil im Zentrum Halbschatten: helleres Gebiet, das den Kernschatten umgibt Punktlichtquellen generieren nur Kernschatten flächige Lichtquellen erzeugen beides, Kernschatten erhalten gar kein Licht, Halbschatten nur wenig (wegen der Ausdehnung der Lichtquellen) Halbschatten sehr aufwendig zu berechnen, da in der Computergraphik Punktlichtquellen eingesetzt werden, häufig nur Kernschattenberechnung
29 2. Schattenberechnung 2.1. Kern- und Halbschatten
30 2. Schattenberechnung 2.2. Position der Lichtquelle Komplexität der Schattenberechnung abhängig von Position der Lichtquelle keine Schatten, wenn (einzige) Lichtquelle im Betrachterstandpunkt Lichtquelle im Unendlichen: orthographische Projektion zur Bestimmung des Schattens einfachster Fall Lichtquelle an endlicher Position außerhalb des Gesichtsfeldes: perspektivische Projektion zur Bestimmung des Schattens etwas komplizierter Lichtquelle innerhalb des Gesichtsfeldes: Unterteilung der Szene in Sektoren, Schattenberechnung separat für die Sektoren kompliziertester Fall Schatten ändern sich bei Animation
31 2. Schattenberechnung 2.3. Grundlegende Vorgehensweise HSR/VSD-Algorithmen bestimmen, welche Flächen vom Betrachterstandpunkt aus sichtbar sind. Schattenberechnung bedeutet, die Flächen zu bestimmen, die von der Position der Lichtquelle aus nicht sichtbar sind. VSD/HSR-Algorithmen können genutzt werden. Sichtbarkeit aus Sicht der Lichtquelle: entweder sichtbar oder nicht wenn Oberflächenpunkt von Lichtquelle aus nicht sichtbar Punkt liegt im Schatten Beleuchtungsberechnung muß entsprechend angepaßt werden
32 2. Schattenberechnung 2.3. Grundlegende Vorgehensweise Faktor S bestimmt, ob Licht von Lichtquelle ein Objekt an einem gegebenen Punkt erreicht: Hinzufügen zur Beleuchtungsberechnung: Gebiete im Schatten immer noch durch das ambiente Licht beleuchtet
33 2. Schattenberechnung 2.4. Algorithmen Projektive Schatten Schatten wird aus Sicht der Lichtquelle auf die Objekte projiziert nur sinnvoll bei Ebenen (Schatten auf einer Grundebene) Schattenvolumen Raum zwischen der Fläche die Schatten wirft und einer (entweder im unendlichen, oder wirklichen) Fläche, auf die der Schatten fällt Berechnen der Begrenzungspolygone dieses raumes Man nehme einen Strahl vom Betrachterstandpunkt zu einem Punkt P in der Szene P liegt im Schatten, wenn dieser Strahl öfter von außen nach innen in das Schattenvolumen geht als umgekehrt Spezialfall, wenn Betrachter im Schattenvolumen liegt
34 2. Schattenberechnung 2.4. Algorithmen Hidden Surface Removal aus Sicht der Lichtquelle Verwenden eines Objektraum-HSR-Algorithmus, um die Schattenpolygone zu bestimmen Transformieren dieser in die Kameraansicht und Verknüpfen mit den Objektpolygonen bei der Beleuchtungsberechnung Shadow z-buffer seperater Z-Buffer für die Schattenberechnung einer Lichtquelle Schatten-Z-Buffer wird gefüllt, indem die Szene aus der Sicht der Lichtquelle betrachtet wird Szene mit dem normalen Z-Buffer rendern. Für sichtbare Punkte Transformation in die Koordinaten für den Schatten-Z-Buffer und Vergleichen der z-werte mit denen aus dem Schatten-Z-Buffer verglichen Darstellung als im Schatten oder nicht abhängig vom Ergebnis des Vergleichs
35 2. Schattenberechnung 2.4. Algorithmen Shadow Maps (Schatten-Z- Buffer) a) Kamerasicht der Szene ohne Schatten b) Ansicht der Szene von der Lichtquelle c) Shadow map (depth map) konstruiert von der Lichtquelle aus d) Shadow map projiziert in die Kamerasicht e) Entfernung zur Lichtquelle projiziert in die Kamerasicht f) Szene mit Schatten
36 3. Zusammenfassung Texturen und Schatten tragen zur Erhöhung des Realismus bei Heute Standard-Techniken bei Real Time Graphiken Programmierbare Shader in Graphikkarten für Mapping-Algorithmen gut geeignet Weitere Mapping-Algorithmen für weitere Effekte auf dem Vormarsch (wegen der Hardware- Entwicklung)
Kapitel 4: Schattenberechnung
Kapitel 4: Schattenberechnung 1 Überblick: Schattenberechnung Motivation Schattenvolumen Shadow Maps Projektive Schatten 2 Motivation Wesentlich für die Wahrnehmung einer 3D-Szene Eigentlich ein globaler
Probelektion zum Thema. Shadow Rendering. Shadow Maps Shadow Filtering
Probelektion zum Thema Shadow Rendering Shadow Maps Shadow Filtering Renderman, 2006 CityEngine 2011 Viewport Real reconstruction in Windisch, 2013 Schatten bringen viel Realismus in eine Szene Schatten
(7) Normal Mapping. Vorlesung Computergraphik II S. Müller. Dank an Stefan Rilling U N I V E R S I T Ä T KOBLENZ LANDAU
(7) Normal Mapping Vorlesung Computergraphik II S. Müller Dank an Stefan Rilling Einleitung Die Welt ist voller Details Viele Details treten in Form von Oberflächendetails auf S. Müller - 3 - Darstellung
Computergraphik Grundlagen
Computergraphik Grundlagen XI. Rasterung Füllen von Polygonen Prof. Stefan Schlechtweg Hochschule nhalt Fachbereich Informatik Inhalt Lernziele 1. Zu lösendes Problem 2. Füllen von Pixelmengen 1. Rekursiver
Christina Nell. 3D-Computergrafik
Christina Nell 3D-Computergrafik Was ist 3D-Computergrafik? 3D graphics is the art of cheating without getting caught. (unbekannte Quelle) Folie 2/52 Inhalt Beleuchtung Shading Texturierung Texturfilterung
Lokale Beleuchtungsmodelle
Lokale Beleuchtungsmodelle Oliver Deussen Lokale Modelle 1 Farbschattierung der Oberflächen abhängig von: Position, Orientierung und Charakteristik der Oberfläche Lichtquelle Vorgehensweise: 1. Modell
3.6 Schattenberechnung
3.6 Schattenberechnung Schatten sind für die realistische Darstellung von Szenerien sehr wichtig, da der Mensch aus dem Alltag gewohnt ist, Schatten zu sehen, so dass Bilder ohne Schatten sehr unnatürlich
BlendaX Grundlagen der Computergrafik
BlendaX Grundlagen der Computergrafik Beleuchtungsmodelle (Reflection Models) 16.11.2007 BlendaX Grundlagen der Computergrafik 1 Rendering von Polygonen Der Renderingprozess lässt sich grob in folgende
Graphische Datenverarbeitung Visualisierungstechniken. Prof. Dr. Elke Hergenröther
Graphische Datenverarbeitung Visualisierungstechniken Prof. Dr. Elke Hergenröther Visualisierungstechniken Visualisierung: Visualisierung bedeutet sichtbar machen, darstellen. Die CG beschränkt sich dabei
Zur Erinnerung: Parametrisierung von Dreiecken
Zur Erinnerung: Parametrisierung von Dreiecken Interpolation über Dreiecke Parametrisierung eines Dreiecks p a (b-a) (c-a) p (1 )a b c p( a b c mit Baryzentrische Koordinaten Page 1 Baryzentrische Koordinaten
"rendern" = ein abstraktes geometrisches Modell sichtbar machen
3. Grundlagen des Rendering "rendern" = ein abstraktes geometrisches Modell sichtbar machen Mehrere Schritte: Sichtbarkeitsberechnung Beleuchtungsrechnung Projektion Clipping (Abschneiden am Bildrand)
Beleuchtung. in Computerspielen
Beleuchtung in Computerspielen Motivation Überblick Licht und Schattierung Lichtquellen Lokale Beleuchtungsmodelle Schattierungsverfahren Oberflächensimulation Beispiele der CryEngine Ausblick Zusammenfassung
Die Welt der Shader. Fortgeschrittene Techniken III
Die Welt der Shader Fortgeschrittene Techniken III Universität zu Köln WS 14/15 Softwaretechnologie II (Teil 1) Prof. Dr. Manfred Thaller Referent: Lukas Kley Gliederung 1. Was ist ein Shader? 2. Verschiedene
4.7 Globale Beleuchtungsmodelle
Erinnerung: - Ein lokales Beleuchtungsmodell berücksichtigt nur das direkt einfallende Licht einer Lichtquelle - Nur lokale Beleuchtung + konstante ambiente Beleuchtung, um reflektiertes und gebrochenes
Rendering: Lighting and Shading
Rendering: Lighting and Shading Hauptseminar: How to make a Pixar Movie Inhalt Einführung Was ist Rendering Was ist Reflexionsmodelle Lighting Shading Globale Beleuchtungsmodelle Zusammenfassung 2/53 Inhalt
Computergrafik 2010 Oliver Vornberger. Kapitel 18: Beleuchtung
Computergrafik 2010 Oliver Vornberger Kapitel 18: Beleuchtung 1 Ausgangslage am Ende der Viewing Pipeline liegt vor: P A Materialeigenschaften P B P C 2 Beleuchtungmodelle lokal: Objekt, Lichtquellen,
Graphische Datenverarbeitung und Bildverarbeitung
Graphische Datenverarbeitung und Bildverarbeitung Hochschule Niederrhein Texturen Graphische DV und BV, Regina Pohle, 24. Texturen 1 Einordnung in die Inhalte der Vorlesung Einführung mathematische und
Computergrafik 1 Beleuchtung
Computergrafik 1 Beleuchtung Kai Köchy Sommersemester 2010 Beuth Hochschule für Technik Berlin Überblick Lokale Beleuchtungsmodelle Ambiente Beleuchtung Diffuse Beleuchtung (Lambert) Spiegelnde Beleuchtung
Teil 7: Beleuchtung Beleuchtungsmodelle, Schattierungsmodelle
Beleuchtungsmodelle, Schattierungsmodelle Einleitung Beleuchtung vs. Schattierung Beleuchtung: Modell auswerten (anschl.) global vs. lokal phsikalisch (photo-realistisch?) vs. empirisch Phong-Modell Schattierung:
Computergraphik Grundlagen
Computergraphik Grundlagen VIII. Beleuchtung und Shading Prof. Stefan Schlechtweg Hochschule Anhalt Fachbereich Informatik Inhalt Lernziele 1. Beleuchtungsmodelle 2. Lichtquellen Punktförmige und flächenhafte
Computergrafik. Michael Bender, Manfred Brill. Ein anwendungsorientiertes Lehrbuch ISBN Inhaltsverzeichnis
Computergrafik Michael Bender, Manfred Brill Ein anwendungsorientiertes Lehrbuch ISBN 3-446-40434-1 Inhaltsverzeichnis Weitere Informationen oder Bestellungen unter http://www.hanser.de/3-446-40434-1 sowie
Computergraphik Grundlagen
Computergraphik Grundlagen V. Die Rendering-Pipeline Prof. Stefan Schlechtweg Hochschule Anhalt Fachbereich Informatik Inhalt Lernziele 1. Der Begriff Rendering 2. Die Rendering-Pipeline Geometrische Modellierung
Überblick Echtzeit-Rendering. Uwe Domaratius [email protected]
Überblick Echtzeit-Rendering Uwe Domaratius [email protected] Gliederung 1. Einleitung 2. geometriebasierende Verbesserungen 3. Level-of-Detail 4. Culling 5. Texturen 6. bildbasiertes Rendering Was
(12) Wiederholung. Vorlesung Computergrafik T. Grosch
(12) Wiederholung Vorlesung Computergrafik T. Grosch Klausur 18.7. 14 16 Uhr, Hörsaal 5 (Physik) 2 Zeitstunden 8 Aufgaben Drei Aufgabentypen Übungsaufgaben Wissensfragen zur Vorlesung Transferfragen Unterschiedlicher
Wima-Praktikum 2: Bildsynthese-Phong
Wima-Praktikum 2: Bildsynthese-Phong Wima-Praktikum 2: Prof. Dr. Lebiedz, M. Sc. Radic 1 Inhaltsverzeichnis 1 Einleitung 3 2 Kurze Beschreibung der Aufgabenstellung und dem Phong- Modell 3 3 Modellierung
:= Modellabbildung. Bildsynthese (Rendering) Bildsynthese
Geometrisches Modell bestehend aus Datenstrukturen zur Verknüpfung geometrischer Primitive, welche eine Gesamtszene beschreiben Bildsynthese := Modellabbildung Pixelbasiertes Modell zur Darstellung eines
Adaptives Displacement Mapping unter Verwendung von Geometrieshadern
Fakultät Informatik Institut für Software- und Multimediatechnik, Professur für Computergraphik und Visualisierung Adaptives Displacement Mapping unter Verwendung von Geometrieshadern Diplomarbeit Timo
Shadowing. Vortrag im Rahmen des PIXAR-Seminars, Juli Philipp Freyer
Shadowing Vortrag im Rahmen des PIXAR-Seminars, Juli 2011 Philipp Freyer Inhalt Schatten... 3 Kernschatten (Hard Shadow)... 3 Berechnung... 3 Hard Shadow Rendering... 4 Shadow Maps... 4 Shadow Volumes...
Newtek Lightwave Grundlagen der 3D-Vektorgrafik
Newtek Lightwave Grundlagen der 3D-Vektorgrafik Form und Oberfläche Punkte und Polygone (mindestens 3-seitige Verbindungen zwischen Punkten) sind die Grundlage der Darstellung dreidimensionaler Objekte
Motivation: in der Realität Vielzahl von geometrischen Feinstrukturen
11. Texturierung Motivation: in der Realität Vielzahl von geometrischen Feinstrukturen Beispiele: Maserungen und Muster von Holz, Marmor, Tapeten, Stoffen... Wolken, Rauch unebene Flächen wie Rauhfaserwände,
Inhaltsverzeichnis - Themen
Inhaltsverzeichnis - Themen 1 Hardwaregrundlagen 2 Transformationen und Projektionen 3 Repräsentation und Modellierung von Objekten 4 Visibilität und Verdeckung 5 Rasterung 6 Rendering 7 Abbildungsverfahren
Beleuchtung Schattierung Rasterung
Beleuchtung Schattierung Rasterung Thomas Jung [email protected] Beleuchtung, Schattierung und Rasterung in allen Echtzeit-3D-Umgebungen gleich OpenGL Direct3D 3dsmax,... Letzter Bestandteil der Grafikpipeline
Photonik Technische Nutzung von Licht
Photonik Technische Nutzung von Licht Raytracing und Computergraphik Überblick Raytracing Typen von Raytracern z-buffer Raytracing Lichtstrahlen-Verfolgung (engl. ray tracing): Berechnung von Lichtstrahlen
Teil 7: Beleuchtung. Einleitung. Einleitung. Beleuchtungsmodelle, Schattierungsmodelle
Beleuchtungsmodelle, Schattierungsmodelle Einleitung Beleuchtung vs. Schattierung Beleuchtung: Modell auswerten (anschl.) global vs. lokal phsikalisch (photo-realistisch?) vs. empirisch Phong-Modell Schattierung:
7 Mapping-Techniken. Achim Ebert CG.7.1
7 Mapping-Techniken Achim Ebert CG.7.1 7.1 Motivation Bisher sind alle Oberflächen (polygonale Objekte, später auch parametrisierte Freiformflächen) glatt im Gegensatz zu wirklich existierenden natürlichen
D-Texturen. Reflectance Mapping 3D-Texturen. Farbtexturen
2D-Texturen Texturarten Abbildung Transformationen Generierung Thomas Jung Reflectance Mapping 3D-Texturen Modellierung von Details erfordert Zeit Darstellung ist aufwendig (langsam) Details belegen Speicherplatz
Lokale Beleuchtungsmodelle
Lokale Beleuchtungsmodelle Proseminar GDV, SS 05 Alexander Gitter Betreuer: Dirk Staneker Wilhelm-Schickard-Institut für Informatik Graphisch-Interaktive Systeme Sand 14 D-72076 Tübingen Einleitung und
19.09.2014. 2D-Texturen. Reflectance Mapping 3D-Texturen. Farbtexturen
2D-Texturen Texturarten Transformationen Generierung Thomas Jung Reflectance Mapping 3D-Texturen Modellierung von Details erfordert Zeit Darstellung ist aufwendig (langsam) Details belegen Speicherplatz
How to make a PIXAR movie
How to make a PIXAR movie Non-Photorealistic Rendering Definition NPR is an area of computer graphics that focuses on enabling a wide variety of expressive styles for digital art. Alternativbezeichnungen:
Computergrafik Universität Osnabrück, Henning Wenke,
Computergrafik Universität Osnabrück, Henning Wenke, 2012-07-09 Noch Kapitel XVI Realtime Ray Tracing KD-Tree: Surface Area Heuristic Ziele der Aufteilung in Child Nodes: 1. Möglichst gleich viele Objekte
Übungsstunde 8 zu Computergrafik 1
Institut für Computervisualistik Universität Koblenz 14. und 15. Januar 2013 Inhaltsverzeichnis 1 Wiederholung - Beleuchtung Gouraud-Shading Phong-Shading Flat-Shading Vergleich 2 - Idee in OpenGL Texturfilterung
Workshop: Einführung in die 3D-Computergrafik. Julia Tolksdorf Thies Pfeiffer Christian Fröhlich Nikita Mattar
Workshop: Einführung in die 3D-Computergrafik Julia Tolksdorf Thies Pfeiffer Christian Fröhlich Nikita Mattar 1 Organisatorisches Tagesablauf: Vormittags: Theoretische Grundlagen Nachmittags: Bearbeitung
Computergrafik. Ein anwendungsorientiertes Lehrbuch. Bearbeitet von Michael Bender, Manfred Brill
Computergrafik Ein anwendungsorientiertes Lehrbuch Bearbeitet von Michael Bender, Manfred Brill 1. Auflage 2003. Taschenbuch. 528 S. Paperback ISBN 978 3 446 22150 5 Format (B x L): 16,9 x 24,1 cm Gewicht:
Graphische Datenverarbeitung und Bildverarbeitung
Graphische Datenverarbeitung und Bildverarbeitung Hochschule Niederrhein Beleuchtungsberechnung Graphische DV und BV, Regina Pohle, 21. Beleuchtungsberechnung 1 Einordnung in die Inhalte der Vorlesung
0 Einführung. Computergrafik. Computergrafik. Abteilung für Bild- und Signalverarbeitung
F1 Inhaltsverzeichnis 1 Hardwaregrundlagen 2 Transformationen und Projektionen 3 Repräsentation und Modellierung von Objekten 4 Rasterung 5 Visibilität und Verdeckung 6 Rendering 7 Abbildungsverfahren
Seminar Game Development Game Computer Graphics. Einleitung
Einleitung Gliederung OpenGL Realismus Material Beleuchtung Schatten Echtzeit Daten verringern Grafik Hardware Beispiel CryEngine 2 Kristian Keßler OpenGL Was ist OpenGL? Grafik API plattform- und programmiersprachenunabhängig
Beleuchtung. Matthias Nieuwenhuisen
Beleuchtung Matthias Nieuwenhuisen Überblick Warum Beleuchtung? Beleuchtungsmodelle Lichtquellen Material Reflexion Shading Warum Beleuchtung? Tiefeneindruck Realitätsnähe: Reflexionen Spiegelungen Schatten
Rendering. (illumination/shading) Beleuchtungsmodelle. Schattierung von Polygonen. Lokale Beleuchtungsmodelle
Beleuchtung/Schattierung (illumination/shading) Beleuchtungsmodelle Globale Beleuchtungsmodelle Lokale Beleuchtungsmodelle Schattierung von Polygonen 1. Flat shading 2. Gouraud Shading 3. Phong Shading
Non-Photorealistic Rendering
Übersicht 1. Motivation und Anwendungen 2. Techniken - Cel Shading - Konturlinien - Hatching Einführung Traditionelle Computergraphik Ziel: Fotorealismus Einführung Motivation Bewusste Vermeidung von
Programmierpraktikum 3D Computer Grafik
Dipl.Inf. Otmar Hilliges Programmierpraktikum 3D Computer Grafik Szenegraphen, Texturen und Displaylisten. Agenda Beleuchtungsmodelle in OpenGL Bump-Maps zur Erzeugung von Reliefartigen Oberflächen Height-Maps
Modellierung. Oliver Hartmann
Modellierung Oliver Hartmann [email protected] Inhalt Boolesche Operationen Splines B-Splines Bezier-Kurven NURBS Anwendung Sculpting Volumengrafik Marching Cubes Ray Casting Texture Mapping Boolesche
Kapitel 2: Mathematische Grundlagen
[ Computeranimation ] Kapitel 2: Mathematische Grundlagen Prof. Dr. Stefan M. Grünvogel [email protected] Institut für Medien- und Phototechnik Fachhochschule Köln 2. Mathematische Grundlagen
Grundlagen der Spieleprogrammierung
Grundlagen der Spieleprogrammierung Teil I: 3D-Graphik Kapitel 3: Das Ideal - Photorealistisch Peter Sturm Universität Trier Outline 1. Übersicht und Motivation 2. Mathematische Grundlagen 3. Das Ideal:
Computergrafik Universität Osnabrück, Henning Wenke,
Computergrafik Universität Osnabrück, Henning Wenke, 2012-06-19 Die Erde ist eine Scheibe! Die Erde ist eine Kugel! 2012-06-19, H.W., Wörtlich 1992-11-02, Papst J.P. II. Sinngemäß. Kirchengeschichtlicher
Einleitung 2. 1 Koordinatensysteme 2. 2 Lineare Abbildungen 4. 3 Literaturverzeichnis 7
Sonja Hunscha - Koordinatensysteme 1 Inhalt Einleitung 2 1 Koordinatensysteme 2 1.1 Kartesisches Koordinatensystem 2 1.2 Polarkoordinaten 3 1.3 Zusammenhang zwischen kartesischen und Polarkoordinaten 3
Rendering Grundlagen Autodesk Maya. Grundlagen. Version 1.0-2009-04-08. 2009 Ingo Clemens brave rabbit www.braverabbit.de
Rendering Grundlagen Version 1.0-2009-04-08 Allgemeine Unterschiede bei Renderern Scanline Rendering Raytrace Rendering Renderlayer Einsatz von Renderlayern Overrides Material Overrides Layer Presets Batch
Softwareprojekt Spieleentwicklung
Softwareprojekt Spieleentwicklung Prototyp I (2D) Prototyp II (3D) Softwareprojekt 12.04. 19.04. 26.04. 03.05. 31.05. Meilenstein I 28.06. Meilenstein II Prof. Holger Theisel, Tobias Günther, OvGU Magdeburg
4.3 Beleuchtung und Schattierung
4.3 Beleuchtung und Schattierung Die Grundbestandteile des Renderprozesses Atmosphärische Streuung Emission Reflexion/ Transmission/ Emission Oberfläche 4-38 4.3 Beleuchtung und Schattierung Beleuchtung
Computer Graphik I Generative Computergraphik Intro
Computer Graphik I Generative Computergraphik Intro Marc Alexa, TU Berlin, 2014 Ziele Modellierung Ziele Bildgenerierung Anwendungen Ausgabe Kontakt Marc Alexa TU Berlin Computer Graphik [email protected]
Projektion. Ebene geometrische Projektionen
Projektion - 1 - Ebene geometrische Projektionen Die ebenen geometrischen Projektionen sind dadurch charakterisiert, daß mit Projektionsstrahlen konstanter Richtung, d.h. entlang von Geraden, auf Ebenen
Bildbearbeitung und Texturierung
Ulf Döring, Markus Färber 07.03.2011 1. Anti-Aliasing (a) Wodurch entsteht der Aliasing-Effekt bei der Rasterisierung einer Linie? (b) Wie kann der Aliasing-Effekt durch Supersampling mit nachträglichem
Rendering: Lighting & Shading
Hauptseminar How to make a Pixar Movie WS 2010 / 2011 Rendering: Lighting & Shading von Manuel Schmidt Gliederung: 1 Einführung 1.1 Rendering 1.2 Reflektionsmodelle 1.2.1. Diffuse Reflektion 1.2.2. Spieglende
1.6 Objekte Anordnung der Projektionsgeräte. ˆ Einzelsystem ˆ Rundumprojektion ˆ Kaskadierte Projektion Art der Projektion
1.5.3 Anordnung der Projektionsgeräte ˆ Einzelsystem ˆ Rundumprojektion ˆ Kaskadierte Projektion 1.5.4 Art der Projektion ˆ 2D ˆ Stereo 3D Polarisationsfilter * radial * linear Autostereogramme * Textstereogramme
1. Einführung in die Computergraphik Wer braucht Computergraphik Komponenten von Computergraphik-Software 4
Index Einführung in Visual Computing Kapitel 1, Vs.13 emptyvi, informatik-forum.at 1. Einführung in die Computergraphik 3 1.1. Wer braucht Computergraphik 3 1.2. Komponenten von Computergraphik-Software
CGR I Beleuchtung und Schattierung
CGR I Beleuchtung und Schattierung SS 2004 Michael Haller Medientechnik und -design Ankündigung 25.Mai (HEUTE!!), 18:00 HS1 Hr. Riegler, Firma Sproing 03. Juni, 17:30 HS1 Prof. Dieter Schmalstieg, TU Wien
Real-Time High-Dynamic Range Texture Mapping
Real-Time High-Dynamic Range Texture Mapping Jonathen Cohen, Chris Tchou, Tim Hawkins and Paul Debevec Präsentiert von Daniel Wickeroth Einführung Worum geht s? Darstellung realistischer Szenen Innen -
Diplomarbeit. Neue Möglichkeiten durch programmierbare Shader. Unter der Leitung von: Prof. Dr.-Ing. Detlef Krömker
Diplomarbeit 5HDO7LPH6SHFLDO (IIHFWV Neue Möglichkeiten durch programmierbare Shader Unter der Leitung von: Prof. Dr.-Ing. Detlef Krömker Betreut von: Paul Grimm, Ralf Dörner Beginn: 01.04.02 Abgabe: 30.09.02
Nichtrealistische Darstellung von Gebirgen mit OpenGL
Nichtrealistische Darstellung von Gebirgen mit OpenGL Großer Beleg Torsten Keil Betreuer: Prof. Deussen Zielstellung Entwicklung eines Algorithmus, der die 3D- Daten einer Geometrie in eine nichtrealistische
9. Grundzüge der Beleuchtungsrechnung
9. Grundzüge der Beleuchtungsrechnung Beleuchtungsmodelle (illumination models, lighting models) beschreiben die Faktoren, die die Farbe eines Objekts an einem Punkt bestimmen Shading models beschreiben,
Grundlagen der Computergraphik Klausur SS08
Grundlagen der Computergraphik Klausur SS08 Prof. Dr. Holger Theisel 23. Juli 2008 Vorname: Nachname: Matrikelnummer: Anzahl zusätzlicher Blätter: Die Tabelle wird bei der Korrektur ausgefüllt! Aufgabe
Sichtbarkeitsalgorithmen im Zusammenhang mit CAD
Sichtbarkeitsalgorithmen im Zusammenhang mit CAD Markus Harthum Bei der Darstellung von computergenerierten dreidimensionalen Bildern gibt es das Problem, dass der Computer von sich aus nicht unterscheiden
Prozedurale Texturen >>Was nicht passt wird passend gemacht...<<
Prozedurale Texturen >>Was nicht passt wird passend gemacht...
Echtzeitfähige hige Verfahren in der Computergrafik. Lehrstuhl für f r Informatik Computer Grafik und Visualisierung TUM
Echtzeitfähige hige Verfahren in der Computergrafik Prof. Dr. Rüdiger R Westermann Lehrstuhl für f r Informatik Computer Grafik und Visualisierung TUM Lehr- und Forschungsinhalte Visualisierung Darstellung
Computergrafik Sommersemester 2004 Übungen
Sommersemester 4 Freiwillige Zusatzübung Aufgabe 6: Transformationen im zweidimensionalen aum Berechnen Sie die Transformationsmatri, die eine Szene zuerst um 3 Grad um den Ursprung dreht und anschließend
Inhaltsverzeichnis. 1 Hardwaregrundlagen
Inhaltsverzeichnis 1 Hardwaregrundlagen 2.4 2.5 Perspektivische 2.6 Parallele 2.7 Umsetzung der Zentralprojektion 2.8 Weitere 2.9 Koordinatensysteme, Frts. 2.10 Window to Viewport 2.11 Clipping 3 Repräsentation
Graphische Datenverarbeitung und Bildverarbeitung
Graphische Datenverarbeitung und Bildverarbeitung Hochschule Niederrhein Shading-Verfahren Graphische DV und BV, Regina Pohle, 22. Shading-Verfahren Einordnung in die Inhalte der Vorlesung Einführung mathematische
Universität Augsburg. 20. April 2012. B. Möller (U. Augsburg) Computergraphik SS12 20. April 2012 1 / 6
Kapitel 1 Einführung B. Möller Universität Augsburg 20. April 2012 B. Möller (U. Augsburg) Computergraphik SS12 20. April 2012 1 / 6 Begriffsdefinition Computergrafik: realistische Darstellung realer oder
1. Sichtbarkeitsproblem beim Rendern einer dreidimensionalen Szene auf einer zweidimensionalen
3D-Rendering Ulf Döring, Markus Färber 07.03.2011 1. Sichtbarkeitsproblem beim Rendern einer dreidimensionalen Szene auf einer zweidimensionalen Anzeigefläche (a) Worin besteht das Sichtbarkeitsproblem?
Berechnung von Formfaktoren
Berechnung von Formfaktoren Oliver Deussen Formfaktorberechnung 1 Formfaktor ist eine Funktion in Abhängigkeit der Geometrie ist unabhängig von reflektierenden oder emittierenden Eigenschaften (ρ) der
die Planung eindrucksvoll präsentieren
Ambientes Licht die Planung eindrucksvoll präsentieren Fotorealismus Linsensystem, Blende, Schärfentiefe/Tiefenschärfe Fotorealismus Materialeigenschaften, Oberflächenstruktur, Reflektion, Absorption Fotorealismus
(10) Deferred Shading
(10) Deferred Shading Vorlesung Computergrafik II Stefan Müller Dank an Niklas Henrich, Gerrit Lochmann Wdh. 1: Framebufferobjects (FBOs) Statt in den Framebuffer direkt zu rendern, kann man Texturen attachen,
Einführung in das Visualization ToolKit. Institut für Simulation und Graphik, Otto-von-Guericke Universität Magdeburg
Einführung in das Visualization ToolKit VTK Einführung: Gliederung Was ist VTK? VTK-Konzept Vorstellung MeVisLab VTK Beispiel in MeVisLab 2/26 Was ist VTK? Freie Software-Bibliothek für 3D Graphik und
Abb. 5-5 Gegenüberstellung von Flat-Shading und Gouraud-Shading. Beleuchtungsberechnung mit nur einer Flächennormale pro Polygon
Direkte Schattierungsverfahren (Gouraud) 5.1.5 Kontinuierliche Schattierung von Polygonen (Gouraud-Shading) bisher: Zerlegung gekrümmter Flächen (Zylinder, Kugeln, B-Spline-Flächen etc.) in Polygone (meist
RTT DeltaGen Suite. Materialeinstellungen für OpenGL, RTT RealTrace & Global illumination. Copyright 2010 by Realtime Technology AG
RTT DeltaGen Suite Materialeinstellungen für OpenGL, RTT RealTrace & Global illumination Copyright 2010 by Realtime Technology AG Look Editor Der Look Editor zeigt die Eigenschaften des Looks des selektierten
7.1 Polygon Offset. Anwendung - Darstellung von Polygonen als Teil von Oberflächen - Beispiel: Gradlinien auf der Erde - Schwierigkeit:
7.1 Polygon Offset Anwendung - Darstellung von Polygonen als Teil von Oberflächen - Beispiel: Gradlinien auf der Erde - Schwierigkeit: - Polygone sollen einmal als Fläche und einmal in Wireframe-Darstellung
Analytical Relief Shading. Topographische und Hochgebirgskartographie, SS2014 Egger Michaela a
Analytical Relief Shading Topographische und Hochgebirgskartographie, SS2014 Egger Michaela a0908356 Definition Ist der computerbasierte Prozess eine Schummerung aus einem Digitalen Höhenmodell (DHM) zu
Bildverarbeitung: 3D-Geometrie. D. Schlesinger () Bildverarbeitung: 3D-Geometrie 1 / 13
Bildverarbeitung: 3D-Geometrie D. Schlesinger () Bildverarbeitung: 3D-Geometrie 1 / 13 Lochkamera Modell C Projektionszentrum, Optische Achse, Bildebene, P Hauptpunkt (optische Achse kreuzt die Bildebene),
Grundlagen der Vektorrechnung
Grundlagen der Vektorrechnung Ein Vektor a ist eine geordnete Liste von n Zahlen Die Anzahl n dieser Zahlen wird als Dimension des Vektors bezeichnet Schreibweise: a a a R n Normale Reelle Zahlen nennt
Spline-artige Kurven auf Subdivision Surfaces. Jörn Loviscach Hochschule Bremen, Germany
Spline-artige Kurven auf Subdivision Surfaces Jörn Loviscach Hochschule Bremen, Germany Überblick Spline-artige Kurven auf Spline-Flächen Kurven auf SDS: Problem, Anwendung Verwandte Arbeiten Spline-artige
3D-Computergrafik und animation. Shading und globale Beleuchtungsverfahren, Animationstechniken
3D-Computergrafik und animation Shading und globale Beleuchtungsverfahren, Animationstechniken 1 Von 2D nach 3D Weiter: Modell für eine Sichtbeschreibung 2 Kameramodell Reale Kamera als Orientierung und
Tutorial: Materialien - Chrom mit Raytracing Stand:
Tutorial: Materialien - Chrom mit Raytracing Stand: 07.01.2009 Blender-Version: 2.33a Autor: Torsten Funk Website: www.torsten-funk.de Download: tutorial.zip PDF-Version: tutorial.pdf 01 - Vorbereitungen
Mathematische Grundlagen
Mathematische Grundlagen Oliver Deussen Mathematische Grundlagen 1 Affine Räume um Zeichenebene bzw. Raum zu beschreiben, muß vorher ein Koordinatensystem festgelegt werden durch geometrische Fragestellungen
Scene Reconstruction with Multiple View Geometry
Scene Reconstruction with Multiple View Geometry Anwendungen 2 16.06.2010 Nikolaus Rusitska [email protected] Inhalt Rückblick Techniken Related Work Fazit 1 Rückblick Techniken Related Work Fazit
