7 Mapping-Techniken. Achim Ebert CG.7.1
|
|
|
- Gesche Hofer
- vor 8 Jahren
- Abrufe
Transkript
1 7 Mapping-Techniken Achim Ebert CG.7.1
2 7.1 Motivation Bisher sind alle Oberflächen (polygonale Objekte, später auch parametrisierte Freiformflächen) glatt im Gegensatz zu wirklich existierenden natürlichen Oberflächen. +? Achim Ebert CG.7.2
3 7.1 Motivation Explizite Wiedergabe von Oberflächendetails oft zu aufwendig (Modellierung und Rendering) Details deshalb oft durch die Anwendung verschiedenster Mapping-Techniken simuliert Am Anfang stand das reine Texture Mapping: (...) Projektion (zweidimensionaler) (Strukturen und) Muster auf die Oberfläche von Körpern (...) Darauf aufbauend existieren mittlerweile verschiedenste Varianten, viele davon Hardwareunterstützt! Entsprechend wird heute die Simulation von Oberflächendetails i.d.r. mittels Bitmaps, also 2D-Bildern, durchgeführt Achim Ebert CG.7.3
4 7.2 Texture Mapping Ausprägungen Jahr Name(n) Verfahren Merkmal 1974 Catmull Texture Mapping Farbe 1976 Blinn, Newell Reflection Mapping Reflexionen Bump Map 1978 Blinn Bump Mapping Normalen 1985 Gardener Transparency Mapping Transparenz 1986 Greene Environment Mapping Reflexionen Displacement Mapping Form, Geometrie Texture Map Transparency Map 1987 PIXAR Weitere Verfahren: Procedural Mapping, 3D Texture Mapping, Stanze Achim Ebert CG.7.4
5 7.2 Texture Mapping Ziele Darstellung von Oberflächendetails (Materialien) Ohne aufwändige Geometrieberechnung Ohne aufwändige Repräsentation Ohne aufwändigeres Rendering Abbildung T :( x, y,z) 3 m, 2, 3,... All it takes is for the rendered image to look right. (Jim Blinn, SIGGRAPH 84) Problemstellungen Realisierung der Abbildung? Speicherung der Abbildungsvorschrift? Üblich: 2 Schritte (A und B) Achim Ebert CG.7.5
6 7.2 Texture Mapping Schritt B Gängig: Speicherung der Abbildungswerte in Bitmap ( Texture Map ) Bsp.: T : 2 3 mit T (u,v) : 0,1 0,1 3 Alternativ: Prozedurale Erzeugung Schritt A Abbildung 3D-Punkt-Koordinaten auf 2D-Textur- Koordinaten Zusammen: ( x, y,z) 3 A ( u,v) 2 T ( u,v) 3 Für sichtbare Vertices Für Pixel innerhalb sichtbarer Polygone: Interpolation Achim Ebert CG.7.6 B
7 7.2 Texture Mapping Begriffe: Texture Map: Das zu mappende Bild oder Muster (Realbild oder synthetisches Bild) Texel: Einzelelemente (Pixel) der Texture Map Prinzip: Achim Ebert CG.7.7
8 7.2 Texture Mapping Im praktischen Einsatz Es erweist sich oft als sinnvoll, den eigentlichen Mapping Vorgang zweigeteilt durchzuführen In der Sichtweise forward mapping: (1) s-mapping Zunächst wird die Textur durch eine geeignete (einfache) Abbildung auf eine einfache Zwischenfläche (intermediate surface) projiziert. Zwischenflächen: Rechteck, Box, Zylinder, Kugel (2) o-mapping Von dort wird die Textur auf das wirklich zu texturierende Objekt (mit einer allgemeinen Fläche) übertragen. Achim Ebert CG.7.8
9 7.2 Texture Mapping y Beispiel: Zwischenobjekt planares Rechteck (Schritt A) Gegeben: (0,h,0) (b,h,0) (0,1)? (1,1) v z x (0,0,0) (b,0,0) (0,0) (1,0) u Bestimmung der Textur-Koordinaten: ( ) u x, y,z ( ) v x, y,z x = b y = h ( x, y) [ 0,b] [ 0,h] (0,0) (1,1) (1,1) Achim Ebert CG.7.9
10 7.2 Texture Mapping Beispiel: Zwischenobjekt Kugel Kugelkoordinaten: ( x,y,z) = ( rcosφsinθ, rsinφsinθ, rcosθ), φ 0,2π, θ 0,π Abbildung planares Rechteck auf Kugel Verzerrungen Daher: Einschränkung auf Teilkugel θ u θ o φ l φ z θ r φ r Bestimmung der Textur-Koordinaten (Bsp.) φ φl u ( φ, θ ) = φ r φ l ( φ, θ) [ φl, φ r ] [ θo, θu ] θ θ v φ, θ = θ θ ( ) u o u x y Achim Ebert CG.7.10
11 7.2 Texture Mapping Beispiel: Zwischenobjekt Kugel Teilkugel: π π π φ l = 0, φ r =, θ u =, θ o = θ u θ o φ l φ z θ r φ r x y Beispiel: φ π / 2 θ u, v =, π / 2 π / 4 ( ) D.h.: u, v [ 0,1] Achim Ebert CG.7.11
12 7.2 Texture Mapping Verwendung der Zwischenobjekte am Beispiel Zylinder Planar Kugel Achim Ebert CG.7.12
13 7.2 Texture Mapping Techniken des o-mappings: 1. Reflexionsstrahl 2. Objektzentrum 3. Normalenvektor 4. Hilfsobjektnormale Achim Ebert CG.7.13
14 7.2 Texture Mapping Texture Mapping und Aliasing Texture Mapping ist äußerst anfällig für Aliasing- Effekte: Ein Pixel in Bildschirmkoordinaten kann nach der Rückprojektion auf die Textur dort den Bereich mehrerer Texels überdecken Abtastung? Idealerweise: Integral, Praxis: Samples + Filterung Minification Achim Ebert CG.7.14
15 7.2 Texture Mapping Texture Mapping und Aliasing (cont.) Texture Mapping ist äußerst anfällig für Aliasing- Effekte (cont.) Umgekehrt: Ein Texel auf der Textur kann in Bildschirmkoordinaten mehrere Pixel überdecken Abtastung? Magnification Texture Maps werden i. A. periodisch aneinandergereiht, um eine größere Fläche zu bedecken Vorsicht: Periodizität und Abtasttheorem! Lösungsansätze: Oversampling, Filterung und Mip-Mapping Achim Ebert CG.7.15
16 7.3 Bump Mapping Reines Texture Mapping Erzeugt den Eindruck einer texturierten aber glatten/ebenen Oberfläche Bump Mapping Ziel: Oberfläche aufrauhen und dreidimensionaler wirken lassen Idee: nicht Geometrie der Oberfläche selbst verändern, sondern Normalen bei der Auswertung des Beleuchtungsmodells manipulieren Simulation von Oberflächenunebenheiten auf eigentlich glatten / einfachen Oberflächen erfolgt also durch reine Veränderung der Normalenvektoren der Geometrie Achim Ebert CG.7.16
17 7.3 Bump Mapping Grundlegende Beobachtung: Achim Ebert CG.7.17
18 7.3 Bump Mapping Verfahren Es wird die originale ( einfache ) Fläche visualisiert, aber die Normalen angepasst Erinnerung: Das Phong-Beleuchtungsmodell verwendet außer den Normalen keine weitere Geometrieinformationen! Komplexe Geometrie mit Normalen Einfache Geometrie mit angepassten Normalen Achim Ebert CG.7.18
19 7.3 Bump Mapping Verfahren Veränderung der Normalenvektoren Prozedural oder Unter Verwendung von Texturen (Bump / Normal Maps) Bump Maps (Height Maps) Höhentextur als Graustufenbild Ähnlich einer Landkarte Höhere Punkte erhalten hellere Färbung, niedrigere Punkte erhalten dunklere Färbung Normal Maps Werte der Flächennormalen sind in den Farbwerten der Normal-Map gespeichert Häufig: rot = x, grün = y, blau = z Textur + Height Map [wikibooks.org] Textur + Normal Map [wikibooks.org] Achim Ebert CG.7.19
20 7.3 Bump Mapping Verfahren Es können regelmäßige Strukturen (z. B. Golfball) als auch unregelmäßige Strukturen (z. B. Baumrinde) simuliert werden [Ohio State University] [Ohm Hochschule] Achim Ebert CG.7.20
21 7.3 Displacement Mapping Nachteil Bump Mapping Betrachtet man die Silhouette eines mit Bump Mapping dargestellten Körpers, so merkt man jedoch bei genauerem Hinsehen, dass die Oberfläche in Wirklichkeit eben ist Displacement Mapping Über eigentliche Oberfläche wird ein Höhenfeld gelegt, dessen einzelne Punkte in Richtung der Oberflächennormalen anhand einer Texture Map verschoben werden Hier werden also tatsächlich Oberflächenpunkte bewegt (d.h. die Geometrie temporär geändert)! Vorteil: Silhouette Nachteil: schwer kontrollierbare Polygonanzahl Achim Ebert CG.7.21
22 7.3 Bump vs. Displacement Mapping [DMA, Kunst Universität Linz] Achim Ebert CG.7.22
23 7.3 Bump vs. Displacement Mapping [Bentley Systems Inc.] [Tom s Hardware] Achim Ebert CG.7.23
24 7.5 Opacity / Transparency Mapping Ähnlich dem Alpha-Kanal bei Bildern Objekt, auf das Opacity Map gelegt wird, kann entsprechend der verwendeten Bildvorlage auf seiner ganzen Oberfläche oder nur stellenweise (graduell) transparent sein Achim Ebert CG.7.24
25 7.6 Procedural Mapping Allgemeine Methode, die den Umstand beschreibt, dass eine algorithmische Beschreibung die Grundlage des verwendeten Mapping-Verfahrens darstellt Prinzip wird i.d.r. für 3D-Texturen angewendet Beispiel: Simulation von Unregelmäßigkeit Achim Ebert CG.7.25
26 7.7 3D (Texture) Mapping Andere Bezeichnung: Festkörper-Textur (solid texture) Statt einem 2D-Bild wird eine an jedem Punkt im 3D-Raum definierte Map benutzt Mittels prozeduralen Ansätzen und geeigneten mathematischen Funktionen lassen sich wirklichkeitsgetreue, 3-dim. Muster erzeugen Holzmaserung Perlin Marmor [Ohm Hochschule] Steinstruktur Achim Ebert CG.7.26
27 7.7 3D (Texture) Mapping Diskrete 3D-Texturen 3-dimensionales Array Lokale Koordinaten der Oberfläche indizieren direkt die Textur: (r, g, b) = C tex (x, y, z) Geometriebeschreibung schnitzt Objekt aus Texturvolumen heraus Prozedurale Texturen Berechnen Farbwerte aus mathematischen Funktionen oder fraktalem Algorithmus Vorteile: minimaler Speicheraufwand, hohe Genauigkeit, im ganzen Raum definiert Nachteile: Funktionen sind schwer zu erzeugen, Berechnungsaufwand (Echtzeit!?) Achim Ebert CG.7.27
28 7.7 3D (Texture) Mapping 3D Texture Mapping Prozedurale 3D-Textur [Klaas Nienhuis] Achim Ebert CG.7.28
29 7.7 3D (Texture) Mapping [Klaas Nienhuis] Achim Ebert CG.7.29
30 7.8 Environment Mapping Motivation Bisher: Texturkoordinaten bleiben fest, auch bei Bewegung Objekt / Beobachter u-v-koordinaten reine Funktion des Objekts Problem: ungeeignet für spiegelnde Objekte (z.b. glänzende Kugel) Übliche Lösung: Raytracing Korrekte Simulation des Lichtwegs durch Gesetze der geometrischen Optik Aber: Software-Rendering! Keine GPU-Unterstützung! Kein Echtzeitverhalten! Ziel des Environment Mappings: Approximation von Reflexionen mit Hilfe der Textur-Hardware! Achim Ebert CG.7.30
31 7.8 Environment Mapping Historisch ältestes Verfahren: Sphere Mapping Achim Ebert CG.7.31
32 7.8 Environment Mapping Sphere Mapping: Geometrie Sichtstrahl Reflexionsstrahl Normale Bildebene Reflektierende Kugel hintere Hälfte vordere Hälfte Sphere Map Vorstellung: Betrachter sehr weit entfernt, Kugel sehr klein Achim Ebert CG.7.32
33 7.8 Environment Mapping Realisierung von Schritt A (s. vorne) Abbildung 3D-Punkt-Koordinaten auf 2D-Textur- Koordinaten: ( x,y,z) 3 ( Reflexionsvektor u,v) 2 r 3 ( u,v) 2 Reflexionsgesetz Reflexionsrichtungen Textur-Koordinaten Reflexionsgesetz: s r r = 2 s, n n s n Geometrie-Setup: Einheitskugel im Ursprung 1 v u z y 1 x Zuordnung: Punkt-Koord. Textur-Koord. y = 2v 1 x = 2u z = 1 x y Achim Ebert CG.7.33
34 7.8 Environment Mapping T Normale n = n 0 = (n x,n y,n z ) = (x, y, z) Sichtrichtung: : T s = (0, 0,1) Nach Refexionsgesetz: rx n x 0 r = r = 2n n 0 y z y r z n z 1 T x = 2u 1 Nach n auflösen, normalisieren: rx n x 1 n0 = r y = n y rx + r y + (rz + 1) rz 1 n + z v 1 0 u z y 1 x -1 Resultat: u r 1 2 x = rx ry rz 1 ry 1 v = ( + ) 2 r + r + ( r + 1) x y z Achim Ebert CG.7.34
35 7.8 Environment Mapping Beispiele Achim Ebert CG.7.35
36 7.8 Environment Mapping Beispiele [Paul Haeberli] Achim Ebert CG.7.36
37 7.8 Environment Mapping Beispiele Fisheye Aufnahmen (nach vorne und hinten) Resultierende Environment Maps (Zentrum vorne und hinten, je nachdem wo mehr Details benötigt werden) [Seth Green] Achim Ebert CG.7.37
38 7.8 Environment Mapping Beispiele [Seth Green] Achim Ebert CG.7.38
39 7.8 Environment Mapping Beispiele [Need For Speed] Achim Ebert CG.7.39
40 7.8 Environment Mapping Probleme Sphere Map gilt nur für einen Beobachtungspunkt! Dynamische Neuberechnung der Sphere Map ist aufwendig! Verbesserungen Dual-Paraboloid-Mapping Cube Mapping (in heutiger Grafik-Hardware implementiert) Achim Ebert CG.7.40
41 7.8 Environment Mapping Cube Map Von der Mitte eines (gedachten) Würfels werden 6 Bilder durch alle Stirnflächen berechnet Cube Maps werden in OpenGL direkt unterstützt Hoher Aufwand: Bearbeitung von 6 Texturen notwendig Sichtpunkt [Wikipedia] Achim Ebert CG.7.41
42 7.8 Environment Mapping Environment Cube Mapping Zu texturierendes Objekt wird innerhalb des Würfels platziert Zur Berechnung der Spiegelung (d.h. der Texturkoordinaten) wird der jeweilige Reflexionsvektor verwendet Umsetzung in OpenGL Texturgenerierungsmethode GL_NORMAL_MAP: Es wird der Teil der Textur auf das Objekt gemappt, auf welchen die Normale des Punktes zeigt, der vom Blickvektor getroffen wurde Texturgenerierungsmethode GL_REFLECTION_MAP: Es wird der Teil der Textur auf das Objekt gemappt, auf welchen der Reflektionsvektor zeigt, der von dem getroffenen Punkt ausgeht [Wikipedia] Achim Ebert CG.7.42
43 7.8 Environment Mapping Environment Cube Mapping [DGL Wiki] Achim Ebert CG.7.43
44 7.8 Environment Mapping Environment Cube Mapping Bisher: statische Cube Map Spiele: Umgebung (dynamisch...) soll sich in Echtzeit spiegeln Daher: dynamisches Cube Mapping Alle Seiten des Würfels Frame für Frame in die entsprechenden Texturen rendern Objekt, das spiegeln soll, darf in Berechnung natürlich nicht vorhanden sein Vorsicht: sparsam verwenden! Rendern der Texturen kostet natürlich Performance, daher beispielsweise Auflösung nicht zu hoch setzen [Wikipedia] Achim Ebert CG.7.44
45 7.8 Environment Mapping Beispiele [NVidia] Achim Ebert CG.7.45
46 7.8 Environment Mapping Beispiele (dynamisch) [zanir.wz.cz] Achim Ebert CG.7.46
47 7.9 Chrome / Reflection Mapping Abbildung eines willkürlichen Musters aus dem zweidimensionalen Texturraum (chrome map) auf eine reflektierende Oberfläche Chrome Mapping basiert auf gleicher Idee wie Environment Mapping Sichtstrahl trifft auf Objekt Reflektionsstrahl schneidet Chrome Map Unterschiede liegen in der Textur Chrome Mapping: Map bildet Materialstruktur (z.b. Metall, Glas) ab Environment Mapping: Map besteht aus Abbild der Umgebung Achim Ebert CG.7.47
48 7.9 Chrome / Reflection Mapping Chrome + Bump Mapping [Second Picture] Chrome Mapping [Second Picture] Achim Ebert CG.7.48
49 7.10 Resümee Mapping-Techniken bilden die wesentliche Grundlage für praktisch alle heute kommerziell eingesetzten Computergrafik-Techniken Verschiedene Arten von Mapping-Techniken können miteinander kombiniert auf das gleiche Objekt angewendet werden Dies leisten heute verfügbare Werkzeuge, Rendering- und Animationspakete standardmäßig Alle Arten von Mapping-Techniken sind äußerst anfällig für Aliasing-Effekte! Achim Ebert CG.7.49
50 7.10 Resümee Beispiel: Environment + Bump Mapping [Godzilla Unleashed, Wii] Achim Ebert CG.7.50
51 7.10 Resümee Beispiel: Chrome / Reflection Mapping + Ray Tracing [Terminator 2] Achim Ebert CG.7.51
Inhaltsverzeichnis - Themen
Inhaltsverzeichnis - Themen 1 Hardwaregrundlagen 2 Transformationen und Projektionen 3 Repräsentation und Modellierung von Objekten 4 Visibilität und Verdeckung 5 Rasterung 6 Rendering 7 Abbildungsverfahren
(7) Normal Mapping. Vorlesung Computergraphik II S. Müller. Dank an Stefan Rilling U N I V E R S I T Ä T KOBLENZ LANDAU
(7) Normal Mapping Vorlesung Computergraphik II S. Müller Dank an Stefan Rilling Einleitung Die Welt ist voller Details Viele Details treten in Form von Oberflächendetails auf S. Müller - 3 - Darstellung
Probelektion zum Thema. Shadow Rendering. Shadow Maps Shadow Filtering
Probelektion zum Thema Shadow Rendering Shadow Maps Shadow Filtering Renderman, 2006 CityEngine 2011 Viewport Real reconstruction in Windisch, 2013 Schatten bringen viel Realismus in eine Szene Schatten
Computergraphik Grundlagen
Computergraphik Grundlagen IX. Texturen und Schatten Prof. Stefan Schlechtweg Hochschule Anhalt Fachbereich Informatik Inhalt Lernziele 1. Texture Mapping 1. Texture Pipeline 2. Environment Mapping 3.
Wima-Praktikum 2: Bildsynthese-Phong
Wima-Praktikum 2: Bildsynthese-Phong Wima-Praktikum 2: Prof. Dr. Lebiedz, M. Sc. Radic 1 Inhaltsverzeichnis 1 Einleitung 3 2 Kurze Beschreibung der Aufgabenstellung und dem Phong- Modell 3 3 Modellierung
Lokale Beleuchtungsmodelle
Lokale Beleuchtungsmodelle Oliver Deussen Lokale Modelle 1 Farbschattierung der Oberflächen abhängig von: Position, Orientierung und Charakteristik der Oberfläche Lichtquelle Vorgehensweise: 1. Modell
Überblick Echtzeit-Rendering. Uwe Domaratius [email protected]
Überblick Echtzeit-Rendering Uwe Domaratius [email protected] Gliederung 1. Einleitung 2. geometriebasierende Verbesserungen 3. Level-of-Detail 4. Culling 5. Texturen 6. bildbasiertes Rendering Was
19.09.2014. 2D-Texturen. Reflectance Mapping 3D-Texturen. Farbtexturen
2D-Texturen Texturarten Transformationen Generierung Thomas Jung Reflectance Mapping 3D-Texturen Modellierung von Details erfordert Zeit Darstellung ist aufwendig (langsam) Details belegen Speicherplatz
Programmierpraktikum 3D Computer Grafik
Dipl.Inf. Otmar Hilliges Programmierpraktikum 3D Computer Grafik Szenegraphen, Texturen und Displaylisten. Agenda Beleuchtungsmodelle in OpenGL Bump-Maps zur Erzeugung von Reliefartigen Oberflächen Height-Maps
3.5 Implizite Beschreibungen
3.5 Implizite Beschreibungen 3 Repräsentation und Modellierung von Objekten Idee: Beschreibung von Objekt-Flächen bzw. -Volumina als Isoflächen in Skalarfeldern. Die Skalarfelder ihrerseits entstehen kontrolliert
Proseminar Computergraphik. 3D - Modellierung
TECHNISCHE UNIVERSITÄT DRESDEN FAKULTÄT INFORMATIK INSTITUT FÜR SOFTWARE- UND MULTIMEDIATECHNIK PROFESSUR FÜR COMPUTERGRAPHIK UND VISUALISIERUNG PROF. DR. STEFAN GUMHOLD Proseminar Computergraphik 3D -
Seminar Game Development Game Computer Graphics. Einleitung
Einleitung Gliederung OpenGL Realismus Material Beleuchtung Schatten Echtzeit Daten verringern Grafik Hardware Beispiel CryEngine 2 Kristian Keßler OpenGL Was ist OpenGL? Grafik API plattform- und programmiersprachenunabhängig
"rendern" = ein abstraktes geometrisches Modell sichtbar machen
3. Grundlagen des Rendering "rendern" = ein abstraktes geometrisches Modell sichtbar machen Mehrere Schritte: Sichtbarkeitsberechnung Beleuchtungsrechnung Projektion Clipping (Abschneiden am Bildrand)
Jörn Loviscach Hochschule Bremen
Programmierbare Hardware-Shader Jörn Loviscach Hochschule Bremen Überblick Vertex- und Pixel-Shader Anwendungsbeispiele fx-dateien Anwendungsbeispiele Zusammenfassung Puffer Vertex- und Pixel-Shader Hardware-Renderpipeline
Kapitel 0. Einführung. 0.1 Was ist Computergrafik? 0.2 Anwendungsgebiete
Kapitel 0 Einführung 0.1 Was ist Computergrafik? Software, die einen Computer dazu bringt, eine grafische Ausgabe (oder kurz gesagt: Bilder) zu produzieren. Bilder können sein: Fotos, Schaltpläne, Veranschaulichung
Texture Based Direct Volume Rendering
Texture Based Direct Volume Rendering Vorlesung: "Advanced Topics in Computer Graphics" [email protected] 1 Agenda 1. Einleitung Volume Rendering 1.1. Volumendatensatz 1.2. Volumenintegral 1.3. Image order
:= Modellabbildung. Bildsynthese (Rendering) Bildsynthese
Geometrisches Modell bestehend aus Datenstrukturen zur Verknüpfung geometrischer Primitive, welche eine Gesamtszene beschreiben Bildsynthese := Modellabbildung Pixelbasiertes Modell zur Darstellung eines
Real-Time High-Dynamic Range Texture Mapping
Real-Time High-Dynamic Range Texture Mapping Jonathen Cohen, Chris Tchou, Tim Hawkins and Paul Debevec Präsentiert von Daniel Wickeroth Einführung Worum geht s? Darstellung realistischer Szenen Innen -
4.3 Beleuchtung und Schattierung
4.3 Beleuchtung und Schattierung Die Grundbestandteile des Renderprozesses Atmosphärische Streuung Emission Reflexion/ Transmission/ Emission Oberfläche 4-38 4.3 Beleuchtung und Schattierung Beleuchtung
Berechnung von Formfaktoren
Berechnung von Formfaktoren Oliver Deussen Formfaktorberechnung 1 Formfaktor ist eine Funktion in Abhängigkeit der Geometrie ist unabhängig von reflektierenden oder emittierenden Eigenschaften (ρ) der
Die Grundlagen des Texture Mapping
Die Grundlagen des Texture Mapping Sascha Vöhringer Zusammenfassung In folgender Arbeit werden zusammenfassend die Grundlagen, die Funktionsweise und die Motivation für Texture Mapping erläutert. In Abschnitt
Prüfungsprotokoll Computergrafik 1 und 2 (1692 & 1693) Prüfer: M. Felten von: Lindig Florian. Dauer: 30 min jeweils. Note: 1.
Prüfungsprotokoll Computergrafik 1 und 2 (1692 & 1693) Prüfer: M. Felten von: Lindig Florian Dauer: 30 min jeweils Note: 1.0 jeweils Alles in allem eine lockere Atmosphäre, man bekommt genug Papier und
Kollisionserkennung
1 Kollisionserkennung von Jens Schedel, Christoph Forman und Philipp Baumgärtel 2 1. Einleitung Wozu wird Kollisionserkennung benötigt? 3 - für Computergraphik 4 - für Simulationen 5 - für Wegeplanung
Graphische Datenverarbeitung
Texturen Prof. Dr.-Ing. Detlef Krömker Goethe-Universität, Frankfurt 1. Einführung 2. Diskrete und prozedurale Texturen 3. Generalisierte Textur-Pipeline 4. Texturmapping Ebene Polygone Zweischrittverfahren
Farbtiefe. Gängige Farbtiefen
Farbtiefe Die Anzahl der darstellbaren Farben ist abhängig von den Farbabstufungen, die in einem Pixel gespeichert werden. Die Anzahl der darstellbaren Farbtöne wird als Farbtiefe bezeichnet. Die Farbtiefe
Raytracing. Schlussbericht. Jonas Lauener 1995, Áedán Christie 1997 Melvin Ott 1997, Timon Stampfli 1997
Raytracing Schlussbericht Jonas Lauener 1995, Áedán Christie 1997 Melvin Ott 1997, Timon Stampfli 1997 bei Betreuer Marco Manzi, Institut für Informatik und angewandte Mathematik Inhalt Fragestellung...
Photonik Technische Nutzung von Licht
Photonik Technische Nutzung von Licht Raytracing und Computergraphik Überblick Raytracing Typen von Raytracern z-buffer Raytracing Lichtstrahlen-Verfolgung (engl. ray tracing): Berechnung von Lichtstrahlen
Workshop: Einführung in die 3D-Computergrafik. Julia Tolksdorf Thies Pfeiffer Christian Fröhlich Nikita Mattar
Workshop: Einführung in die 3D-Computergrafik Julia Tolksdorf Thies Pfeiffer Christian Fröhlich Nikita Mattar 1 Organisatorisches Tagesablauf: Vormittags: Theoretische Grundlagen Nachmittags: Bearbeitung
3D rendering. Introduction and interesting algorithms. PHP Usergroup Dortmund, Dortmund, 2006-12-14. Kore Nordmann <[email protected]>
3D rendering Introduction and interesting algorithms PHP Usergroup Dortmund, Dortmund, 2006-12-14 Kore Nordmann Speaker Kore Nordmann Studies computer science at the University Dortmund
Non-Photorealistic Rendering
Übersicht 1. Motivation und Anwendungen 2. Techniken - Cel Shading - Konturlinien - Hatching Einführung Traditionelle Computergraphik Ziel: Fotorealismus Einführung Motivation Bewusste Vermeidung von
Seminar. Visual Computing. Poisson Surface Reconstruction. Peter Hagemann Andreas Meyer. Peter Eisert: Visual Computing SS 11.
Poisson Surface Reconstruction Peter Hagemann Andreas Meyer Seminar 1 Peter Eisert: SS 11 Motivation Zur 3D Darstellung von Objekten werden meist Scan-Daten erstellt Erstellung eines Dreieckmodells aus
Seminar: Grafikprogrammierung
Game Developer Converence 08 Seminar: Grafikprogrammierung Alexander Weggerle 17.04.08 Seite 2 Einführung Themenüberblick Organisatorisches Seminarablauf liches Seite 3 Einführung Seminar Motivation Vorbereitung
Visualisierung mit TurboCAD
Frank Sattler Visualisierung mit TurboCAD ab Version 10 Professional Erste Schritte / Überblick Inhalt Kriterien für Visualisierung Anforderungen an die 3D-Modellierung Eigenschaften der 3D-Objekte Gegenüberstellung
mayasketche.book Seite 58 Dienstag, 18. September 2001 4:27 16 KNUBBELMÄNNCHEN
1 mayasketche.book Seite 58 Dienstag, 18. September 2001 4:27 16 KNUBBELMÄNNCHEN Wie baue ich eine Figur, die nicht glatt ist wie der typische 3D-Character? Thematik: Modeling, Rendering Verwendete Techniken
Christina Nell 3D-Computergrafik Seminararbeit im Hauptseminar Grafikprogrammierung. Universität Ulm Sommersemester 2008
Christina Nell 3D-Computergrafik Seminararbeit im Hauptseminar Grafikprogrammierung Universität Ulm Sommersemester 2008 1 Inhalt 1 Einleitung 3 2 Beleuchtung 2.1 Grundlagen 2.2 Beleuchtung 2.3 Shading
Gameprogramming WS2013/14 Futurella von Pavel Belskiy und Felix Niemeyer Betreuer: Stefan Buschmann
Gameprogramming WS2013/14 Futurella von Pavel Belskiy und Felix Niemeyer Betreuer: Stefan Buschmann Futurella Spielprinzip & Demo - Raumschiffe - Asteroiden - Zielplaneten - LAN Multiplayer Wettrennen
Volumen Visualisierung
Volumen Visualisierung Seminar Interaktive Visualisierung (WS 06/07) Fabian Spiegel und Christian Meß Fabian Spiegel und Christian Meß 1 Übersicht Anwendungsbeispiele Volumendaten Entstehung Repräsentation
Rendering Grundlagen Autodesk Maya. Grundlagen. Version 1.0-2009-04-08. 2009 Ingo Clemens brave rabbit www.braverabbit.de
Rendering Grundlagen Version 1.0-2009-04-08 Allgemeine Unterschiede bei Renderern Scanline Rendering Raytrace Rendering Renderlayer Einsatz von Renderlayern Overrides Material Overrides Layer Presets Batch
Im Original veränderbare Word-Dateien
Bildbearbeitung Unter der digitalen Bildbearbeitung versteht man die computergestützte Bearbeitung von Bitmaps, zumeist Fotos oder gescannten Bildern. Dabei werden die Bilder oder Teile der Bilder verändert.
Automatisch-generierte Texturen aus Laserpunktwolken
Automatisch-generierte Texturen aus Laserpunktwolken Sharon Friedrich, Maik Häsner Ruprecht-Karls-Universität Heidelberg Interdisziplinäres Zentrum für wissenschaftliches Rechnen (IWR) Softwarepraktikum
Sculpting und Painting in Maya. Fabian Wilpert 1
Fabian Wilpert 1 Fabian Wilpert 2 Inhaltsangabe 1. Allgemein 2. Sculpting 3. Painting 4. Vorführung Fabian Wilpert 3 1. Allgemein sehr mächtige Tools zum Erstellen von Landschaften, Hintergründen... auch
Zwischenvortrag zum Entwicklungsstand der Bachelor-Arbeit. Direct 3D-Output für ein Rendering Framework
Zwischenvortrag zum Entwicklungsstand der Bachelor-Arbeit Direct 3D-Output für ein Rendering Framework von Benjamin Betting unter der Betreuung von Daniel Schiffner 1 Gliederung Kapitel I und II: Motivation,Einführung,Grundlagen
Flächeninhalt, Volumen und Integral
Flächeninhalt, Volumen und Integral Prof. Herbert Koch Mathematisches Institut - Universität Bonn Schülerwoche 211 Hausdorff Center for Mathematics Donnerstag, der 8. September 211 Inhaltsverzeichnis 1
Reconstruction and simplification of surfaces from contoures
CG Seminar Reconstruction and simplification of surfaces from contoures Nach Klein, Schilling und Straßer Referent Thomas Kowalski Anfangssituation - Punktdaten Das zu rekonstruierende Objekt besteht aus
Heute. Motivation. Diskretisierung. Medizinische Bildverarbeitung. Volumenrepräsentationen. Volumenrepräsentationen. Thomas Jung
[email protected] Heute Volumenrepräsentationen Thomas Jung Generierung von Volumenrepräsentationen Rendering von Volumenrepräsentationen Konvertierung in Oberflächenrepräsentationen Weitere Geometrische
Rendering. Rendern (Umsetzung oder Übertragung) Ursprüngliche Rendergleichung
DIE RENDERGLEICHUNG Die Rendergleichung, wird in der 3D-Computergrafik verwendet. Es handelt sich um eine Integralgleichung, welche die Energieerhaltung bei der Ausbreitung von Lichtstrahlen beschreibt
Spline-artige Kurven auf Subdivision Surfaces. Jörn Loviscach Hochschule Bremen, Germany
Spline-artige Kurven auf Subdivision Surfaces Jörn Loviscach Hochschule Bremen, Germany Überblick Spline-artige Kurven auf Spline-Flächen Kurven auf SDS: Problem, Anwendung Verwandte Arbeiten Spline-artige
RTT DeltaGen Suite. Materialeinstellungen für OpenGL, RTT RealTrace & Global illumination. Copyright 2010 by Realtime Technology AG
RTT DeltaGen Suite Materialeinstellungen für OpenGL, RTT RealTrace & Global illumination Copyright 2010 by Realtime Technology AG Look Editor Der Look Editor zeigt die Eigenschaften des Looks des selektierten
Digitale Bildverarbeitung Einheit 12 3D-Rekonstruktion
Digitale Bildverarbeitung Einheit 12 3D-Rekonstruktion Lehrauftrag SS 2008 Fachbereich M+I der FH-Offenburg Dr. Bernard Haasdonk Albert-Ludwigs-Universität Freiburg Ziele der Einheit Einen Eindruck davon
Digitale Bildverarbeitung Einheit 12 3D-Modellierung
Digitale Bildverarbeitung Einheit 12 3D-Modellierung Lehrauftrag WS 05/06 Fachbereich M+I der FH-Offenburg Dipl.-Math. Bernard Haasdonk Albert-Ludwigs-Universität Freiburg Ziele der Einheit Einen Eindruck
Java 3D. Linien, Flächen und Objekte Axel Bartsch, Okt. 2002
Java 3D Linien, Flächen und Objekte Axel Bartsch, Okt. 2002 Virtual World Koordinaten System Grundlagen zur Definition visueller Objekte Shape3D Unterklasse der Leaf-Klasse Eigenschaften des visuellen
RENDERING. Cobalt Xenon Argon. mit Ashlar-Vellum. www.arnold-cad.com
RENDERING mit Ashlar-Vellum Cobalt Xenon Argon www.arnold-cad.com Erstellen photorealistischer Darstellungen Erstellen Sie Ihre Welt! Modellier Tips für mehr Realität Hintergrund und Szene Betrachtung
Rendering: Lighting & Shading
Hauptseminar How to make a Pixar Movie WS 2010 / 2011 Rendering: Lighting & Shading von Manuel Schmidt Gliederung: 1 Einführung 1.1 Rendering 1.2 Reflektionsmodelle 1.2.1. Diffuse Reflektion 1.2.2. Spieglende
Kapitel 6. Texturen. Texturraum Objektraum Bildschirm. T (s) (1D) (x w, y w, z w ) (x s, y s ) Weltkoordinaten Schirmkoordinaten (2D) (3D)
Kapitel 6 Texturen Die Entwicklung des Texture Mapping gehört zu den wichtigsten Beiträgen, die Edwin Catmull in den siebziger Jahren des 20. Jahrhunderts zur Computergraphik geleistet hat (neben z-buffering
Dynamische Environment Maps
Dynamische Environment Maps Studienarbeit im Fach Informatik vorgelegt von Christoph Dietze geb. am 3. Juni 1980 in Erlangen angefertigt am Institut für Informatik Lehrstuhl für Graphische Datenverarbeitung
Inhaltsverzeichnis. 1 Hardwaregrundlagen
Inhaltsverzeichnis 1 Hardwaregrundlagen 2.4 2.5 Perspektivische 2.6 Parallele 2.7 Umsetzung der Zentralprojektion 2.8 Weitere 2.9 Koordinatensysteme, Frts. 2.10 Window to Viewport 2.11 Clipping 3 Repräsentation
Terrain-Rendering mit Geometry Clipmaps
Vorarbeiten & Grundlagen Basiskomponenten Der Clipmap-Algorithmus Terrain-Rendering mit Seminar Computergrak 2010 Vorarbeiten & Grundlagen Basiskomponenten Der Clipmap-Algorithmus Worum geht's? Algorithmus
Computergrafik 2016 Oliver Vornberger. Kapitel 16: 3D-Repräsentation
Computergrafik 2016 Oliver Vornberger Kapitel 16: 3D-Repräsentation 1 Sequenz von Transformationen grün rot Kamera blau Modeling View Orientation View Mapping Device Mapping 2 Repräsentation + Darstellung
Linear Workflow. Linear Workflow. Version 1.0-2011-10-11
Version 1.0-2011-10-11 Verfahren, Bilder unter Rücksichtnahme ihres Farbprofils und der des Ausgabegeräts zu berechnen (3D), bzw. zu bearbeiten (Compositing), um eine mathematisch und physikalisch korrekte
Photorealistische Echtzeit-Visualisierung geovirtueller Umgebungen
Photorealistische Echtzeit-Visualisierung geovirtueller Umgebungen Anselm Kegel Hasso-Plattner-Institut Fachgebiet Computergrafische Systeme Prof. Dr. Jürgen Döllner Universität Potsdam www.hpi.uni-potsdam.de/3d
VHDL - Grundlagen des Pointrenderings
VHDL - Grundlagen des Pointrenderings Marc Reichenbach, Timo Nieszner Informatik 3 / Rechnerarchitektur Universität Erlangen Nürnberg 2013 1 / 25 Rendern von Dreiecksnetzen Quelle: Inf9, CG-Slides grobmaschiges
MODELLIERUNG UND ANIMATION EINER KTM 250 EXC MIT LIGHTWAVE 3D
Präsentation Graphikprogrammierung WS 2007/2008 MODELLIERUNG UND ANIMATION EINER KTM 250 EXC MIT LIGHTWAVE 3D 02.01.2008 1 Gliederung Einführung Zieldefinition Vorbereitung Modellieren Texturieren Animieren
Mesh-Visualisierung. Von Matthias Kostka. Visualisierung großer Datensätze
Mesh-Visualisierung Von Matthias Kostka Übersicht Einführung Streaming Meshes Quick-VDR Rendering virtueller Umgebung Rendering mit PC-Clustern Zusammenfassung 2 Mesh Untereinander verbundene Punkte bilden
Gestenerkennung. Yannick Jonetzko Yannick Jonetzko
30.04.2015 Inhalt Motivation Definition Geste Historie / Anwendungsbereiche Arten der Funktionsweise anhand eines Papers Alternativen Fazit Seite 2 Motivation Human Computer Interaction Gesten sind in
Technische Fotografie
Technische Fotografie LEHRINHALTE: Neben der Pressefotografie bildet die technische Fotografie einen weitverbreiteten Bereich der informativen Fotografie. Die technische Fotografie beschäftigt sich meist
Beate Meffert, Olaf Hochmuth: Werkzeuge der Signalverarbeitung, Pearson 2004
4 Signalverarbeitung 4.1! Grundbegriffe! 4.2! Frequenzspektren, Fourier-Transformation! 4.3! Abtasttheorem: Eine zweite Sicht Weiterführende Literatur (z.b.):!! Beate Meffert, Olaf Hochmuth: Werkzeuge
Seminar 3-D Grafik Mathematische Grundlagen, Räume, Koordinatensysteme, Projektionen. Hermann Schwarz Marko Pilop
Seminar 3-D Grafik Mathematische Grundlagen, Räume, Koordinatensysteme, Projektionen Hermann Schwarz Marko Pilop 2003-11-20 http://www.informatik.hu-berlin.de/~pilop/3d_basics.pdf {hschwarz pilop}@informatik.hu-berlin.de
Färben, texturieren und rendern in Solid Edge
Färben, texturieren und rendern in Solid Edge Man kann den Objekten in Solid Edge Farben geben, transparent oder opak und Texturen. Das sind Bilder die auf die Oberflächen aufgelegt werden. Dabei bekommt
Computergraphik Grundlagen
Computergraphik Grundlagen VIII. Beleuchtung und Shading Prof. Stefan Schlechtweg Hochschule Anhalt Fachbereich Informatik Inhalt Lernziele 1. Beleuchtungsmodelle 2. Lichtquellen Punktförmige und flächenhafte
Im Original veränderbare Word-Dateien
Animationen GIF-Animation Auf Webseiten, in E-Mails oder in Präsentationen sieht man häufig einfache bewegte Bilder, meist im Stil von Comicstrips. Diese bewegten Bilder erinnern an das gute alte Daumenkino.
Physik 3 exp. Teil. 30. Optische Reflexion, Brechung und Polarisation
Physik 3 exp. Teil. 30. Optische Reflexion, Brechung und Polarisation Es gibt zwei Möglichkeiten, ein Objekt zu sehen: (1) Wir sehen das vom Objekt emittierte Licht direkt (eine Glühlampe, eine Flamme,
Praktikumssemesterarbeit für Numerik Aufgabe 1 HU-Berlin, Sommersemester 2005
Praktikumssemesterarbeit für Numerik Aufgabe HU-Berlin, Sommersemester 2005 Mario Krell Volker Grabsch 24. Juli 2005 Inhaltsverzeichnis Herleitung aus der Physik. Voraussetzungen und Annahmen Allgemein
elaspix Real-Live-Fotos mit Artificial-3D-Stills kombinieren Tobias Günther
Real-Live-Fotos mit Artificial-3D-Stills kombinieren Tobias Günther Übersicht Flexibilität von 3D-Modellen Realismus der Realität Motivation Kombination von CGI und Fotos Was war mir wichtig Wie bin ich
Modellierungsmethoden
Modellierungsmethoden Definition (smethoden) smethoden fassen verschiedene Beschreibungsmittel, insbesondere Datenstrukturen und Operationen, für geometrische Objekte zusammen. Äquivalente Begriffe: Geometrische
1. Sichtbarkeitsproblem beim Rendern einer dreidimensionalen Szene auf einer zweidimensionalen
3D-Rendering Ulf Döring, Markus Färber 07.03.2011 1. Sichtbarkeitsproblem beim Rendern einer dreidimensionalen Szene auf einer zweidimensionalen Anzeigefläche (a) Worin besteht das Sichtbarkeitsproblem?
Google Earth: 3D-Modelle, Formate, Standards
Web 2.0-2 Sommersemester 2007 16.06.2007 Gliederung Allgemeines über Google Earth 1 Allgemeines über Google Earth Möglichkeiten Daten Versionen 2 Allgemeines Möglichkeiten andere 3 Allgemeines Allgemeines
Schule. Klasse. Station Figurierte Zahlen Teil 1. Tischnummer. Arbeitsheft. Teilnehmercode
Schule Station Figurierte Zahlen Teil 1 Klasse Tischnummer Arbeitsheft Teilnehmercode Liebe Schülerinnen und Schüler! Schon die alten Griechen haben Zahlen mit Hilfe von Zählsteinen dargestellt. Die Steinchen
Lernmodul 2 Geometr.-topol. Datenstrukturen. Lernmodul 2: Geoobjekte und ihre Modellierung - Geometr.-topol. Datenstrukturen
Folie 1 von 27 Lernmodul 2 Geometr.-topol. Datenstrukturen Folie 2 von 27 Geometr.-topol. Datenstrukturen Übersicht Überblick/Motivation Fokus Geometrisch-topologische Datenstrukturen Spaghetti Spaghetti
C A R L V O N O S S I E T Z K Y. Wavefront OBJ Format. Johannes Diemke. Übung im Modul OpenGL mit Java Wintersemester 2010/2011
C A R L V O N O S S I E T Z K Y Wavefront OBJ Format Johannes Diemke Übung im Modul OpenGL mit Java Wintersemester 2010/2011 Motivation 3D-Modelle bestehen i. d. R. aus Tausenden von Dreiecken Händische
ein geeignetes Koordinatensystem zu verwenden.
1.13 Koordinatensysteme (Anwendungen) Man ist immer bemüht, für die mathematische Beschreibung einer wissenschaftlichen Aufgabe ( Chemie, Biologie,Physik ) ein geeignetes Koordinatensystem zu verwenden.
Computergrafik 2010 Oliver Vornberger. Kapitel 18: Beleuchtung
Computergrafik 2010 Oliver Vornberger Kapitel 18: Beleuchtung 1 Ausgangslage am Ende der Viewing Pipeline liegt vor: P A Materialeigenschaften P B P C 2 Beleuchtungmodelle lokal: Objekt, Lichtquellen,
1 Grundprinzipien statistischer Schlußweisen
Grundprinzipien statistischer Schlußweisen - - Grundprinzipien statistischer Schlußweisen Für die Analyse zufallsbehafteter Eingabegrößen und Leistungsparameter in diskreten Systemen durch Computersimulation
computer graphics & visualization
Entwicklung und Implementierung echtzeitfähiger Verfahren zur Darstellung von reflektierenden Objekten auf GPUs echtzeitfähiger Verfahren zur Darstellung von reflektierenden Objekten auf GPUs Motivation
Shader für Geometrische Grundprimitive. Beispielszene mit vielen Kegeln unterschiedlicher Größe und Farbe
Shader für Geometrische Grundprimitive Beispielszene mit vielen Kegeln unterschiedlicher Größe und Farbe 0. Gliederung Gliederung: 1. Motivation 2. Verwandte Arbeiten 3. Überblick über das Vorgehen 3.1
Panoramabilderzeugung - ausgewählte Projektionen
Panoramabilderzeugung - ausgewählte Projektionen Sebastian Bauer 8. Juni 2011 Arbeitsgruppe Computergrak Computergrak, Institut für Informatik Martin-Luther-Universität Halle-Wittenberg http://informatik.uni-halle.de/arbeitsgruppen/computergrafik/
Informationen zum Thema: Wölbungsradius
Informationen zum Thema: Wölbungsradius INHALT Sichtfeldervergleich 4 Was ist der Wölbungsradius eines Spiegelglases? 5 Beispiele für den Wölbungs-/Krümmungsradius 6 Vergleich des Sichtbereiches 7 Vergleich
möglicher Einsatz Neuer Medien Quadratische Funktionen und quadratische Gleichungen
Quadratische und quadratische Gleichungen Arithmetik / Algebra Lösen einfacher und allgemeiner quadratischer Gleichungen (z.b. durch Faktorisieren oder pq-formel) Darstellung quadratischer mit eigenen
Baue mit dem Material so, dass andere dein Bauwerk nach einem Foto nachbauen können.
Aufgabe 2.3 Idee und Aufgabenentwurf Rainer Meiers, Nicolaus-Voltz-Grundschule, Losheim am See, Klassenstufe 2 (Januar 2013) Baue mit dem Material so, dass andere dein Bauwerk nach einem Foto nachbauen
Darstellung dreidimensionaler Figuren in der Ebene. Schrägbild
Mathematik Bl Darstellung dreidimensionaler Figuren in der Ebene Schrägbild Das Bild bei einer schrägen Parallelprojektion heisst Schrägbild und wird durch folgende Merkmale bestimmt: - Zur Zeichenebene
