1. Einführung 2. Diskrete und prozedurale Texturen 3. Generalisierte Textur-Pipeline 4. Texturmapping

Größe: px
Ab Seite anzeigen:

Download "1. Einführung 2. Diskrete und prozedurale Texturen 3. Generalisierte Textur-Pipeline 4. Texturmapping"

Transkript

1 *UDSKLVFKH 'DWHQYHUDUEHLWXQJ Texturen Prof. Dr.-Ing. Detlef Krömker *RHWKH8QLYHUVLWlWÃ)UDQNIXUW *UDSKLVFKHÃ'DWHQYHUDUEHLWXQJ hehuvlfkw 1. Einführung 2. Diskrete und prozedurale Texturen 3. Generalisierte Textur-Pipeline 4. Texturmapping Ebene Polygone Zweischrittverfahren 5. Corresponder-Verfahren 6. Texturabtastung Aliasing Mipmap, SAT, FPA 2 1

2 hehuvlfkw)ruwvhw]xqj 7. Beeinflussung der Beleuchtungsrechnung 8. Environment-Mapping 9. Bump Mapping 10.Zusammenfassung 11.Glossar 12.Weitere Informationen 13.Ausblick Nächste Schritte 3 7H[WXULHUXQJ 4 2

3 In der Realität finden wir ein großes Spektrum geometrischer Feinstrukturen 7H[WXUHQ Maserungen und Muster von Holz, Marmorplatten, Tapeten Wolken, Rauch, Strukturen unebenen Oberflächen z.b. Rauhputzwänden, rauhes Leder, Apfelsinen oder Baumstämmen im Hintergrund sichtbare Häuser, Maschinen, Pflanzen und Personen Die geometrische Form dieser Objekte durch Flächen exakt nachzubilden, ist um Größenordnungen zu aufwendig $OOLWWDNHVLVIRUWKHUHQGHUHGLPDJHWRORRNULJKW 5 Texturen bieten Möglichkeiten, das visuelle Erscheinungsbild von Objekten detailreicher zu gestalten. 7H[WXUHQ Die Oberfläche einer Wand kann durch eine einzige planare Fläche modelliert werden. Das Tapezieren kann als Aufbringen eines Bildes auf die Wandoberfläche interpretiert werden. Diesen Vorgang bezeichnet man als Texturierung. 6 3

4 7H[WXUDEELOGXQJHQ Erste einfache Definition: Zweidimensionale Texturen oder kurz 2D-Texturen sind Funktionen, die Punkte der (u,v)-ebene auf (r,g,b)-farben abbilden: ( U, J, E) = F ( X, Y ) WH[ Das Mapping (engl.: Abbildung) beschreibt, wie eine 2D- Textur bzw. ein Ausschnitt aus einer 2D-Textur auf eine Fläche aufgebracht wird. Beim Rendering muß jedoch das inverse Mapping-Problem gelöst werden, d.h. den bekannten [\]Koordinaten des Flächenpunktes P müssen XYKoordinaten zugeordnet werden: ( X, Y) = ) ( 3) ) ([,\,]) LQY PDS = LQY PDS 7 7H[WXUDEELOGXQJHQ 8 4

5 7H[WXUDEELOGXQJHQ Die Texturierung einer Fläche mit einer 2D-Textur läßt sich dann mathematisch durch die Hintereinanderausführung dieser beiden Abbildungen beschreiben: ( U, J, E) = & () ([,\,])) WH[ LQYPDS Dreidimensionale Texturen oder kurz 3D-Texturen sind Funktionen, die Punkte eines XYZRaumes auf UJEFarben abbilden: ( U, J, E) = & ( X, Y, Z ) WH[ 9 7H[WXUDEELOGXQJHQ Sie werden auch als Festkörpertexturen bezeichnet. Häufig genannte Beispiele hierfür sind Holz- und Marmortexturen. Beim inversen Mapping ( U, J, E) = & ( X, Y, Z ) WH[ müssen den [\]Flächenpunkten XYZ-Koordinaten zugeordnet werden. Man kann dietexturierung mit 3D-Texturen auch so interpretieren, daß die Körper quasi aus dem (u,v,w)-texturkörper herausgeschnitzt werden. 10 5

6 'LVNUHWHXQGSUR]HGXUDOH 7H[WXUHQ Wir unterscheiden zwischen GLVNUHWHQ und SUR]HGXUDOHQ Texturen N-dimensionale GLVNUHWH Texturen als (N+1) dimensionale Zahlenfelder gespeichert. Ein 1dimensionales Zahlenfeld entspricht dabei einem 1- dimensionalen Vektorfeld. Diskrete farbige '-Texturen der Breite n und Höhe m lassen sich so z.b. durch &( L, M ) 0 L Q 0 M P beschreiben, wobei &>LM@ ein Vektor mit drei Farbkomponenten ist und als Texel (TEXtur ELement) bezeichnet wird. 11 9RUWHLOHGLVNUHWHU7H[WXUHQ + das Generieren komplexer 2D-Texturen für die photorealistische Visualisierung vergleichsweise schnell und einfach. 12 6

7 3UREOHPHGLVNUHWHU7H[WXUHQ (Diskussion anhand von 2D-Texturen) Texturen mit hoher Auflösung (n,m) haben einen hohen Speicherbedarf. Beim Vergrößern von Bildern treten Artefakte auf (Pixeleffekt) Fortsetzung (Aneinandersetzen, Vergrößern) von Texturen ist oft problematisch Der in den Bildern dargestellte Kontext (Sonnenstand, Schattenwurf,...) stimmt häufig nicht mit der geplanten Szene überein. Die Suche nach geeigneten Vorlagen kann dann sehr aufwendig sein. Beim Mapping auf beliebige Fläche treten Verzerrungen und infolgedessen Abtast-Probleme auf. 13 3UREOHPHGLVNUHWHU7H[WXUHQ Resampling-Methoden: 1. nächstgelegener Nachbar QHDUHVWQHLJKERXU & WH[ & XQ, YP : u<1,v<1 & Q 1, YP : u=1,v<1 ( X, Y) = & XQ, P 1 : u<1,v=1 & Q 1, P 1 : u=1,v=1 YP XQ L L

8 3UREOHPHGLVNUHWHU7H[WXUHQ 2. Bilineare Interpolation Xˆ = XQ XQ Yˆ = YP YP & ˆ ˆ 0( X, Y) = X *& XQ + 1, YP + (1 X )*& XQ, YP & ˆ ˆ 1( X, Y) = X *& XQ + 1, YP (1 X )*& XQ, YP + 1 & ( X, Y) = Y ˆ* & ( X, Y) + (1 Y ˆ)* & ( X, Y) WH[ 1 0 YP +1 YP YP 3. Aufwendiger Filtern (später) XQ XQ XQ UR]HGXUDOH 7H[WXUHQ Prozedurale Texturen werten bei jedem Aufruf von C tex ( u, v) bzw. Ctex( u, v, w) eine mathematische Formel bzw. einen (fraktalen) Algorithmus aus. Dies hat folgende 9RUWHLOH: + Der Speicheraufwand ist minimal. + Die Texturwerte können an jeder Stelle ( u, v) bzw. (u, v, w) mit optimaler Genauigkeit berechnet werden. + Die Texturen sind im gesamten Raum definiert. - Der entscheidende 1DFKWHLOprozeduraler Texturen ist, daß selbst Experten Probleme haben, komplexe Texturen, die sie bildlich vor Augen haben, durch mathematische Formeln zu beschreiben. (Hilfreich sind auf jeden Fall gute Grundkenntnisse der Fourier-Synthese und der fraktalen Geometrie). 16 8

9 *HQHUDOLVLHUWH7H[WXU3LSHOLQH %HLVSLHO' (x,y) Berechne Objektraumkoordinaten Projektorfunktion 0DSSLQJ Corresponder-Funktion Texturwert Transformation (x,y,z) (u,v) (s,t) (r,g,b)... Modifiziere Beleuchtungsgleichung 1. Aus 2D-Bildschirmkoordinaten in den 3D-Objektraum zurückprojezieren 2. Anwenden der Projektorfunktion: 0DSSLQJ Planar, Kugel, Zylinder, Quader (box), bei parametrischen Flächen ggf. nicht nötig Bei Realtime-Renderer i.d.r. schon beim Modelling ausgeführt und (u,v)-werte, in den Vertices gespeichert und dann interpoliert. (Aber z.b. OpenGL stellt einige Projektionsmethoden zur Verfügung). 17 *HQHUDOLVLHUWH7H[WXU3LSHOLQH %HLVSLHO' (x,y) Berechne Objektraumkoordinaten Projektorfunktion Corresponder-Funktion Texturwert- Abtastung & Anpassung (x,y,z) (u,v) (s,t) (r,g,b)... Modifiziere Beleuchtungsgleichung 3. Corresponder- Funktion: Transformation vom Parameterraum zum Texturraum (-ebene) (Texturkoordinaten): Weitere Matrix-Transformation (OpenGL): translieren, rotieren, skalieren,... Fortsetzungsmodi: wrap (repeat, tile), mirror, clamp, border 4. Abtasten des Texturwertes und Wertanpassung 5. Modifiziere Beleuchtungsrechnung: Replace, Modulate (Multiplikation) den (r,g.b)-wert oder irgend einen anderen Parameter der Beleuchtungsgleichung (siehe unten) 18 9

10 0DSSLQJ (x,y) Berechne Objektraumkoordinaten Projektorfunktion 0DSSLQJ Corresponder-Funktion Texturwert Transformation (x,y,z) (u,v) (s,t) (r,g,b)... Modifiziere Beleuchtungsgleichung In der Regel sind jedem Eckpunkt eines polygonalen Modells Texturkoordinaten (u,v) beim Modelling zugeordnet also zum Zeitpunkt des Rendering bekannt Rückprojektion und Mapping werden in der Regel zusammengefaßt Gesucht ist eine Operation, die bilinear interpolierte (x,y)- Koordinaten auf (u,v) abbildet 19 )HKOHUEHLHLQIDFKHU,QWHUSRODWLRQ Wird die Texturierung in den Prozess der Rasterung integriert, so ist zu beachten, daß die Textur perspektivisch korrekt verzerrt wird. Einfache Interpolation der Texturwerte aus den Texturwerten an den Eckpunkten führt zu Artefakten

11 11 21,QYHUVHV0DSSLQJ In homogenen Koordinaten kann das Inverse Mapping ausgedrückt werden durch: = = = = Z \ [, + * ) ( ' & % $ T Y X GHVVHQ,QYHUVH E]Z T Y T X Y X XQG Z \ Z [ \ [ PLW T Y X L K J I H G F E D Z \ [. ), ( ), ( ), ( ), ( Wenn die Transformation der Eckpunkte eines Vierecks bekannt sind, kann diese Matrix bestimmt werden. 22,QYHUVHV0DSSLQJGXUFK ELOLQHDUH,QWHUSRODWLRQ In der Praxis: Texturkoordinaten so wie z-wert oder Beleuchtungsparameter im Scanline-Modus interpolieren Aufgrund der perspektivischen Verzerrung kann dieses für (u,v) nicht linear erfolgen, sondern für ] T T Y Y T X X PLW T Y X 1,, ),, ( = = =

12 7H[WXULHUXQJ NRPSOH[HU 2EMHNWREHUIOlFKHQ Bisher wurde Textur-Mapping für ein einzelnes Polygon beschrieben. Dabei wurde vorausgesetzt, dass die X L Y L Parameter der Polygoneckpunkte [ L \ L ] L explizit bekannt sind. Besteht ein Objekt aus sehr wenigen Dreiecken, dann kann ein Anwender diese Zuordnung der X L Y L Parameter unter Umständen noch interaktiv am Bildschirm vornehmen. Bei komplexeren Objekten ist dies jedoch unmöglich. Bier und Sloan (86 ) haben ein =ZHLVFKULWWYHUIDKUHQ vorgestellt, das die XYBerechnung vollständig automatisiert. Die Grundidee besteht darin, ein komplexes Objekt, das aus beliebig vielen primitiven Teilobjekten bestehen darf, mit einer einfach parametrisierbaren, virtuellen Fläche zu umhüllen. Die 2D-Textur wird dann zunächst einmal auf diese umhüllende Fläche abgebildet, und erst von dort aus auf die Objektoberfläche. Geeignete umhüllende Flächen sind Zylinder-, Kugel- und Quaderoberflächen. 23 =\OLQGHU0DSSLQJ Beim Zylinder-Mapping wird das Objekt von einem endlichen Zylinder umhüllt. Die Berechnungen sind besonders einfach, wenn die Zylinderhauptachse parallel zur z-achse des Objektraumkoordinatensystems verläuft. Die Endpunkte der Achse sind dann durch die Koordinaten ([,[,] min ), F\O F\O F\O ([,[,] ) gegeben. F\O F\O F\O max Note: in Gleichungen y cyl... Die Zylinderoberfläche läßt sich leicht durch einen Rotationswinkel φ und die Höhe K parametrisieren. Punkte [\] im Innern des Zylinders werden dann senkrecht von der Zylinderachse aus auf die Zylinderoberfläche projiziert, und deren φ KParameter werden, nach entsprechender Normierung, als XY-Parameter interpretiert

13 .XJHO0DSSLQJ Kugeloberflächen können leicht durch Kugelkoordinaten φ und θ parametrisiert werden. Hat eine umhüllende Kugel den Mittelpunkt [ V \ V ] V dann werden Punkte [\] im Kugelinnern vom Mittelpunkt aus auf die Kugeloberfläche projiziert. Dadurch werden ihnen die Parameter X und Y zugeordnet: ] π + arctan 2( \ \, [ [ ) V V X = 2π θ 2 2 ( [ [ + \ \ ] ] ) arctan 2 ( ) ( ), Y = π V V V [ φ \ 25 %R[0DSSLQJ Beim Box-Mapping beschreibt die umhüllende Fläche einen Quader. In der Regel wählt man hierfür die achsenparallele Bounding Box des Objekts. Eine mögliche Parametrisierung von Punkten [\] im Innern der Bounding Box definiert einfach die längste Kante der Bounding Box als u-achse und die zweitlängste Kante als v-achse. Gilt also z.b. ([ [ ) ( \ \ ) ( ] ] ),max,min,max,min,max,min ER[ ER[ ER[ ER[ ER[ ER[ dann kann man die Texturparameter einfach durch [ [ ER[,min \ \ ER[ X = und Y = [ [ \ \ berechnen. ER[,max ER[,min ] ER[,max,min ER[,min [ X Y \ 26 13

14 &RUUHVSRQGHU)XQNWLRQ (x,y) Berechne Objektraumkoordinaten Projektorfunktion 0DSSLQJ Corresponder-Funktion Texturwert Transformation (x,y,z) (u,v) (s,t) (r,g,b)... Corresponder- Funktion: Transformation vom Parameterraum zum Texturraum (-ebene) (Texturkoordinaten): Modifiziere Beleuchtungsgleichung Weitere Matrix-Transformation (OpenGL): translieren, rotieren, skalieren,... Nicht immer realisiert Fortsetzungsmodi: wrap (repeat, tile), mirror, clamp, border 27 )RUWVHW]XQJVPRGL wrap mirror clamp border 28 14

15 7H[WXUZHUW$EWDVWXQJ (x,y) Berechne Objektraumkoordinaten Projektorfunktion 0DSSLQJ Corresponder-Funktion Resampling des Texturwertes und ggf. Wertanpassung Texturwert Transformation (x,y,z) (u,v) (s,t) (r,g,b)... Modifiziere Beleuchtungsgleichung 29 $EWDVWXQJGLVNUHWHU'7H[WXUHQ Entspricht einem Resampling eines Digitalen Bildes Einfache Funktionen wie nearest neightbour bilinbeare Interpolation erzeugen gravierende Aliasing- Effekte 30 15

16 )LOWHUXQJGLVNUHWHU'7H[WXUHQ Die Projektion eines quadratischen Bildschirmpixels (Kantenlänge 1) auf die Texturebene, wird Footprint genannt (= beliebiges Viereck) und wird näherungsweise als ein Parallelogramm angenommen, das von den Vektoren X Y X Y W W U1 = (, ), U2 = (, ) [ [ \ \ aufgespannt wird. Bei den Echtzeitverfahren wird dieser Footprint nun durch einfachere Flächen ersetzt, für die die Summe oder der Mittelwert der dazugehörenden Texturwerte im voraus berechnet werden kann. 31 %HLVSLHO0LQLILFDWLRQ Abbildung einer Reihe Pixel auf eine Schachbrett-Textur 32 16

17 3UREOHPH 3L[HOODWLRQ RGHU8QVFKlUIH0DJQLILFDWLRQ Ausgangstextur: 32 x 64 Texels Nearest Neighbour bilineare Interpolation 33 0LS0DSSLQJ Das wichtigste und bekannteste Verfahren für Echtzeitanwendungen ist das Mip-Mapping-Verfahren. Eine Mip-Map & PLS >LM@ speichert eine quadratische Textur &>LM@ der Größe Q Q, wobei Q N eine Zweierpotenz sein muß, in fortlaufend halbierten Auflösungsstufen

18 Auf der Stufe G werden die Texturwerte direkt übernommen. 0 k & PLS[ L, M ] = &[, L M], 0 i,j<2. 0LS0DSSLQJ Die übrigen Stufen d entstehen durch Filterung der jeweils vorhergehenden Stufe. G 1 G G G G & [ L, M ] = & [2 L,2 M ] + & [2L+ 1,2 M ] + & [2 L,2 M + 1] + & [2L+ 1,2 M+ 1] PLS PLS PLS PLS PLS 4 N-G 1 G < N-1 und 0 L, M< ( ) Auf der Stufe Gder Texturhierarchie werden also G Texel der Originaltextur als ein einziges Texel dargestellt. 35 0LS0DSSLQJ Nach dieser nur ein einziges Mal zu berechnenden Vorfilterung können beliebige Flächenelemente folgendermaßen texturiert werden: die Texturkoordinaten (u,v) des Pixelmittelpunkts und die Ableitungen nach den Bildschirmkoordinaten X Y X Y,,, [ [ \ \ gegeben. Dann hat die Projektion des quadratischen Pixels auf die Texturebene, also der Footprint, die Kantenlängen X X D = [ + \ 2 2 Y Y E = [ + \ 2 2. X [ X \ 36 18

19 0LS0DSSLQJ Als Seitenlänge des quadratischen Footprints wählt man oft O PD[DE. Das Maximum und nicht etwa der Mittelwert wird deshalb gewählt, weil die entstehende zusätzliche Verschmierung des Ergebnisbildes durch zu große Footprints eher in Kauf genommen werden kann als Aliasing durch zu kleine Footprints. Unter diesen Voraussetzungen kann der Gesamttexturwert auf der Stufe d= log 2 (l) gemäß G & ( X, Y, G ) = %L/LQ,QW(&, X, Y) WH[ berechnet werden. Dies geht natürlich nur, wenn d ein ganzzahliger Wert ist. Ist dies nicht der Fall, dann muß d entweder zum nächstgelegenen ganzzahligen Wert gerundet werden, oder aber man führt eine lineare Interpolation zwischen den beiden benachbarten Stufen G und G durch. Als Ergebnis der sog. trilinearen Interpolation erhalten wir dann: & X Y G G G %L/LQ,QW & X Y G G %L/LQ,QW & X Y 1 (,, ) ( )* ( G + G =,, ) ( 1 )* (,, ). WH[ + + PLS PLS PLS 37 6XPPHG$UHD7DEOHV6$7 Die Richtungsabhängigkeit der Projektion (Anisotropie) des Footprints kann durch das Mip-Mapping gar nicht berücksichtigt werden. SAT erlauben anstatt der Approximation durch Quadrate (u,v)-achsenparallele Rechtecke zu verwenden und somit diesem Defizit etwas Rechnung zu tragen. X [ X \ ÍQuadratische Approximation des Footprints beim MipMap-Verfahren 38 19

20 6XPPHG$UHD7DEOHV6$7 Der Berechnungsaufwand der einfachsten Methode, das arithmetische Mittel über alle Texturwerte eines XYachsenparallele Rechtecks L M L M zu berechnen, ist proportional zur Größe des Rechtecks: L1 M1 &L [, M] L= L0 M= M0 & ( L0, M0, L1, M1) = DYJ ( L L + 1)( M M + 1) Berechnet man dagegen in einem Vorverarbeitungsschritt eine sogenannte Summed-Area-Tabelle L M V V & ( L, M ) &[ L, M] VDW V V = L= L0 M= M0 und setzt & [, L 1] = & [ 1, M] = 0, VDW VDW 39 6XPPHG$UHD7DEOHV6$7 Dann kann & DYJ alternativ mit konstantem Berechnungsaufwand, unabhängig von der Rechteckgröße berechnet werden: L1 M1 &L [, M] L= L0 M= M0 & ( L0, M0, L1, M1) = DYJ ( L L + 1)( M M + 1) & L M L M DYJ & [ L, M ] & [ L 1, M ] & [ L, M 1] + & [ L 1, M 1] ( 0, 0, 1, VDW 1 1 VDW 0 1 VDW 1 0 VDW 0 0 1) = ( L1 L0 + 1)( M1 M0 + 1)

21 )RRWSULQW$VVHPEO\)3$ Die wesentliche Idee des FPA-Verfahrens besteht darin, die leicht und schnell zu erzeugenden Mip-Maps so einzusetzen, daß der näherungsweise als Parallelogramm angenommene Footprint möglichst genau abgedeckt wird. Auf diese Weise wird ein hoher Rechenaufwand vermieden und trotzdem eine anisotrope Texturfilterung erreicht. Das Problem besteht nun darin, den Footprint durch 1 quadratische Texturfelder (Mip-Map-Zugriffe) möglichst genau und mit geringem Rechenaufwand zu approximieren. & L M L M DYJ & [ L, M ] & [ L 1, M ] & [ L, M 1] + & [ L 1, M 1] ( 0, 0, 1, VDW 1 1 VDW 0 1 VDW 1 0 VDW 0 0 1) = ( L1 L0 + 1)( M1 M0 + 1). 41 )RRWSULQW$VVHPEO\)3$. Aus praktischen Gründen wird dabei 1 P gewählt, da auf diese Weise die endgültige Texturfarbe durch Aufsummieren und einfache Division durch eine Zweierpotenz (Shift) ermittelt werden kann. Für 1 kann eine Obergrenze angegeben werden, um die Rechenzeit ohne merkliche Qualitätseinbußen wesentlich zu verkürzen

22 )RRWSULQW$VVHPEO\ )3$ Für die Berechnung der Mip-Map-Stufe werden die Vektoren X Y X Y W W U1 = (, ), U2 = (, ) [ [ \ \ verwendet, die auch beim normalen Mip-Mapping zur Bestimmung der Stufe herangezogen werden. Dabei sind u,v die Texturkoordinaten und x,y die Bildschirmkoordinaten des Pixels. Ausgehend vom in die Texturebene projizierten Pixelmittelpunkt (u,v) erfolgen die Mip-Map-Zugriffe in Schritten entlang einer Geraden. Dabei wird der betragsmäßig größere der beiden Vektoren U bzw. U als Schrittrichtung U U X U Y t verwendet. Die Mip-Map-Stufe G ist dann durch die Kantenlänge O = min( U1, U2 ) als G = log 2( O) und die Anzahl der Mip-Map-Zugriffe durch 1 = max( U1, U2 ), O gerundet auf die nächstliegende Zweierpotenz, gegeben. 43 )RRWSULQW$VVHPEO\ )3$ Mit Hilfe des Schrittvektors r=( u, v) der sich aus der Schrittrichtung durch U U X Y X = und Y = 1 1 berechnet, können nun die Koordinaten X Q Y Q für die einzelnen Zugriffe bestimmt werden: Q ( X, Y ) = ( X, Y) + ( X, Y), wobei Q=± 1, ± 3, ± 5,...,( 1 1). Q Q 2 Die Farbe des Pixels ergibt sich dann als arithmetischer Mittelwert aller Zugriffe

23 0RGLIL]LHUH%HOHXFKWXQJVUHFKQXQJ (x,y) Berechne Objektraumkoordinaten Projektorfunktion 0DSSLQJ Corresponder-Funktion Texturwert Transformation (x,y,z) (u,v) (s,t) (r,g,b)... Potentiell ist jeder Parameter der Beleuchtungsrechnung beeinflußbar Modifiziere Beleuchtungsgleichung 45 %HHLQIOXVVXQJGHU%HOHXFKWXQJVUHFKQXQJ Basis für die folgenden Betrachtungen : Erweiterte Blinn-Phong-Modell durchgeführt wird: L WRW = D P + P + JORE DPE HPL N F N VSRW ( L N DPE + G N ( L N GLII + L N VSHF ) L L L DPE GLII VSHF = P DPE = max( = max( V DPE ( Q O),0) P V GLII GLII PVKL ( K Q),0) P V VSHF VSHF O Q K Y 46 23

24 %HHLQIOXVVXQJGHU%HOHXFKWXQJVUHFKQXQJ (UVHW]HQGHU2EMHNWIDUEHGXUFK7H[WXUUHSODFH Bei dieser einfachsten Art der Texturierung wird die Objektfarbe durch die Farbe der Textur ersetzt. Jegliche Beleuchtung des Objekts wird entfernt, außer die Textur selbst enthält Beleuchtungseffekte. F = F RXW WH[ $SRVWHULRUL6NDOLHUXQJGHV)DUEZHUWHVPRGXODWH Eine der am häufigsten angewandten Techniken führt die Beleuchtungsrechnung und das Shading mit konstanten Beleuchtungsparametern durch und skaliert den Beleuchtungswert L tot erst im nachhinein komponentenweise mit dem Texturwert F tex F RXW = L WRW F wenn als Objektfarbe weiß gewählt wird, enthält diese die Schattierungsinformation und die Textur die Farbinformation des Objektes WH[ 47 %HHLQIOXVVXQJGHU%HOHXFKWXQJVUHFKQXQJ 0RGXODWLRQGHU)OlFKHQIDUEH Die Flächenfarbe wird im wesentlichen durch den Materialparameter m diff, im geringeren Maße aber auch durch den Parameter m amb bestimmt. Also zu setzen. P P GLII DPE = P GLII = P F DPE WH[ F WH[ Der wesentliche Unterschied zu 2. besteht darin, dass die spekularen Reflektionen und Emissionen von der Textur unbeeinflußt bleiben

25 %HHLQIOXVVXQJGHU%HOHXFKWXQJVUHFKQXQJ 0RGXODWLRQGHUVSHNXODUHQ 5HIOHNWLRQ P VSHF = P VSHF F WH[ Die Highlights können dadurch unregelmäßig gestaltet werden. Interessant ist diese Methode vor allem im Zusammenhang mit dem 5HIOHFWLRQ0DSSLQJ und (QYLURQPHQW0DSSLQJ (später) 49 %HHLQIOXVVXQJGHU%HOHXFKWXQJVUHFKQXQJ 0RGXODWLRQGHU7UDQVSDUHQ] Durch die Modulation des Transparenzparameters α = α * α REM WH[ können sehr realistisch aussehende Effekte erzielt werden: α Î Objekte hinter diesem Flächenpixel sind vollständig sichtbar α Î so wird kein Licht durchgelassen ansonsten wird mit dem Wert von α gefiltert. Bei Beschränkung auf die Werte 0 und 1 kann durch die Textur zwischen Sichtbarkeit und Unsichtbarkeit des Objekts ''umgeschaltet'' werden. Dadurch können auch kompliziert geformte Flächen aus einfachen Flächen ''ausgeschnitten'' werden. Mit stochastischen Werten für α können z.b. verschmutzte und milchige Glasscheiben modelliert werden

26 %HHLQIOXVVXQJGHU%HOHXFKWXQJVUHFKQXQJ 3HUWXUEDWLRQ GHV1RUPDOHQYHNWRUV Beim %XPS0DSSLQJ wird mit Hilfe einer skalarwertigen Textur eine Offsetfläche 3VW definiert. Die Normalenvektoren der Offsetfläche werden dann als Variationen der Normalenvektoren der Basisfläche interpretiert (siehe später) 0RGXODWLRQYRQ/LFKWTXHOOHQSDUDPHWHUQ Eine weitere Möglichkeit besteht darin, Lichtquellenparameter durch Texturen zu beeinflussen. Besonders anschaulich ist dies bei Projektorlichtquellen. Dabei wird eine zweidimensionale Textur in den Raum projiziert, d.h. die Lichtemission wird in Abhängigkeit von der Lichtrichtung moduliert: / L ~ & WH[ () LQYPDS( / & L)). 51 %HHLQIOXVVXQJGHU%HOHXFKWXQJVUHFKQXQJ + KHQIHOGHUXQG2IIVHWIOlFKHQ Hierbei wird mit Hilfe von Texturen die tatsächliche Geometrie von Oberflächen verändert. Darauf beruht das sogenannte 'LVSODFHPHQW0DSSLQJ. 8YDP 52 26

27 7H[WXULHUXQJXQG*RXUDXG,QWHUSRODWLRQ Bei Gouraud-interpolierten Dreiecken kann nur die Beleuchtungsrechnung 2. $SRVWHULRUL6NDOLHUXQJGHV)DUEZHUWHVPRGXODWH angewendet werden. Die Möglichkeit der alternativen oder auch kombinierten Anwendung der Texturierungen 3. bis 8. besteht nur bei Visualisierungsverfahren, die entweder eine explizite Beleuchtungsrechnung in jedem Flächenpunkt durchführen oder die verschiedenen Anteile der Phong Beleuchtungsgleichung getrennt durch Gouraud-Interpolation berechnen. 53 (QYLURQPHQW0DSSLQJ 5HIOHFWLRQ0DSSLQJ eine einfache Möglichkeit, Reflektionen (zumindest approximativ) mit Hilfe von Textur-Hardware zu berechnen. *UXQGLGHH Ist ein Objekt verglichen mit dem Abstand zu umgebenden Objekten klein, so hängt die einfallende Beleuchtsstärke nur von der Richtung, nicht von der Position eines Punktes auf dem Objekt ab. Daher kann die einfallende Beleuchtung für ein Objekt vorberechnet und in einer 2D-Textur, der Environment Map gespeichert werden

28 (QYLURQPHQW0DSSLQJ Anschaulich wird das reflektierende Objekt von einer virtuellen Kugel (oder auch virtueller Würfel) umgeben, auf deren Innenseite die Szenenumgebung als zweidimensionale Textur, die Environment Map) aufgetragen ist. Einem Punkt P auf der Objektoberfläche werden dann Texturkoordinaten (u,v) zugeordnet. Die Richtung R und damit die Texturkoordinaten (u,v) können einfach aus der Richtung V zur Kamera und der Normale N in Punkt P berechnet werden: 5 = ( XY, ) 5 3 : 55 (QYLURQPHQW0DSSLQJ Für die Beleuchtungsrechnung wird ein erweitertes Phong-Beleuchtungsmodell, das auch Reflektionen berücksichtigt angewendet: N N N N N L = D P + P + F ( L G ( L L ) NL ( φθ ) WRW JORE DPE HPL VSRW DPE GLII VSHF UHIOPDS N Vorteile des Environment Mapping + schnell und einfach zu berechnen + liefert gute Visualisierungsergebnisse, wenn die Textur z.b. den Himmel oder einen weit entfernten Horizont repräsentiert. + kann verwendet werden, um große ausgedehnte Lichtquellen als Textur darzustellen

29 (QYLURQPHQW0DSSLQJ Nachteile - Wie wird die Environment Map generiert und parametrisiert? - Die Reflektionsberechnung ist nur dann korrekt, wenn der Objektpunkt P sich im Weltmittelpunkt W befindet. Mit zunehmendem Abstand zwischen P und W treten verstärkt Verzerrungen auf. 57 (QYLURQPHQW0DSSLQJ Ist die Environment Map schlecht parametrisiert, können erhebliche Aliasing- Probleme auftreten. - Es wird keine Verdeckungsrechnung durchgeführt. Das Problem, daß der reflektierte Strahl R auf ein blockierendes Szenenobjekt treffen kann, wird ignoriert. - Szenenobjekte können sich nicht gegenseitig widerspiegeln. Bei der Reflektionsberechnung wird nur die a priori berechnete Environment Map berücksichtigt

30 3DUDPHWULVLHUXQJYRQ(QYLURQPHQW 0DSV Blinn, Newell 1976 verwenden Kugelkoordinaten zur Parametrisierung der Environment Map. Diese werden dann als Texturkoordinaten auf dem Objekt verwendet. Ist der Reflektierte Strahl 5 5 [ 5 \ 5 ] gegeben, so berechnen sich (φ,θ) analog wie beim Kugel-Mapping gemäß ] θ = arccos( 5 ) ] θ arccos( 5 / sin θ ), falls 5 0 [ \ φ = φ 2π arccos( 5 / sin θ), sonst [ [ \ 59 3DUDPHWULVLHUXQJYRQ%OLQQXQG 1HZHOO +Einfach verständlich, älteste Parametrisierung. Die Erzeugung der Environment Map ist kompliziert. In der Praxis wird meist eine Environment Map, die auf den Innenseiten eines Würfels aufgebracht ist, entsprechend umgerechnet. - Die Parametrisierung mittels Kugelkoordinaten ist schlecht. Um die Pole liegen wesentlich mehr Texel/Fläche als am Äquator. Das führt zu einer schlechten Abtastung. - Wird gegenwärtig nicht von Hardware unterstützt. - Ein Dreieck, das den Pol enthält, enthält den Pol nicht mehr, wenn linear in Polarkoordinaten interpoliert wird. - Schneidet ein Dreieck die Linie mit φ=0, so schneidet ein linear interpoliertes Dreieck diese nicht mehr

31 3DUDPHWULVLHUXQJYRQ*UHHQH Greene 1986 verwendet anstatt der Projektion der Umgebung auf eine Kugel eine Projektion auf einen Würfel. Die Environment Map besteht aus 6 ebenen Texturen entsprechend den 6 Würfelseiten. Zur Erzeugung wird eine Kamera in der Mitte des Würfels platziert und 6 Aufnahmen in jede Richtung gemacht. In der Praxis wird die Szene ausgehend vom Mittelpunkt des Objekts 6 mal mit unterschiedlichen Blickrichtungen gerendert. Je nach Richtung des reflektierten Strahls wird eine der 6 Texturen ausgewählt. + Die Parametrisierung ist regelmäßiger eine Kugelkoordinatenparametrisierung. + Die Environment Map kann einfach mit Hilfe von Hardware erzeugt werden. 61 3DUDPHWULVLHUXQJYRQ(QYLURQPHQW 0DSV Die Projektion auf einen Würfel hat auch Nachteile: -Liegen die Texturkoordinaten von Eckpunkten von Dreiecken des Objekts in unterschiedlichen Würfelseiten, so ist es schwierig dazwischen zu interpolieren. Eine Methode ist, diese Dreiecke entsprechen zu unterteilen. - Filterung und bilineare Interpolation entlang Würfelkanten ist schwierig. -Noch nicht in Hardware implementiert

32 3DUDPHWULVLHUXQJYRQ(QYLURQPHQW 0DSV Die Environment Map ist abhängig vom Objektmittelpunkt! 63 (QYLURQPHQW0DSSLQJ Anschaulich wird das reflektierende Objekt von einer virtuellen Kugel umgeben, auf deren Innenseite die Szenenumgebung als zweidimensionale Textur, die Environment Map) aufgetragen ist. Einem Punkt P auf der Objektoberfläche werden dann Texturkoordinaten (u,v) zugeordnet. Die Richtung R und damit die Texturkoordinaten (u,v) können einfach aus der Richtung V zur Kamera und der Normale N in Punkt P berechnet werden: beim Reflektion Mapping (Blinn, Newell 1976) z.b. die Kugelkoordinaten (φ,θ), 5 = 9 2( 9 1)

33 6SKHUH0DSSLQJ OpenGL unterstützt Environment Mapping mit der sogenannten Sphere Map. Dabei wird die gesamte umhüllende Kugel des Objekts, auf deren Innenseite wie beim Standard Environment Mapping die Textur der Umgebung aufgebracht ist, auf einen Kreis abgebildet: Bild, Textur SKHUH0DSSLQJ Rückseite Vorderseite Linke Seite Rechte Seite Oben Unten Abbildung von 6 Würfelseiten auf eine Sphere Map 66 33

34 %HUHFKQXQJHLQHU6SKHUH0DS 67 6SKHUH0DSSLQJ Berechnung von Texturkoordinaten in einem Punkt 3 des Objekts: Sei 5 5 [ 5 \ 5 ] W die Richtung des reflektierten Strahls (sie ist abhängig von der aktuellen Beobachtungsrichtung!). Dann berechnen sich die Texturkoordinaten XY W wie folgt. Für den reflektierten Strahl gilt: 5 = 2( 9 1) 1 9 mit 1 1 [ 1 \ 1 ] W =XY1 ] WÃ und 9 Daraus folgt [ X X 1 X ] Y Y 0 21 Y \ ] = = ] ] ] ] Y ( X, Y) Auflösen nach X und Y liefert X 5 5 [ \ X =, Y= 2( 5 + 1) 2( 5 + 1) ] ] 68 34

35 9RU1DFKWHLOH -Interpolation der Texturkoordinaten führt zu Artefakten. - Unregelmäßige Abtastung: Maximale Abtastraten in Richtungen entgegender Beobachtungsrichtung, Abtastrate in Richtung der Beobachtungsrichtung geht gegen 0. In Beobachtungsrichtung hat die Parametrisierung eine Singulartität. - Aliasing Probleme vor allem am Rand. Relativ gute Abtastung. Beabsichtigte Interpolation Tatsächliche Interpolation mit Hardware, Wrapping Effekt 69 'XDO3DUDEROLVFKHV0DSSLQJ Heidrich und Seidel (1999) verwenden als reflektierendes Objekt anstatt einer Kugel zwei Paraboloide I ([,\) = ([ + \ ), [ + \ Im Gegensatz zum Sphere-Mapping, wo die gesamte Umgebung in einer Textur abgelegt wird, werden zwei Texturen verwendet. Eine für die Halbkugel entgegen der Blickrichtung (hinten) und eine in Blickrichtung (vorne). Für die Normale im Punkt [\ ergibt sich: [ 1 1 = \ 2 2 [ + \

36 'XDO3DUDEROLVFKHV0DSSLQJ Berechnung von Texturkoordinaten in einem Punkt 3 des Objekts: Sei 5 5 [ 5 \ 5 ] W die Richtung des reflektierten Strahls (sie ist abhängig von der aktuellen Beobachtungsrichtung!). Dann berechnen sich die Texturkoordinaten XY W wie folgt. Für den reflektierten Strahl gilt: 5 = 2( 9 1) 1 9 Frontside 1 mit 1 1 [ 1 \ 1 ] W W ( X, Y,1) 2 2 X + Y + 1 und 9 Daraus folgt 5 2 X X Y [ X X Y Y 0 Y \ = X Y 1 = X Y ] X + Y [ \ Auflösen nach X und Y liefert X =, Y= Y ( X, Y) X ] ] RUXQG1DFKWHLOH + Dual-parabolic Maps lassen sich mit einfachen Matrizenoperationen für unterschiedliche Blickrichtungen umrechnen. D.h. sie sind blickpunktsabhängig. + Wesentliche gleichmäßigere Abtastung als beim Sphere-Mapping. + Weniger Aliasing Probleme. - Interpolation der Texturkoordinaten führt zu Artefakten. - Noch nicht in Hardware verfügbar. Würfel auf Dual-Parabolische Maps abgebildet

37 %XPS0DSSLQJ Mit den bisher beschriebenen Texturierungstechniken können nur Materialparameter variiert und Beleuchtungsergebnisse skaliert werden. Beleuchtete Flächen sehen dadurch bereits sehr viel variantenreicher und damit auch realistischer aus, trotzdem wirken sie häufig immer noch zu glatt. 73 %XPS0DSSLQJ Gesucht ist daher eine einfache Technik, mit deren Hilfe Flächen rauh, runzlig, zerknittert oder gekräuselt erscheinen. Wollte man diese kleinen Unebenheiten geometrisch exakt modellieren, so könnte man z.b. zu einer gegebenen parametrischen Grundfläche 3XY ein zweidimensionales Höhenfeld KXY addieren und würde so die Offsetfläche erhalten. 1( XY, ) 3 ( X, Y) = 3( X, Y) + K( X, Y) 1 ( XY, ) 74 37

38 %XPS0DSSLQJ Für kleine Höhenwerte ist dieser Ansatz jedoch zu rechenaufwendig. Außerdem zeigt das Phong-Beleuchtungsmodell, daß die exakten geometrischen Positionen der Flächenpunkte 3XY bzw. 3XY gar nicht direkt in die Beleuchtungsrechnung eingehen. Viel wichtiger sind die Normalenvektoren 1XY Die wesentliche Idee der Bump-Mapping-Technik besteht konsequenterweise darin, daß es für kleine Unebenheiten KXY ausreicht, die Visualisierung mit der Originalgeometrie 3XY durchzuführen, bei der Beleuchtungsrechnung aber die Normalen 1XY der Offsetfläche zu verwenden. Diese Normalenvektoren können durch 1 ( XY, ) = 3( XY, ) 3( XY, ) berechnet werden. X Y 75 %XPS0DSSLQJ Die Richtungsableitungen erhält man mit den bekannten Summen- und Kettenregeln: 1XY (, ) 1XY (, ) 3 ( X, Y) = 3( X, Y) + K ( X, Y) + K( X, Y) X X X 1XY (, ) 1XY (, ) X 1XY (, ) 1XY (, ) 3 ( XY, ) = 3( XY, ) + K( XY, ) + KXY (, ) Y Y Y 1XY (, ) 1XY (, ) Y Für kleine Werte h(u,v) können die hinteren Teilterme ignoriert werden: 1XY (, ) 3 ( X, Y) 3( X, Y) + K ( X, Y) X X X 1XY (, ) 1XY (, ) 3 ( X, Y) 3( X, Y) + K ( X, Y) Y Y Y 1XY (, ) 76 38

39 %XPS0DSSLQJ Für 1 XY folgt damit: = K X Y X Y Y X X Y 3 K 3 K K = 1 + ', mit 1 1 K ( 1 3) K ( 3 1) X Y Y X ' = K 3 K 3 X + = Y Y X Die zweidimensionale Bump Map KXY ist dabei in der Regel als diskretes Zahlenfeld bzw. als Grauwertbild gegeben. In diesem Fall werden die Richtungsableitungen K X und K Y durch KX ( + XY, ) KXY (, ) K ( X, Y) = X X KXY (, + Y) KXY (, ) K ( X, Y) = Y Y berechnet. 77 %XPS0DSSLQJ Das Bump Mapping kann nur mit denjenigen Beleuchtungsverfahren kombiniert werden, die eine explizite Beleuchtungsrechnung in jedem Flächenpunkt durchführen. Beispiele hierfür sind das Phong-Shading- und das Raytracing-Verfahren. Das Gouraud-Shading-Verfahren erfüllt diese Bedingung jedoch nicht wurde ein Bump-Mapping-Verfahren für Hardware vorgestellt

40 =XVDPPHQIDVVXQJ Fassen Sie das Gelernte zusammen. Definieren Sie Anwendungsmöglichkeiten für das Gelernte. Erbitten Sie Feedback zur Schulungsveranstaltung

41 *ORVVDU Glossar der Begriffe Definieren Sie die Fachausdrücke, wie sie zu diesem Thema verwendet werden

42 :HLWHUH,QIRUPDWLRQHQ Nennen Sie Bücher, Artikel, elektronische Quellen. Beratungsdienste, andere Quellen

43 $XVEOLFN² 1lFKVWH6FKULWWH Ergänzungen,... Wie geht es weiter Nächstes Kapitel

44 :HLWHUH7DQJUDPELOGHU 3X]]OH VR Text Text Text *'9 &* Text Text Text Text 88 44

Techniken der Effizienzsteigerung bei 2D-Texturierung:

Techniken der Effizienzsteigerung bei 2D-Texturierung: Techniken der Effizienzsteigerung bei 2D-Texturierung: Mip-Mapping MIP = "Multum in Parvo" = vieles auf kleinem Raum spezielle Texture-Mapping-Erweiterung, häufig bei Echtzeitanwendungen, z.b. Spielen,

Mehr

Graphische Datenverarbeitung

Graphische Datenverarbeitung Texturen Prof. Dr.-Ing. Detlef Krömker Goethe-Universität, Frankfurt 1. Einführung 2. Diskrete und prozedurale Texturen 3. Generalisierte Textur-Pipeline 4. Texturmapping Ebene Polygone Zweischrittverfahren

Mehr

Graphische Datenverarbeitung. Übersicht. Übersicht (Fortsetzung) Texturen

Graphische Datenverarbeitung. Übersicht. Übersicht (Fortsetzung) Texturen Graphische Datenverarbeitung Texturen Übersicht 1. Einführung 2. Diskrete und prozedurale Texturen 3. Generalisierte Textur-Pipeline 4. Texturmapping Ebene Polygone Zweischrittverfahren 5. Corresponder-Verfahren

Mehr

Modul: B-CG Grundlagen der Computergraphik im Sommersemester 2008

Modul: B-CG Grundlagen der Computergraphik im Sommersemester 2008 Modul: B-CG Grundlagen der Computergraphik im Sommersemester 2008 Texturen Prof. Dr. Detlef Krömker Professur für Graphische Datenverarbeitung Fachbereich Informatik und Mathematik (12) Adobe Flash in

Mehr

Motivation: in der Realität Vielzahl von geometrischen Feinstrukturen

Motivation: in der Realität Vielzahl von geometrischen Feinstrukturen 11. Texturierung Motivation: in der Realität Vielzahl von geometrischen Feinstrukturen Beispiele: Maserungen und Muster von Holz, Marmor, Tapeten, Stoffen... Wolken, Rauch unebene Flächen wie Rauhfaserwände,

Mehr

andere Möglichkeiten der Darstellung von Details notwendig

andere Möglichkeiten der Darstellung von Details notwendig 11. Texturen Motivation: in der Realität Vielzahl von geometrischen Feinstrukturen Beispiele: Maserungen und Muster von Holz, Marmor, Tapeten, Stoffen... Wolken, Rauch unebene Flächen wie Rauhfaserwände,

Mehr

Christina Nell. 3D-Computergrafik

Christina Nell. 3D-Computergrafik Christina Nell 3D-Computergrafik Was ist 3D-Computergrafik? 3D graphics is the art of cheating without getting caught. (unbekannte Quelle) Folie 2/52 Inhalt Beleuchtung Shading Texturierung Texturfilterung

Mehr

5 Mapping-Techniken. 5.1 Motivation

5 Mapping-Techniken. 5.1 Motivation 5.1 Motivation Bisher sind alle Oberflächen (polygonale Objekte, später auch parametrisierte Freiformflächen) glatt im Gegensatz zu wirklich existierenden natürlichen Oberflächen. Die explizite Wiedergabe

Mehr

Inhaltsverzeichnis - Themen

Inhaltsverzeichnis - Themen Inhaltsverzeichnis - Themen 1 Hardwaregrundlagen 2 Transformationen und Projektionen 3 Repräsentation und Modellierung von Objekten 4 Visibilität und Verdeckung 5 Rasterung 6 Rendering 7 Abbildungsverfahren

Mehr

Zur Erinnerung: Parametrisierung von Dreiecken

Zur Erinnerung: Parametrisierung von Dreiecken Zur Erinnerung: Parametrisierung von Dreiecken Interpolation über Dreiecke Parametrisierung eines Dreiecks p a (b-a) (c-a) p (1 )a b c p( a b c mit Baryzentrische Koordinaten Page 1 Baryzentrische Koordinaten

Mehr

Übungsstunde 8 zu Computergrafik 1

Übungsstunde 8 zu Computergrafik 1 Institut für Computervisualistik Universität Koblenz 14. und 15. Januar 2013 Inhaltsverzeichnis 1 Wiederholung - Beleuchtung Gouraud-Shading Phong-Shading Flat-Shading Vergleich 2 - Idee in OpenGL Texturfilterung

Mehr

Computergraphik Grundlagen

Computergraphik Grundlagen Computergraphik Grundlagen IX. Texturen und Schatten Prof. Stefan Schlechtweg Hochschule Anhalt Fachbereich Informatik Inhalt Lernziele 1. Texture Mapping 1. Texture Pipeline 2. Environment Mapping 3.

Mehr

Geometrie. Helligkeit Farbe. Position, Größe und Orientierung. 9 Abbildung auf Textur und Glyphen. Prof. Dr.-Ing. Detlef Krömker

Geometrie. Helligkeit Farbe. Position, Größe und Orientierung. 9 Abbildung auf Textur und Glyphen. Prof. Dr.-Ing. Detlef Krömker 9LVXDOLVLHUXQJ Abbildung auf Textur & Glyphen Prof. Dr.-Ing. Detlef Krömker *RHWKH8QLYHUVLWlWÃ)UDQNIXUW *UDSKLVFKHÃ'DWHQYHUDUEHLWXQJ 5 FNEOLFN %HVSURFKHQH0DSSLQJYHUIDKUHQ Geometrie Position, Größe und

Mehr

Rendering: Lighting and Shading

Rendering: Lighting and Shading Rendering: Lighting and Shading Hauptseminar: How to make a Pixar Movie Inhalt Einführung Was ist Rendering Was ist Reflexionsmodelle Lighting Shading Globale Beleuchtungsmodelle Zusammenfassung 2/53 Inhalt

Mehr

Beleuchtung. in Computerspielen

Beleuchtung. in Computerspielen Beleuchtung in Computerspielen Motivation Überblick Licht und Schattierung Lichtquellen Lokale Beleuchtungsmodelle Schattierungsverfahren Oberflächensimulation Beispiele der CryEngine Ausblick Zusammenfassung

Mehr

4.4 Glättung von Kanten

4.4 Glättung von Kanten 4.4 Glättung von Kanten Es wurden verschiedene Aspekte zur Beleuchtung von Modellen und Szenen vorgestellt. Es gibt zwei Arten von Licht, das Hintergrundlicht und Licht von Lichtquellen, wobei hier zu

Mehr

Computergrafik 1 Beleuchtung

Computergrafik 1 Beleuchtung Computergrafik 1 Beleuchtung Kai Köchy Sommersemester 2010 Beuth Hochschule für Technik Berlin Überblick Lokale Beleuchtungsmodelle Ambiente Beleuchtung Diffuse Beleuchtung (Lambert) Spiegelnde Beleuchtung

Mehr

Lokale Beleuchtungsmodelle

Lokale Beleuchtungsmodelle Lokale Beleuchtungsmodelle Oliver Deussen Lokale Modelle 1 Farbschattierung der Oberflächen abhängig von: Position, Orientierung und Charakteristik der Oberfläche Lichtquelle Vorgehensweise: 1. Modell

Mehr

1 Transformationen. 1.1 Transformationsmatrizen. Seite 1

1 Transformationen. 1.1 Transformationsmatrizen. Seite 1 Seite 1 1 Transformationen 1.1 Transformationsmatrizen In den folgenden Teilaufgaben sind die Koeffizienten von 4 4 Transformationsmatrizen zur Repräsentation von affinen Abbildungen im R 3 zu bestimmen.

Mehr

Kapitel 4: Schattenberechnung

Kapitel 4: Schattenberechnung Kapitel 4: Schattenberechnung 1 Überblick: Schattenberechnung Motivation Schattenvolumen Shadow Maps Projektive Schatten 2 Motivation Wesentlich für die Wahrnehmung einer 3D-Szene Eigentlich ein globaler

Mehr

7 Mapping-Techniken. Achim Ebert CG.7.1

7 Mapping-Techniken. Achim Ebert CG.7.1 7 Mapping-Techniken Achim Ebert CG.7.1 7.1 Motivation Bisher sind alle Oberflächen (polygonale Objekte, später auch parametrisierte Freiformflächen) glatt im Gegensatz zu wirklich existierenden natürlichen

Mehr

(7) Normal Mapping. Vorlesung Computergraphik II S. Müller. Dank an Stefan Rilling U N I V E R S I T Ä T KOBLENZ LANDAU

(7) Normal Mapping. Vorlesung Computergraphik II S. Müller. Dank an Stefan Rilling U N I V E R S I T Ä T KOBLENZ LANDAU (7) Normal Mapping Vorlesung Computergraphik II S. Müller Dank an Stefan Rilling Einleitung Die Welt ist voller Details Viele Details treten in Form von Oberflächendetails auf S. Müller - 3 - Darstellung

Mehr

Visualisierung. Rückblick Besprochene Mappingverfahren. Geometrie. Helligkeit Farbe. Rückblick Visuelle Variablen (nach Bertin 1982)

Visualisierung. Rückblick Besprochene Mappingverfahren. Geometrie. Helligkeit Farbe. Rückblick Visuelle Variablen (nach Bertin 1982) Abbildung auf Textur & Glyphen Prof. Dr.-Ing. Detlef Krömker Goethe-Universität, Frankfurt Graphische Datenverarbeitung Rückblick Besprochene Mappingverfahren Geometrie Position, Größe und Orientierung

Mehr

3. Analyse der Kamerabewegung Video - Inhaltsanalyse

3. Analyse der Kamerabewegung Video - Inhaltsanalyse 3. Analyse der Kamerabewegung Video - Inhaltsanalyse Stephan Kopf Bewegungen in Videos Objektbewegungen (object motion) Kameraoperationen bzw. Kamerabewegungen (camera motion) Semantische Informationen

Mehr

Programmierpraktikum 3D Computer Grafik

Programmierpraktikum 3D Computer Grafik Dipl.Inf. Otmar Hilliges Programmierpraktikum 3D Computer Grafik Szenegraphen, Texturen und Displaylisten. Agenda Beleuchtungsmodelle in OpenGL Bump-Maps zur Erzeugung von Reliefartigen Oberflächen Height-Maps

Mehr

Bildbearbeitung und Texturierung

Bildbearbeitung und Texturierung Ulf Döring, Markus Färber 07.03.2011 1. Anti-Aliasing (a) Wodurch entsteht der Aliasing-Effekt bei der Rasterisierung einer Linie? (b) Wie kann der Aliasing-Effekt durch Supersampling mit nachträglichem

Mehr

BlendaX Grundlagen der Computergrafik

BlendaX Grundlagen der Computergrafik BlendaX Grundlagen der Computergrafik Beleuchtungsmodelle (Reflection Models) 16.11.2007 BlendaX Grundlagen der Computergrafik 1 Rendering von Polygonen Der Renderingprozess lässt sich grob in folgende

Mehr

Graphische Datenverarbeitung Visualisierungstechniken. Prof. Dr. Elke Hergenröther

Graphische Datenverarbeitung Visualisierungstechniken. Prof. Dr. Elke Hergenröther Graphische Datenverarbeitung Visualisierungstechniken Prof. Dr. Elke Hergenröther Visualisierungstechniken Visualisierung: Visualisierung bedeutet sichtbar machen, darstellen. Die CG beschränkt sich dabei

Mehr

19.09.2014. 2D-Texturen. Reflectance Mapping 3D-Texturen. Farbtexturen

19.09.2014. 2D-Texturen. Reflectance Mapping 3D-Texturen. Farbtexturen 2D-Texturen Texturarten Transformationen Generierung Thomas Jung Reflectance Mapping 3D-Texturen Modellierung von Details erfordert Zeit Darstellung ist aufwendig (langsam) Details belegen Speicherplatz

Mehr

3D - Modellierung. Arne Theß. Proseminar Computergraphik TU Dresden

3D - Modellierung. Arne Theß. Proseminar Computergraphik TU Dresden 3D - Modellierung Arne Theß Proseminar Computergraphik TU Dresden Gliederung Darstellungsschemata direkte Constructive Solid Geometry (CSG) Generative Modellierung Voxelgitter indirekte Drahtgittermodell

Mehr

Probelektion zum Thema. Shadow Rendering. Shadow Maps Shadow Filtering

Probelektion zum Thema. Shadow Rendering. Shadow Maps Shadow Filtering Probelektion zum Thema Shadow Rendering Shadow Maps Shadow Filtering Renderman, 2006 CityEngine 2011 Viewport Real reconstruction in Windisch, 2013 Schatten bringen viel Realismus in eine Szene Schatten

Mehr

"rendern" = ein abstraktes geometrisches Modell sichtbar machen

rendern = ein abstraktes geometrisches Modell sichtbar machen 3. Grundlagen des Rendering "rendern" = ein abstraktes geometrisches Modell sichtbar machen Mehrere Schritte: Sichtbarkeitsberechnung Beleuchtungsrechnung Projektion Clipping (Abschneiden am Bildrand)

Mehr

Teil 7: Beleuchtung Beleuchtungsmodelle, Schattierungsmodelle

Teil 7: Beleuchtung Beleuchtungsmodelle, Schattierungsmodelle Beleuchtungsmodelle, Schattierungsmodelle Einleitung Beleuchtung vs. Schattierung Beleuchtung: Modell auswerten (anschl.) global vs. lokal phsikalisch (photo-realistisch?) vs. empirisch Phong-Modell Schattierung:

Mehr

Hans Delfs. Übungen zu Mathematik III für Medieninformatik

Hans Delfs. Übungen zu Mathematik III für Medieninformatik Hans Delfs Übungen zu Mathematik III für Medieninformatik 1 RÄUMLICHE DARSTELLUNGEN VON OBJEKTEN 1 1 Räumliche Darstellungen von Objekten Der Einheitswürfel ist der achsenparallele Würfel in A 3, der von

Mehr

Wima-Praktikum 2: Bildsynthese-Phong

Wima-Praktikum 2: Bildsynthese-Phong Wima-Praktikum 2: Bildsynthese-Phong Wima-Praktikum 2: Prof. Dr. Lebiedz, M. Sc. Radic 1 Inhaltsverzeichnis 1 Einleitung 3 2 Kurze Beschreibung der Aufgabenstellung und dem Phong- Modell 3 3 Modellierung

Mehr

Rendering. (illumination/shading) Beleuchtungsmodelle. Schattierung von Polygonen. Lokale Beleuchtungsmodelle

Rendering. (illumination/shading) Beleuchtungsmodelle. Schattierung von Polygonen. Lokale Beleuchtungsmodelle Beleuchtung/Schattierung (illumination/shading) Beleuchtungsmodelle Globale Beleuchtungsmodelle Lokale Beleuchtungsmodelle Schattierung von Polygonen 1. Flat shading 2. Gouraud Shading 3. Phong Shading

Mehr

Lokale Beleuchtungsmodelle

Lokale Beleuchtungsmodelle Lokale Beleuchtungsmodelle Proseminar GDV, SS 05 Alexander Gitter Betreuer: Dirk Staneker Wilhelm-Schickard-Institut für Informatik Graphisch-Interaktive Systeme Sand 14 D-72076 Tübingen Einleitung und

Mehr

4. Segmentierung von Objekten Video - Inhaltsanalyse

4. Segmentierung von Objekten Video - Inhaltsanalyse 4. Segmentierung von Objekten Video - Inhaltsanalyse Stephan Kopf Inhalt Vorgehensweise Berechnung der Kamerabewegungen zwischen beliebigen Bildern Transformation eines Bildes Hintergrundbilder / Panoramabilder

Mehr

Graphische Datenverarbeitung und Bildverarbeitung

Graphische Datenverarbeitung und Bildverarbeitung Graphische Datenverarbeitung und Bildverarbeitung Hochschule Niederrhein Texturen Graphische DV und BV, Regina Pohle, 24. Texturen 1 Einordnung in die Inhalte der Vorlesung Einführung mathematische und

Mehr

Computergrafik 2010 Oliver Vornberger. Kapitel 18: Beleuchtung

Computergrafik 2010 Oliver Vornberger. Kapitel 18: Beleuchtung Computergrafik 2010 Oliver Vornberger Kapitel 18: Beleuchtung 1 Ausgangslage am Ende der Viewing Pipeline liegt vor: P A Materialeigenschaften P B P C 2 Beleuchtungmodelle lokal: Objekt, Lichtquellen,

Mehr

Beleuchtung Schattierung Rasterung

Beleuchtung Schattierung Rasterung Beleuchtung Schattierung Rasterung Thomas Jung t.jung@htw-berlin.de Beleuchtung, Schattierung und Rasterung in allen Echtzeit-3D-Umgebungen gleich OpenGL Direct3D 3dsmax,... Letzter Bestandteil der Grafikpipeline

Mehr

D-Texturen. Reflectance Mapping 3D-Texturen. Farbtexturen

D-Texturen. Reflectance Mapping 3D-Texturen. Farbtexturen 2D-Texturen Texturarten Abbildung Transformationen Generierung Thomas Jung Reflectance Mapping 3D-Texturen Modellierung von Details erfordert Zeit Darstellung ist aufwendig (langsam) Details belegen Speicherplatz

Mehr

Überblick Echtzeit-Rendering. Uwe Domaratius dou@hrz.tu-chemnitz.de

Überblick Echtzeit-Rendering. Uwe Domaratius dou@hrz.tu-chemnitz.de Überblick Echtzeit-Rendering Uwe Domaratius dou@hrz.tu-chemnitz.de Gliederung 1. Einleitung 2. geometriebasierende Verbesserungen 3. Level-of-Detail 4. Culling 5. Texturen 6. bildbasiertes Rendering Was

Mehr

Computergrafik. Michael Bender, Manfred Brill. Ein anwendungsorientiertes Lehrbuch ISBN Inhaltsverzeichnis

Computergrafik. Michael Bender, Manfred Brill. Ein anwendungsorientiertes Lehrbuch ISBN Inhaltsverzeichnis Computergrafik Michael Bender, Manfred Brill Ein anwendungsorientiertes Lehrbuch ISBN 3-446-40434-1 Inhaltsverzeichnis Weitere Informationen oder Bestellungen unter http://www.hanser.de/3-446-40434-1 sowie

Mehr

Skalierbarkeit virtueller Welten

Skalierbarkeit virtueller Welten $86=8*'(5 )2/,(1 9505 9RUOHVXQJ Dr. Ralf Dörner *RHWKH8QLYHUVLWlWÃ)UDQNIXUW *UDSKLVFKHÃ'DWHQYHUDUEHLWXQJ hehueolfn Der Begriff VR Perspektivisches Sehen in 3D Skalierbarkeit virtueller Welten Echtzeitanforderungen

Mehr

ein geeignetes Koordinatensystem zu verwenden.

ein geeignetes Koordinatensystem zu verwenden. 1.13 Koordinatensysteme (Anwendungen) Man ist immer bemüht, für die mathematische Beschreibung einer wissenschaftlichen Aufgabe ( Chemie, Biologie,Physik ) ein geeignetes Koordinatensystem zu verwenden.

Mehr

Inhalt. Mathematik für Chemiker II Lineare Algebra. Vorlesung im Sommersemester Kurt Frischmuth. Rostock, April Juli 2015

Inhalt. Mathematik für Chemiker II Lineare Algebra. Vorlesung im Sommersemester Kurt Frischmuth. Rostock, April Juli 2015 Inhalt Mathematik für Chemiker II Lineare Algebra Vorlesung im Sommersemester 5 Rostock, April Juli 5 Vektoren und Matrizen Abbildungen 3 Gleichungssysteme 4 Eigenwerte 5 Funktionen mehrerer Variabler

Mehr

Lineare Algebra - Übungen 1 WS 2017/18

Lineare Algebra - Übungen 1 WS 2017/18 Prof. Dr. A. Maas Institut für Physik N A W I G R A Z Lineare Algebra - Übungen 1 WS 017/18 Aufgabe P1: Vektoren Präsenzaufgaben 19. Oktober 017 a) Zeichnen Sie die folgenden Vektoren: (0,0) T, (1,0) T,

Mehr

Berechnung von Formfaktoren

Berechnung von Formfaktoren Berechnung von Formfaktoren Oliver Deussen Formfaktorberechnung 1 Formfaktor ist eine Funktion in Abhängigkeit der Geometrie ist unabhängig von reflektierenden oder emittierenden Eigenschaften (ρ) der

Mehr

Kreis - Tangente. 2. Vorbemerkung: Satz des Thales Eine Möglichkeit zur Bestimmung der Tangente benutzt den Satz des Thales.

Kreis - Tangente. 2. Vorbemerkung: Satz des Thales Eine Möglichkeit zur Bestimmung der Tangente benutzt den Satz des Thales. Kreis - Tangente 1. Allgemeines 2. Satz des Thales 3. Tangente an einem Punkt auf dem Kreis 4. Tangente über Analysis (an einem Punkt eines Ursprungkreises) 5. Tangente von einem Punkt (Pol) an den Kreis

Mehr

Kapitel 2: Mathematische Grundlagen

Kapitel 2: Mathematische Grundlagen [ Computeranimation ] Kapitel 2: Mathematische Grundlagen Prof. Dr. Stefan M. Grünvogel stefan.gruenvogel@fh-koeln.de Institut für Medien- und Phototechnik Fachhochschule Köln 2. Mathematische Grundlagen

Mehr

5. Gitter, Gradienten, Interpolation Gitter. (Rezk-Salama, o.j.)

5. Gitter, Gradienten, Interpolation Gitter. (Rezk-Salama, o.j.) 5. Gitter, Gradienten, Interpolation 5.1. Gitter (Rezk-Salama, o.j.) Gitterklassifikation: (Bartz 2005) (Rezk-Salama, o.j.) (Bartz 2005) (Rezk-Salama, o.j.) Allgemeine Gitterstrukturen: (Rezk-Salama, o.j.)

Mehr

entspricht der Länge des Vektorpfeils. Im R 2 : x =

entspricht der Länge des Vektorpfeils. Im R 2 : x = Norm (oder Betrag) eines Vektors im R n entspricht der Länge des Vektorpfeils. ( ) Im R : x = x = x + x nach Pythagoras. Allgemein im R n : x x = x + x +... + x n. Beispiele ( ) =, ( 4 ) = 5, =, 4 = 0.

Mehr

Produktionsschritte. maßgeblich auch für Systemstruktur Î Teilsysteme von Animationssystemen. ist Leitstruktur für die nächsten Vorlesungen

Produktionsschritte. maßgeblich auch für Systemstruktur Î Teilsysteme von Animationssystemen. ist Leitstruktur für die nächsten Vorlesungen $QLPDWLRQXQG0XOWLPHGLD Objektmodellierung: Geometrie Prof. Dr.-Ing. Detlef Krömker *RHWKH8QLYHUVLWlWÃ)UDQNIXUW *UDSKLVFKHÃ'DWHQYHUDUEHLWXQJ 5 FNEOLFN 'LH$QLPDWLRQVSLSHOLQH Preproduction Objektmodellierung

Mehr

Volumenverarbeitung und Optimierung II

Volumenverarbeitung und Optimierung II Volumenverarbeitung und Optimierung II Praktikum Medizinische GPU Verfahren Susanne Fischer sanne@uni-koblenz.de Institut für Computervisualistik Universität Koblenz-Landau 9. Dezember 2006 Susanne Fischer

Mehr

Digitale Bildverarbeitung - Rechnerübung 3

Digitale Bildverarbeitung - Rechnerübung 3 Digitale Bildverarbeitung - Rechnerübung 3 1. Khoros Zur Durchführung der Rechnerübung wird das Programmpaket KHOROS mit seiner Benutzerschnittstelle Cantata verwendet. Nach der Anmeldung am Rechner durch

Mehr

4.7 Globale Beleuchtungsmodelle

4.7 Globale Beleuchtungsmodelle Erinnerung: - Ein lokales Beleuchtungsmodell berücksichtigt nur das direkt einfallende Licht einer Lichtquelle - Nur lokale Beleuchtung + konstante ambiente Beleuchtung, um reflektiertes und gebrochenes

Mehr

Abb. 5-5 Gegenüberstellung von Flat-Shading und Gouraud-Shading. Beleuchtungsberechnung mit nur einer Flächennormale pro Polygon

Abb. 5-5 Gegenüberstellung von Flat-Shading und Gouraud-Shading. Beleuchtungsberechnung mit nur einer Flächennormale pro Polygon Direkte Schattierungsverfahren (Gouraud) 5.1.5 Kontinuierliche Schattierung von Polygonen (Gouraud-Shading) bisher: Zerlegung gekrümmter Flächen (Zylinder, Kugeln, B-Spline-Flächen etc.) in Polygone (meist

Mehr

Analog ist ein Bereich D in R 3 ein Normalbereich, wenn er von der Form. ist, wobei die Rollen der Koordinaten x, y, z vertauscht sein können.

Analog ist ein Bereich D in R 3 ein Normalbereich, wenn er von der Form. ist, wobei die Rollen der Koordinaten x, y, z vertauscht sein können. 142 Analog ist ein Bereich in R 3 ein Normalbereich, wenn er von der Form = { (x,y,z) a x b,u(x) y o(x),ũ(x,y) z õ(x,y) } ist, wobei die Rollen der Koordinaten x, y, z vertauscht sein können. efinition

Mehr

Adaptives Displacement Mapping unter Verwendung von Geometrieshadern

Adaptives Displacement Mapping unter Verwendung von Geometrieshadern Fakultät Informatik Institut für Software- und Multimediatechnik, Professur für Computergraphik und Visualisierung Adaptives Displacement Mapping unter Verwendung von Geometrieshadern Diplomarbeit Timo

Mehr

Die Welt der Shader. Fortgeschrittene Techniken III

Die Welt der Shader. Fortgeschrittene Techniken III Die Welt der Shader Fortgeschrittene Techniken III Universität zu Köln WS 14/15 Softwaretechnologie II (Teil 1) Prof. Dr. Manfred Thaller Referent: Lukas Kley Gliederung 1. Was ist ein Shader? 2. Verschiedene

Mehr

Darstellungsarten für 3D-Körper. Boundary Representation (BRep):

Darstellungsarten für 3D-Körper. Boundary Representation (BRep): Darstellungsarten für 3D-Körper Boundary Representation (BRep): Darstellung eines (verallgemeinerten) Polyeders durch das System seiner Ecken, Kanten und Facetten Abspeichern durch (Teilgraphen des) vef-graphen

Mehr

Teil 7: Beleuchtung. Einleitung. Einleitung. Beleuchtungsmodelle, Schattierungsmodelle

Teil 7: Beleuchtung. Einleitung. Einleitung. Beleuchtungsmodelle, Schattierungsmodelle Beleuchtungsmodelle, Schattierungsmodelle Einleitung Beleuchtung vs. Schattierung Beleuchtung: Modell auswerten (anschl.) global vs. lokal phsikalisch (photo-realistisch?) vs. empirisch Phong-Modell Schattierung:

Mehr

Abitur 2013 Mathematik Geometrie V

Abitur 2013 Mathematik Geometrie V Seite 1 http://www.abiturloesung.de/ Seite Abitur 1 Mathematik Geometrie V Teilaufgabe b ( BE) Ein auf einer horizontalen Fläche stehendes Kunstwerk besitzt einen Grundkörper aus massiven Beton, der die

Mehr

Mathematische Grundlagen für die Vorlesung. Differentialgeometrie

Mathematische Grundlagen für die Vorlesung. Differentialgeometrie Mathematische Grundlagen für die Vorlesung Differentialgeometrie Dr. Gabriele Link 13.10.2010 In diesem Text sammeln wir die nötigen mathematischen Grundlagen, die wir in der Vorlesung Differentialgeometrie

Mehr

Speziell-Relativistischer (Flug-) Simulator

Speziell-Relativistischer (Flug-) Simulator Visualisierungsinstitut Universität Stuttgart Speziell-Relativistischer (Flug-) Simulator Wolfgang Knopki, Anton Tsoulos 09. Januar 2015 Wolfgang Knopki, Anton Tsoulos Speziell-Relativistischer (Flug-)

Mehr

Abbildung 10.1: Das Bild zu Beispiel 10.1

Abbildung 10.1: Das Bild zu Beispiel 10.1 Analysis 3, Woche Mannigfaltigkeiten I. Definition einer Mannigfaltigkeit Die Definition einer Mannigfaltigkeit braucht den Begriff Diffeomorphismus, den wir in Definition 9.5 festgelegt haben. Seien U,

Mehr

Prozedurale Texturen >>Was nicht passt wird passend gemacht...<<

Prozedurale Texturen >>Was nicht passt wird passend gemacht...<< Prozedurale Texturen >>Was nicht passt wird passend gemacht...

Mehr

Geometrische Algorithmen Einige einfache Definitionen: Ist ein Punkt in einem Polygon? Punkt-in-Polygon-Problem. Das Punkt-in-Polygon-Problem

Geometrische Algorithmen Einige einfache Definitionen: Ist ein Punkt in einem Polygon? Punkt-in-Polygon-Problem. Das Punkt-in-Polygon-Problem Geometrische Algorithmen Einige einfache Definitionen: Punkt: im n-dimensionalen Raum ist ein n-tupel (n Koordinaten) Gerade: definiert durch zwei beliebige Punkte auf ihr Strecke: definiert durch ihre

Mehr

Workshop: Einführung in die 3D-Computergrafik. Julia Tolksdorf Thies Pfeiffer Christian Fröhlich Nikita Mattar

Workshop: Einführung in die 3D-Computergrafik. Julia Tolksdorf Thies Pfeiffer Christian Fröhlich Nikita Mattar Workshop: Einführung in die 3D-Computergrafik Julia Tolksdorf Thies Pfeiffer Christian Fröhlich Nikita Mattar 1 Organisatorisches Tagesablauf: Vormittags: Theoretische Grundlagen Nachmittags: Bearbeitung

Mehr

4.3 Beleuchtung und Schattierung

4.3 Beleuchtung und Schattierung 4.3 Beleuchtung und Schattierung Die Grundbestandteile des Renderprozesses Atmosphärische Streuung Emission Reflexion/ Transmission/ Emission Oberfläche 4-38 4.3 Beleuchtung und Schattierung Beleuchtung

Mehr

Oberfläche von Körpern

Oberfläche von Körpern Definition Die Summe der Flächeninhalte der Flächen eines Körpers nennt man Oberflächeninhalt. Quader Der Oberflächeninhalt eines Quaders setzt sich folgendermaßen zusammen: O Q =2 h b+2 h l+2 l b=2 (h

Mehr

3.3 Beleuchtung und Schattierung

3.3 Beleuchtung und Schattierung 3.3 Beleuchtung und Schattierung Die Beleuchtung einer Szenerie kann lokal oder global modelliert werden Ein lokales Beleuchtungsmodell berechnet die Intensität bzw. Farbe eines Objektpunkts abhängig vom

Mehr

Serie 9: Der Satz von Green und Parametrisierungen von Flächen im Raum

Serie 9: Der Satz von Green und Parametrisierungen von Flächen im Raum : Der Satz von Green und Parametrisierungen von Flächen im Raum Bemerkung: Die Aufgaben der sind der Fokus der Übungsstunden vom 6./8. April.. Überprüfung des Satzes von Green Der Satz von Green besagt

Mehr

Formeln für Formen 4. Flächeninhalt. 301 Berechne die Höhe h von einem Rechteck, einem Parallelogramm und einem Dreieck, die jeweils den Flächeninhalt

Formeln für Formen 4. Flächeninhalt. 301 Berechne die Höhe h von einem Rechteck, einem Parallelogramm und einem Dreieck, die jeweils den Flächeninhalt 1 7 Flächeninhalt 301 Berechne die Höhe h von einem Rechteck, einem Parallelogramm und einem Dreieck, die jeweils den Flächeninhalt A = cm 2 und die Grundlinie a = 4 cm haben. Rechteck: h = 2,5 cm Parallelogramm:

Mehr

Einleitung 2. 1 Koordinatensysteme 2. 2 Lineare Abbildungen 4. 3 Literaturverzeichnis 7

Einleitung 2. 1 Koordinatensysteme 2. 2 Lineare Abbildungen 4. 3 Literaturverzeichnis 7 Sonja Hunscha - Koordinatensysteme 1 Inhalt Einleitung 2 1 Koordinatensysteme 2 1.1 Kartesisches Koordinatensystem 2 1.2 Polarkoordinaten 3 1.3 Zusammenhang zwischen kartesischen und Polarkoordinaten 3

Mehr

Kapitel D : Flächen- und Volumenberechnungen

Kapitel D : Flächen- und Volumenberechnungen Kapitel D : Flächen- und Volumenberechnungen Berechnung einfacher Flächen Bei Flächenberechnungen werden die Masse folgendermassen bezeichnet: = Fläche in m 2, dm 2, cm 2, mm 2, etc a, b, c, d = Bezeichnung

Mehr

Newtek Lightwave Grundlagen der 3D-Vektorgrafik

Newtek Lightwave Grundlagen der 3D-Vektorgrafik Newtek Lightwave Grundlagen der 3D-Vektorgrafik Form und Oberfläche Punkte und Polygone (mindestens 3-seitige Verbindungen zwischen Punkten) sind die Grundlage der Darstellung dreidimensionaler Objekte

Mehr

(u, v) z(u, v) u Φ(u, v) (v = const.) Parameterlinie v = const. v Φ(u, v) (u = const.) Parameterlinie u = const.

(u, v) z(u, v) u Φ(u, v) (v = const.) Parameterlinie v = const. v Φ(u, v) (u = const.) Parameterlinie u = const. 13 Flächenintegrale 64 13 Flächenintegrale Im letzten Abschnitt haben wir Integrale über Kurven betrachtet. Wir wollen uns nun mit Integralen über Flächen beschäftigen. Wir haben bisher zwei verschiedene

Mehr

künstliches Objekt, dargestellt durch Anzahl von Punkten in Raum und Zeit (bei bewegten, animierten Objekten).

künstliches Objekt, dargestellt durch Anzahl von Punkten in Raum und Zeit (bei bewegten, animierten Objekten). Computergrafik / Animation künstliches Objekt, dargestellt durch Anzahl von Punkten in Raum und Zeit (bei bewegten, animierten Objekten). Punkte, werden auch "Kontrollpunkte" genannt Wesentlicher Punkt:

Mehr

Lernstraße zum Thema geometrische Körper. Vorbemerkungen. Liebe 10 a, nun sämtliche Arbeitsblätter; aufgrund einer Erkrankung

Lernstraße zum Thema geometrische Körper. Vorbemerkungen. Liebe 10 a, nun sämtliche Arbeitsblätter; aufgrund einer Erkrankung Vorbemerkungen 02.06.2011 Liebe, nun sämtliche Arbeitsblätter; aufgrund einer Erkrankung meiner Kinder am Wochenende etwas später und aufgrund einer Bemerkung von Arian in der letzten Stunde etwas kürzer.

Mehr

Lösungsvorschlag zum zweiten Übungsblatt

Lösungsvorschlag zum zweiten Übungsblatt Lösungsvorschlag zum zweiten Übungsblatt Aufgabe Wir zeigen, daß die Drehung um den Ursprung um 9 und die Spiegelung an der x-achse nicht kommutieren. Die Matrix für die Drehmatrix lautet in diesem Fall

Mehr

Übungsblatt 1: Lösungswege und Lösungen

Übungsblatt 1: Lösungswege und Lösungen Übungsblatt : Lösungswege und Lösungen 5..6 ) Hier geht es weniger um mathematisch-strenge Beweise als darum, mit abstrakten Vektoren ohne Komponenten) zu hantieren und damit die Behauptungen plausibel

Mehr

Vorkurs: Mathematik für Informatiker

Vorkurs: Mathematik für Informatiker Vorkurs: Mathematik für Informatiker Teil 4 Wintersemester 2017/18 Steven Köhler mathe@stevenkoehler.de mathe.stevenkoehler.de 2 c 2017 Steven Köhler Wintersemester 2017/18 Inhaltsverzeichnis Teil 1 Teil

Mehr

Mathematische Grundlagen

Mathematische Grundlagen Mathematische Grundlagen Oliver Deussen Mathematische Grundlagen 1 Affine Räume um Zeichenebene bzw. Raum zu beschreiben, muß vorher ein Koordinatensystem festgelegt werden durch geometrische Fragestellungen

Mehr

Mathematische Werkzeuge für Computergrafik 2016/17. Gleitkommzahlen

Mathematische Werkzeuge für Computergrafik 2016/17. Gleitkommzahlen Mathematische Werkzeuge für Computergrafik 2016/17 Gleitkommzahlen 1 Grundlagen 1 Da im Computer nur endliche Ressourcen zur Verfügung stehen, können reelle Zahlen in vielen Fällen nicht exakt dargestellt

Mehr

Normalbereiche in R 2 sehen wie folgt aus: Analog ist ein Bereich D in R 3 ein Normalbereich, wenn er von der Form

Normalbereiche in R 2 sehen wie folgt aus: Analog ist ein Bereich D in R 3 ein Normalbereich, wenn er von der Form 155 Normalbereiche in R 2 sehen wie folgt aus: Analog ist ein Bereich in R 3 ein Normalbereich, wenn er von der Form = { (x,y,z) a x b,u(x) y o(x),ũ(x,y) z õ(x,y) } ist, wobei die Rollen der Koordinaten

Mehr

3.6 Schattenberechnung

3.6 Schattenberechnung 3.6 Schattenberechnung Schatten sind für die realistische Darstellung von Szenerien sehr wichtig, da der Mensch aus dem Alltag gewohnt ist, Schatten zu sehen, so dass Bilder ohne Schatten sehr unnatürlich

Mehr

Computergraphik Grundlagen

Computergraphik Grundlagen Computergraphik Grundlagen XI. Rasterung Füllen von Polygonen Prof. Stefan Schlechtweg Hochschule nhalt Fachbereich Informatik Inhalt Lernziele 1. Zu lösendes Problem 2. Füllen von Pixelmengen 1. Rekursiver

Mehr

(12) Wiederholung. Vorlesung Computergrafik T. Grosch

(12) Wiederholung. Vorlesung Computergrafik T. Grosch (12) Wiederholung Vorlesung Computergrafik T. Grosch Klausur 18.7. 14 16 Uhr, Hörsaal 5 (Physik) 2 Zeitstunden 8 Aufgaben Drei Aufgabentypen Übungsaufgaben Wissensfragen zur Vorlesung Transferfragen Unterschiedlicher

Mehr

Abb. 5.10: Funktion und Tangentialebene im Punkt ( ) ( ) ( ) 3.) Die Zahlenwerte und in Gleichung (Def. 5.11) berechnen sich durch ( ) ( )

Abb. 5.10: Funktion und Tangentialebene im Punkt ( ) ( ) ( ) 3.) Die Zahlenwerte und in Gleichung (Def. 5.11) berechnen sich durch ( ) ( ) Abb. 5.0: Funktion und Tangentialebene im Punkt Aus der totalen Differenzierbarkeit folgt sowohl die partielle Differenzierbarkeit als auch die Stetigkeit von : Satz 5.2: Folgerungen der totalen Differenzierbarkeit

Mehr

Beleuchtung. Matthias Nieuwenhuisen

Beleuchtung. Matthias Nieuwenhuisen Beleuchtung Matthias Nieuwenhuisen Überblick Warum Beleuchtung? Beleuchtungsmodelle Lichtquellen Material Reflexion Shading Warum Beleuchtung? Tiefeneindruck Realitätsnähe: Reflexionen Spiegelungen Schatten

Mehr

Texture Based Direct Volume Rendering

Texture Based Direct Volume Rendering Texture Based Direct Volume Rendering Vorlesung: "Advanced Topics in Computer Graphics" cbrak@upb.de 1 Agenda 1. Einleitung Volume Rendering 1.1. Volumendatensatz 1.2. Volumenintegral 1.3. Image order

Mehr

Serie 3. z = f(x, y) = 9 (x 2) 2 (y 3) 2 z 2 = 9 (x 2) 2 (y 3) 2, z 0 9 = (x 2) 2 + (y 3) 2 + z 2, z 0.

Serie 3. z = f(x, y) = 9 (x 2) 2 (y 3) 2 z 2 = 9 (x 2) 2 (y 3) 2, z 0 9 = (x 2) 2 + (y 3) 2 + z 2, z 0. Analysis D-BAUG Dr Cornelia Busch FS 2016 Serie 3 1 a) Zeigen Sie, dass der Graph von f(x, y) = 9 (x 2) 2 (y 3) 2 eine Halbkugel beschreibt und bestimmen Sie ihren Radius und ihr Zentrum z = f(x, y) =

Mehr

Skalarprodukte (Teschl/Teschl Kap. 13)

Skalarprodukte (Teschl/Teschl Kap. 13) Skalarprodukte (Teschl/Teschl Kap. ) Sei V Vektorraum über R. Ein Skalarprodukt auf V ist eine Abbildung V V R, (x, y) x, y mit den Eigenschaften () x, y = y, x (symmetrisch), () ax, y = a x, y und x +

Mehr

Koordinatensysteme der Erde

Koordinatensysteme der Erde Koordinatensysteme der Erde Es gibt verschiedene Arten, die Position eines Punktes auf der Oberfläche einer Kugel (manchmal auch Sphäre genannt) darzustellen, jede hat ihre Vor-und Nachteile und ist für

Mehr

Die Grundlagen des Texture Mapping

Die Grundlagen des Texture Mapping Die Grundlagen des Texture Mapping Sascha Vöhringer Zusammenfassung In folgender Arbeit werden zusammenfassend die Grundlagen, die Funktionsweise und die Motivation für Texture Mapping erläutert. In Abschnitt

Mehr

1.6 Objekte Anordnung der Projektionsgeräte. ˆ Einzelsystem ˆ Rundumprojektion ˆ Kaskadierte Projektion Art der Projektion

1.6 Objekte Anordnung der Projektionsgeräte. ˆ Einzelsystem ˆ Rundumprojektion ˆ Kaskadierte Projektion Art der Projektion 1.5.3 Anordnung der Projektionsgeräte ˆ Einzelsystem ˆ Rundumprojektion ˆ Kaskadierte Projektion 1.5.4 Art der Projektion ˆ 2D ˆ Stereo 3D Polarisationsfilter * radial * linear Autostereogramme * Textstereogramme

Mehr

Computergrafik. Ein anwendungsorientiertes Lehrbuch. Bearbeitet von Michael Bender, Manfred Brill

Computergrafik. Ein anwendungsorientiertes Lehrbuch. Bearbeitet von Michael Bender, Manfred Brill Computergrafik Ein anwendungsorientiertes Lehrbuch Bearbeitet von Michael Bender, Manfred Brill 1. Auflage 2003. Taschenbuch. 528 S. Paperback ISBN 978 3 446 22150 5 Format (B x L): 16,9 x 24,1 cm Gewicht:

Mehr

Höhere Mathematik Vorlesung 4

Höhere Mathematik Vorlesung 4 Höhere Mathematik Vorlesung 4 März 217 ii In der Mathematik versteht man die inge nicht. Man gewöhnt sich nur an sie. John von Neumann 4 as oppelintegral Flächen, Volumen, Integrale Ob f für a x b definiert

Mehr