Die Grundlagen des Texture Mapping
|
|
- Wilfried Hermann
- vor 2 Jahren
- Abrufe
Transkript
1 Die Grundlagen des Texture Mapping Sascha Vöhringer Zusammenfassung In folgender Arbeit werden zusammenfassend die Grundlagen, die Funktionsweise und die Motivation für Texture Mapping erläutert. In Abschnitt 1.) werde ich kurz erläutern, warum es so etwas wie Texturen gibt, wozu sie gut sind und für welche Zwecke man sie einsetzen kann. Auch werde ich die verschiedenen Arten von Texturen aufzeigen, wie diskrete Texturen auf der Basis von Bilder und prozeduralen Texturen, die auf mathematischen Funktionen basieren (siehe Abschnitt und 2.2.2). In Abschnitt 2.3) wird Vorgang des Mappens anhand einer Kugel erläutert, auf die eine Weltkarte aufgebracht werden soll, um so einen Globus zu erstellen. Am Ende der Arbeit, in Abschnitt 2.4), werden wir das eher selten eingesetzte 3D-Textute Mapping und die Funktionsweise der Perlin- Noise und Turbulence-Funktion betrachten. CR Categories: I.3.7 [Color, shading, shadowing, and texture]: Three-Dimensional Graphics and Realism Computer Graphics Computing Methodologies Keywords: texture mapping,texturen,texel, Parametrisierung,Projektionstransformation,nearest neighbor, Interpolation,Perlin Noise 1 Introduction Im Gegensatz zu wirklich existierenden Objekten wirkten alle polygonialen Objekte eher glatt und Detaillos. Kratzer auf der Oberfläche, Spuren von Dreck, Fingerabdrücke und Reliefs waren nur Abbildung 1: Zylinder ohne und mit Textur (aus vue6) durch rechenaufwendige geometrische Veränderung des Objekts realisierbar. Das explizite Wiedergeben von Oberflächen durch Modellierung ist jedoch oft zu aufwendig, Grafik-Beschleunigungs- Software schafft zwar oft Abhilfe, dennoch wurden im Laufe der Zeit einige Optimierungsverfahren in dieser Hinsicht entwickelt. Um Rechenzeit einzusparen, die Oberflächen aber dennnoch realistisch aussehen zu lassen, Unebenheiten zu simulieren, und vieles mehr kommt das von Edwin Catmull entwickelte Texture Mapping zum Einsatz (Abb.1) Texture Mapping ist eine effiziente Methode um einer Oberfläche mehr Realismus und Details hinzuzufügen, ohne dass weitere Geometrie erzeugt werden muss. Anschaulich kann man das Verfahren wie folgt beschreiben: Ein Poster wird an eine weiße Wand geklebt, dort entsteht nun möglicherweise ein komplexes, räumliches Bild, ohne dass man die Oberfläche der Wand geometrisch verändert hat. Eine Texture Map kann ein- zwei- oder dreidimensional sein und kann sowohl als mathematische Funktion als auch ein Array repräsentiert werden. Die Funktion, bzw. das Bild (repräsentiert durch ein Array) wird Texture Map genannt, der Prozess, diese Funktion auf eine meist 3-Dimensionale Oberfläche zu legen nennt man texture mapping. Eine dreidimensionale Textur kann beispielsweise Wolken oder Murmeln simulieren, man nennt sie solid textures oder volume textures. 2D Texturen werden als image textures bezeichnet. Den Unterschied zwischen 2D und 3D Texture Mapping werde ich später in dieser Arbeit noch genauer erläutern. Für unsere Zwecke werden jedoch meist 2D-Texturen betrachtet, also 2-dimensionale Arrays. Jedes Bild dass dazu benutzt wird um die Objekt-Beschaffenheit zu beeinflussen nennt man Textur. Mit verschiedenen Techniken, wie Bump-Mapping kann die Textur noch weiter verfeinert werden, indem zb. Höhenunterschiede der Oberfläche simuliert werden. 2 Exposition Die Quelle, welche die Bilddaten beinhaltet die auf eine Oberfläche abgebildet werden sollen, wird als Textur (engl. texture) bezeichnet. Sie besteht aus einer Ansammlung von Texeln (Einzelne Pixel der Texture Map), welche die kleinsten Informationseinheiten darstellen. Ein Texel kann neben Farbwerten, die der Substitution von Pixeln dienen, auch Informationen über Materialeigenschaften
2 (wie z.b. Transparenz oder Normalenvektoren), die beim Rendern berücksichtigt werden, enthalten. Texturraum (u,v) Objektraum (x0,y0,z0) Bildschirmraum (x,y) Wir bezeichnen im Folgenden die Koordinaten der Textur als u und v, die Koordinaten im Objektraum als (x 0,y 0,z 0 ) und die Bildschirmkoordinaten als (x,y). Die Funktion c(u,v) liefert die Farbinformation des Texels an der Stelle (u,v). u und v bilden den (u,v)- Raum. Im dreidimensionalen kommt noch eine zusätzliche Koordinate hinzu, man spricht dann vom (u,v,w)-raum Textur Oberflächenparametrisierung Projektion 2.1) 2D Texture Mapping Der Vorgang des Texture Mappings im Zweidimensionalen lässt sich in 2 Schritte unterteilen: Urbild des Pixel Rückwärts Mapping Pixel Jeder Bestandteil der Datenquelle, also jedes Texel wird zunächst auf eine 3-Dimensionale Oberfläche projiziert, d.h. jedem Punkt des Koordinatensystems der Quelle wird ein räumlicher Punkt der Oberfläche zugewiesen. (siehe Abb.2, Oberflächenparametrisierung) Die 3D-Koordinate wird auf den Bildschirm projiziert, wo sie als Pixel gerendert wird. (siehe Abb.2, Projektion) Dies nennt man Vorwärts Mapping, oder auch Parametrisierung. Die Parametrisierung verbindet alle Punkte einer Texturebene mit Punkten auf einer Oberfläche. Abbildung 3: Theoretischer und praktischer Mapping-Vorgang 2.2.1) Diskrete Textur / Texture Arrays Ein Weg um Texturen räumlich zu spezifizieren ist es, ein 3D-Array mit Farbwerten zu speichern und jedem dieser Werte eine räumliche Position zuzuordnen. Dies ist besonders einfach, da die Transformation in den Objektraum entfällt, da jedem (x 0,y 0,z 0 ) direkt ein Punkt aus dem uvw-raum zugeordnet werden kann. Betrachten wir dies zunächst für 2D-Arrays im 2D-Raum. Abbildung 2: Transformation eines Pixel In der Praxis wird dieser Vorgang jedoch meist umgekehrt realisiert, da dies algorithmisch effizienter zu realisieren ist, man nennt diesen Vorgang Rückwarts-Mapping oder auch Projektionstransformation: Eine Oberfläche wird auf den Bildschirm projiziert und für jeden Pixel wird die Position in der Bildquelle ermittelt, an der sich die Farbinformation c(u,v) für den darzustellenden Punkt befindet (siehe auch Abb.3) Um eine Textur also erfolgreich auf eine Oberfläche zu projizieren, müssen mehrere Rechenschritte durchlaufen werden, um die Koordinaten richtig zu transformieren. Wir gehen davon aus,dass ausschließlich Dreiecke texturiert werden, was keinesfalls die Beschaffenheit der zu modelierenden Objekte einschränkt, da sich alle Polygone in Dreiecke zerlegen lassen. Dreiecke besitzen den Vorteil dass sie stehts planar (plättbar) sind, ausserdem arbeiten alle Echtzeit-Rendering-Maschinen auf der Basis von Dreiecken. Betrachten wir zunächst die 2 möglichen Arten einer Textur, nämlich die auf der Basis eines bestehenden Bildes oder einer Grafik und die auf Basis einer mathematischen Funktion. Abbildung 4: Das Einheitsquadrat In der Anwendung werden Texel nicht direkt, sondern mittels zweier Koordinaten u,v 0,1 adressiert. Die Textur, die auf das Objekt aufgebracht werden soll, hat die Breite n x und die Höhe n y. Jeder Kante eines Polygons muss nun eine Texturkoordinate t = (u,v) zugewiesen werden. Zuerst wird der Integer Anteil des Punktes (u,v) entfernt, so dass er im Einheitsquadrat liegt (Abb.4). Die uv-koordinate (0,0) entspricht der unteren linken Ecke des Bildes, die uv-koordinate (1,1) der oberen rechten Ecke. uv-werte größer 1 und kleiner 0 sind möglich und führen zu Randwiederholungseffekten des Bildes. Das hat den Effekt, dass die uv-ebene sozusagen mit Kopien der nun quadratischen Textur gekachelt wird (Abb.6). Die Werte für u und v im Bereich 0,0 und 1,0 bestimmen die äußeren Bereiche einer Textur. Dies hat möglicherweise den unerwünschten Effekt, dass sogenannte Kachelmuster auftreten, sobald die Textur mehrfach auf eine Oberfläche aufgelegt wird, falls die Kanten der Textur nicht ineinander übergehen. Bei der einfachen Variante des Texture Mapping werden die in den
3 Abbildung 5: Textur im Einheitsquadrat Nearest Neighbor Sampling wählt also für einen Pixel von allen möglichen Texeln den Wahrscheinlichsten aus. Das Verfahren ist einfach zu realisieren, bietet jedoch nur geringen Nutzen, da stets nur ein Texel für einen Pixel in Betracht kommt. Auch ist diese Methode nur geeignet, wenn die Textur während einer Transformation nicht in ihrer Größe verändert wird, da sonst schon erwähnte, ungewollte Kachelmuster und Aliasingeffekte auftreten können. Um eine weichere Textur zu erreichen und Aliasingeffekte beim Verkleinern oder Vergrößern der Textur zu verhindern, werden verschiedene Filtermechanismen benutzt, darunter fällt auch die bilineare Interpolation oder bilineares Filtern. Bei dieser Methode werden für ein einzelnes Pixel vier umliegende Texelwerte berücksichtigt, woraus das gewichtete Mittel berechnet wird und der resultierende Farbwert dargestellt wird. c(u,v) berechnet sich wie folgt: c(u,v) = (1 u )(1 v )c i j +u (1 v )c (i+1) j +(1 u )v c i( j+1) +u v c (i+1)( j+1) mit u = n x u n x u v = n y v n y v Unstetigkeiten der Intensität die durch der Ableitungen enstehen kann sichtbare Linien hervorrufen, um dies zu umgehen kann als dritte Möglichkeit die Hermite Interpolation verwendet werden Abbildung 6: uv-ebene Objektraum transformierten Texturkoordinaten entlang der Randlinien eines Polygons linear Interpoliert. Jedem Pixel wird der Farbwert des, zur jeweiligen interpolierten (u,v)-koordinate gehörenden, Texels übernommen. Dieses Verfahren kann zu unbefriedigenden Resultaten führen, falls die Ausdehnung des Objekts in Sichtrichtung größer wird, da die Interpolation dies nicht berücksichtigt. In diesem Fall muss eine Perspektivenkorrektur durchgeführt werden, die in der Arbeit von Volker Börner genauer erläutert wird. Bisherige Verfahren nehmen an, dass jedem Pixel exakt ein Texel zugeordnet werden kann, was im Allgemeinen nicht der Fall ist. Meistens liegen die Texturkoordinaten eines Pixels sogar zwischen mehreren Texeln. Nun muss entschieden werden, welchen Farbwert der Pixel nun endgültig erhält, wobei geeignete Interpolationsverfahren zum Einsatz kommen. Die einfachste ist hierbei die nearest neighbor oder auch point sampling Methode: Jeden Texel als eine konstante rechteckige Kachel zu betrachten. Dieser Algorithmus sorgt dafür, dass bei der Umrechnung von Texturkoordinaten [0, 1] in diskrete Pixel korrekt gerundet wird. Dabei wird dasjenige Texel, das am nächsten an einem Bildpunkt liegt zur Darstellung gewählt. Die Farbinformation wird durch c(u,v) = c i j berechnet, wobei c(u,v) die Farbe der Textur an der Stelle (u,v) und c i j die Farbe des Pixels mit entsprechendem Indizé ist: i = un x j = vn y Die Indizes beginnen bei (i,j)=(0,0) mit c(u,v) = (1 u )(1 v )c i j +u (1 v )c (i+1) j +(1 u )v c i( j+1) +u v c (i+1)( j+1) u = 3(u ) 2 2(u ) 3 u = 3(v ) 2 2(v ) 3 Im 3-dimensionalen geht man analog vor. Der Unterschied ist, dass man statt eines 2D-Arrays ein 3D-Array benutzt, mit c(u,v,w) = (1 u )(1 v )(1 w )c i jk +u (1 v )(1 w )c (i+1) jk +(1 u )v (1 w )c i( j+1)k +(1 u )(1 v )w c i j(k+1) +u v (1 w )c (i+1)( j+1)k +u (1 v )w c (i+1) j(k+1) +(1 u )v w c i( j+1)(k+1) +u v w c (i+1)( j+1)(k+1) u = n x u n x u v = n y v n y v w = n z w n z w Eine weitere Technik die an dieser Stelle noch zu erwähnen wäre, ist das MIP-Mapping, welches angewandt wird, falls der Rasterabstand der Pixel kleiner oder größer als der der Texel ist, also einem Pixel höchstens ein Texel zugeordnet werden kann oder ein Pixel einen ganzen Bereich der Textur überdeckt. MIP-Maps enthalten
4 neben der Originaltextur noch eine Folge weiterer Texturkopien mit abnehmder Auflösung. So kann das Pixel-Texel-Verhältnis besser bestimmt werden. Die Texturkkopien werden dann wie die Originaltextur verwendet ) Prozedurale Textur Prozedurale Texturen unterscheiden sich von diskreten Texturen weitestgehend darin, dass sie nicht photographiert oder gezeichnet wurden, sondern vorab oder sogar live im Computer durch Komposition von (meistens nicht linearen und stochastischen) Funktionen berechnet werden. Unerwünschte Kacheleffekte werden so vermieden. Im Echtzeit Rendering bedeutet dies jedoch Einbuße der Geschwindigkeit, da realistische Bilder auch sehr komplexe Algorithmen erfordern. Im Kapitel 2.4) wird das Verfahren anhand der Perlin Noise genauer erläutert. Abbildung 7: Textur eines Erdballs mit Liniensegmenten Wir betrachten im Folgenden die gebräuchlichen diskreten 2D Texturen 2.3) Mapping anhand einer Sphere Das Koordinatensystem (u,v) wird gebildet, so dass es mit Punkten eines Objekts im Objektraum assoziiert werden kann. Als Grundlage muss das Koordinatensystem der Textur dem Einheitsquadrat entsprechen, wie schon weiter oben beschrieben (u,v) [0,1] Z Y X Für alle (u,v) ausserhalb dieses Quadrates werden nur die Bruchstellen der Koordinate benutzt. Als Resultat bekommt man, wie weiter oben beschrieben, die gekachelte (uv)-ebene. Um beispielsweise eine Kugel (Abb.8) mit einer Textur (Abb.7) zu überziehen, erinnern wir uns an das Kugelkoordinatensystem. Für eine Kugel mit Radius r und Mittelpunkt (c x,c y,c z ), lautet die parametrische Gleichung einer Kugel : x = x c + r cos(φ)sin(θ) y = y c + r sin(φ)sin(θ) z = z c + r cos(θ) Wobei 0 Θ Π und 0 Φ 2Π Φ und Θ seien nun: Θ = arccos z z c r Φ = arctan2(y y c,x x c ) (arctan2(a,b) berechnet den arctan von a/b) Nun können wir in das Koordinatensystem (u,v) konvertieren: u = Φ 2Π v = Π Θ Π Nun, da wir unser Objekt mit einer Textur belegt haben (Abb.9), müssen wir die Objektkoordinaten noch in Bildschirmkoordinaten umrechnen. Es sei P eine 3D-Koordinate und S die Bildschirmkoordinate: S x = distance P x P z S y = distance P y P z Die Konstante distance simuliert die Distanz vom Betrachter zum Bildschirm und bestimmt damit das Sichtfeld. Nachdem die Dreieckspunkte in Bildschirmpunkte transformiert wurden, wird die Abbildung 8: Drahtgitternetz einer Sphere (aus Blender) projizierte Fläche mit horizontalen Linien von oben nach unten aufgefüllt. Dies geschieht mit diversen Rasteralgorithmen, wie zb. den Bresenham-Algorithmus, oder auch Midpoint-Algorithmus, von Dieser und andere grundlegende Algorithmen rastern Linien nur einfarbig. Eine bessere Darstellung mit mehreren Farbabstufungen ergibt sich bei fortgeschrittenen Verfahren, die Antialiasing (Kantenglättung) unterstützen. Abbildung 9: fertig texturierte Kugel
5 2.4) 3D Texture Mapping 2.4.1)Volumentexturen volumetrische Texturen haben eine dreidimensionale Texturdomäne, haben also zusätzlich eine w-koordinate, welche die Tiefe angibt. (u,v,w) [0,1] 3 Ein Element einer volumetrischen Textur wird Voxel genannt. Diese Texturen können direkt auf Oberflächen angewendet werden, wodurch die Umrechnung vom Texturraum in den Objektraum entfällt, da jedem Punkt des Objekt (x,y,z) direkt ein Voxel zugeordnet werden kann und so auch ungewünschte Verzerrungen nicht entstehen. Der Vorteil liegt also ganz klar bei dem geringen Transformationsaufwand. Eine 3D-Textur verbraucht jedoch viel mehr Speicher als eine einfache 2D-Textur, was teilweise eine schlechte Performance hervorruft. summiert und man erhält eine Perlin Noise. Dazu wird die Basisformel von Perlin benötigt: n(x,y,z) = x +1 i= x y +1 j= y z +1 k= z Ω i jk(x i,y j,z k) Das nun entstandene Muster sieht schon eher aus wie zb. Eine Gebirgskette (Abb.11). Auf eine Kugel angewendet, entsteht ein weiches, zufälliges Muster (Abb.12) 2.4.2) 3-dimensionale Prozedurale Texturen Wie bereits besprochen, können die Punkte eines 3D-Arrays direkt auf die 3D Oberfläche projiziert werden, so wie 2D-Arrays auf 2D Oberflächen projiziert werden können. Über einfache mathematische Funktionen Texturen und Muster zu erstellen ist nicht allzu komplex, jedoch sind Diese dann nicht sehr wirklichkeitsgetreu. Einige Funktionen, die pseudozufällige Muster erzeugen, nennt man Noise-Funktionen (Abb.10). Auch diese Funktionen können isoliert keine wirklichkeitsgetreuen, realistisch wirkenden Muster erzeugen, sie wirken immer noch zu künstlich und zu linear. Legt man diese Funktionen aber sozusagen übereinander, können zufällige, realistisch wirkende Muster entstehen. Hier kommt dann die sogenannte solid noise oder auch Perlin Noise zum Einsatz. Da Perlin Noise darauf basiert, scheinbar zufällige Funktionen mit weichen Übergängen (die Steigung kann einen gewissen Wert nicht überschreiten) zu benutzen, eignet sie sich sehr gut zur Simulation verschiedenster, natürlicher Gebilde, wie die Oberfläche eines Ei s, oder auch Wolken. Um eine Perlin Noise anzuwenden, benötigt man mehrere Rauschfunktionen (Abb.10) mit verschiedenen Werten. Eine Rauschfunktion ist eine quasi randomisierte Funktion. Sie liefert einen zufälligen Wert zwischen -1 und 1, jedoch bei gleicher Eingabe, im Gegensatz zu anderen Zufalls-Funktionen (zum Beispiel Math.random in Java), wieder den gleichen Wert. Würde man für jeden Pixel lediglich eine Zufallszahl berechnen, bekäme man nichts weiter als eine Art Weißes Rauschen, wie man es aus dem Fernsehen kennt. Abbildung 10: Mehrere erzeugte Rauschfunktionen Da diese Rauschfunktionen noch nicht echt wirken, werden sie Abbildung 11: Eine mögliche Perlin Funktion Abbildung 12: Eine Perlin Funktion auf eine Sphere angewendet Erwähnt sei an dieser Stelle noch die Turbulence Funktion: Die Turbulence-Funktionen erzeugt wie der Name schon sagt einen turbulenten skalaren Wert und wird unter Verwendung spezieller Kombinationen mathemathischer Funktionen mit Noise-Werten generiert. Eine eindimensionale Variante sieht wie folgt aus: n t (x) = i n(2i x) 2 i Diese Funktion stapelt wiederholt skalierte Kopien der Noise- Funktion, um den gewünschten Effekt zu erreichen. 3 Schlussfolgerung Texture Mapping eignet sich hervorragend dazu, eine Oberfläche realistisch wirken zu lassen, ohne die Geometrie des Objekts zu
6 verändern, somit wird Rechenzeit eingespart. Durch diverse Filteralgorithmen kann auch in Abhängigkeit vom Blickwinkel ein gutes Ergebnis erzielt werden. Volumetrische Texturen sind zwar geschickter zu handhaben, da die Umrechnung in den Objektraum, und somit unerwünschte Effekte entfallen, momentan jedoch noch etwas zu Rechenzeitaufwendig, weshalb in der Praxis noch immer 2D-Texturen zum Einsatz kommen. Texturen können desweiteren entweder diskret oder prozedural sein, Eine diskrete Textur ist ein Foto oder ein Bild und eine prozedurale Textur ist eine mathematische Funktion. Der Vorgang des Mappens sieht wie folgt aus: Eine Textur wird in Objektkoordinaten umgerechnet, einem Texel wird, je nach Prozess, ein Pixel zugewiesen und das texturierte Objekt in Bildkoordinaten umgerechnet. Gerendert wird das Objekt von oben nach unten durch horizontale Linien. In der Praxis kommt das Verfahren der Projektionstransformation zum Einsatz, dh. Vereinfacht: Ein Objekt wird auf dem Bildschirm angezeigt und die zu mappende Textur wird darübergelegt. Es gibt noch viele Verfahren um eine Textur noch realistischer wirken zu lassen, wie etwa das Bump Mapping, welches Oberflächenunebenheiten simuliert, was aber in der Ausarbeitung von Volker Börner unter Anderem genauer erläutert wird. Literatur KÖGLER, S Texture Mapping in echtzeitberechneten virtuellen Umgebungen. Master s thesis, Universität Hamburg. PERLIN, K. Making noise. GDCHardCore, Decembre. PETER SHIRLEY, MICHAEL ASHIKHMIN, M. G. S. R. M. E. R. K. S. W. B. T., AND WILLEMSEN, P Fundamentals of computer graphics. A. K. Peters.
Inhaltsverzeichnis - Themen
Inhaltsverzeichnis - Themen 1 Hardwaregrundlagen 2 Transformationen und Projektionen 3 Repräsentation und Modellierung von Objekten 4 Visibilität und Verdeckung 5 Rasterung 6 Rendering 7 Abbildungsverfahren
19.09.2014. 2D-Texturen. Reflectance Mapping 3D-Texturen. Farbtexturen
2D-Texturen Texturarten Transformationen Generierung Thomas Jung Reflectance Mapping 3D-Texturen Modellierung von Details erfordert Zeit Darstellung ist aufwendig (langsam) Details belegen Speicherplatz
:= Modellabbildung. Bildsynthese (Rendering) Bildsynthese
Geometrisches Modell bestehend aus Datenstrukturen zur Verknüpfung geometrischer Primitive, welche eine Gesamtszene beschreiben Bildsynthese := Modellabbildung Pixelbasiertes Modell zur Darstellung eines
(7) Normal Mapping. Vorlesung Computergraphik II S. Müller. Dank an Stefan Rilling U N I V E R S I T Ä T KOBLENZ LANDAU
(7) Normal Mapping Vorlesung Computergraphik II S. Müller Dank an Stefan Rilling Einleitung Die Welt ist voller Details Viele Details treten in Form von Oberflächendetails auf S. Müller - 3 - Darstellung
Überblick Echtzeit-Rendering. Uwe Domaratius dou@hrz.tu-chemnitz.de
Überblick Echtzeit-Rendering Uwe Domaratius dou@hrz.tu-chemnitz.de Gliederung 1. Einleitung 2. geometriebasierende Verbesserungen 3. Level-of-Detail 4. Culling 5. Texturen 6. bildbasiertes Rendering Was
Pixel oder Vektor? Die Vor- und Nachteile der verschiedenen Dateiformate. Langner Marketing Unternehmensplanung Metzgerstraße 59 72764 Reutlingen
Die Vor- und Nachteile der verschiedenen Dateiformate Stand April 2016 Langner Marketing Unternehmensplanung Metzgerstraße 59 72764 Reutlingen T 0 71 21 / 2 03 89-0 F 0 71 21 / 2 03 89-20 www.langner-beratung.de
Kapitel 0. Einführung. 0.1 Was ist Computergrafik? 0.2 Anwendungsgebiete
Kapitel 0 Einführung 0.1 Was ist Computergrafik? Software, die einen Computer dazu bringt, eine grafische Ausgabe (oder kurz gesagt: Bilder) zu produzieren. Bilder können sein: Fotos, Schaltpläne, Veranschaulichung
Numerisches Programmieren
Technische Universität München WS /3 Institut für Informatik Prof Dr Hans-Joachim Bungartz Dipl-Inf Christoph Riesinger Dipl-Inf Dipl-Math Jürgen Bräckle Numerisches Programmieren Programmieraufgabe: Polnominterpolation,
Non-Photorealistic Rendering
Übersicht 1. Motivation und Anwendungen 2. Techniken - Cel Shading - Konturlinien - Hatching Einführung Traditionelle Computergraphik Ziel: Fotorealismus Einführung Motivation Bewusste Vermeidung von
Spline-artige Kurven auf Subdivision Surfaces. Jörn Loviscach Hochschule Bremen, Germany
Spline-artige Kurven auf Subdivision Surfaces Jörn Loviscach Hochschule Bremen, Germany Überblick Spline-artige Kurven auf Spline-Flächen Kurven auf SDS: Problem, Anwendung Verwandte Arbeiten Spline-artige
Photonik Technische Nutzung von Licht
Photonik Technische Nutzung von Licht Raytracing und Computergraphik Überblick Raytracing Typen von Raytracern z-buffer Raytracing Lichtstrahlen-Verfolgung (engl. ray tracing): Berechnung von Lichtstrahlen
4. Kapitel 3D Engine Geometry
15.11.2007 Mathematics for 3D Game Programming & Computer Graphics 4. Kapitel 3D Engine Geometry Anne Adams & Katharina Schmitt Universität Trier Fachbereich IV Proseminar Numerik Wintersemester 2007/08
Teil 1: Modellierung. Einleitung. 3D Szene Inhalt. Objekte und ihre Beschreibung
Objekte und ihre Beschreibung Einleitung Computergraphik: 3D sehr wichtig photo-realistic rendering Computer-Animation, Modellierung Visualisierung, Virtual Reality Ansatz: per rendering wird eine 3D-Szene
"rendern" = ein abstraktes geometrisches Modell sichtbar machen
3. Grundlagen des Rendering "rendern" = ein abstraktes geometrisches Modell sichtbar machen Mehrere Schritte: Sichtbarkeitsberechnung Beleuchtungsrechnung Projektion Clipping (Abschneiden am Bildrand)
computer graphics & visualization
Entwicklung und Implementierung echtzeitfähiger Verfahren zur Darstellung von reflektierenden Objekten auf GPUs echtzeitfähiger Verfahren zur Darstellung von reflektierenden Objekten auf GPUs Motivation
Graphische Datenverarbeitung und Bildverarbeitung
Graphische Datenverarbeitung und Bildverarbeitung Hochschule Niederrhein Clippen in 2D und 3D Graphische DV und BV, Regina Pohle, 19. Clippen in 2D und 3D 1 Einordnung in die Inhalte der Vorlesung Einführung
Bildrekonstruktion & Multiresolution
Bildrekonstruktion & Multiresolution Verkleinern von Bildern? Was ist zu beachten? Es kann aliasing auftreten! Das Abtasttheorem sagt wie man es vermeidet? ===> Page 1 Verkleinern von Bildern (2) Vor dem
Computer Vision I. Nikos Canterakis. Lehrstuhl für Mustererkennung, Universität Freiburg
Nikos Canterakis Lehrstuhl für Mustererkennung, Universität Freiburg Gliederung 6 Endliche Kameras Die Lochkamera Die Projektive Kamera Die projektive Kamera Spalten von P Zeilen von P Hauptpunkt und Hauptachse
Volumen Visualisierung
Volumen Visualisierung Seminar Interaktive Visualisierung (WS 06/07) Fabian Spiegel und Christian Meß Fabian Spiegel und Christian Meß 1 Übersicht Anwendungsbeispiele Volumendaten Entstehung Repräsentation
Digitale Bildverarbeitung Einheit 12 3D-Rekonstruktion
Digitale Bildverarbeitung Einheit 12 3D-Rekonstruktion Lehrauftrag SS 2008 Fachbereich M+I der FH-Offenburg Dr. Bernard Haasdonk Albert-Ludwigs-Universität Freiburg Ziele der Einheit Einen Eindruck davon
Texture Based Direct Volume Rendering
Texture Based Direct Volume Rendering Vorlesung: "Advanced Topics in Computer Graphics" cbrak@upb.de 1 Agenda 1. Einleitung Volume Rendering 1.1. Volumendatensatz 1.2. Volumenintegral 1.3. Image order
3D rendering. Introduction and interesting algorithms. PHP Usergroup Dortmund, Dortmund, 2006-12-14. Kore Nordmann
3D rendering Introduction and interesting algorithms PHP Usergroup Dortmund, Dortmund, 2006-12-14 Kore Nordmann Speaker Kore Nordmann Studies computer science at the University Dortmund
Visualisierung mit TurboCAD
Frank Sattler Visualisierung mit TurboCAD ab Version 10 Professional Erste Schritte / Überblick Inhalt Kriterien für Visualisierung Anforderungen an die 3D-Modellierung Eigenschaften der 3D-Objekte Gegenüberstellung
Diana Lange. GENERATIVE GESTALTUNG Arten des Zufalls
Diana Lange GENERATIVE GESTALTUNG Arten des Zufalls RANDOM int index = 0; while (index < 200) { float x = random(0, width); float y = random(0, height); float d = random(40, 100); ellipse(x, y, d, d);
1. Sichtbarkeitsproblem beim Rendern einer dreidimensionalen Szene auf einer zweidimensionalen
3D-Rendering Ulf Döring, Markus Färber 07.03.2011 1. Sichtbarkeitsproblem beim Rendern einer dreidimensionalen Szene auf einer zweidimensionalen Anzeigefläche (a) Worin besteht das Sichtbarkeitsproblem?
Kurs zur Ergänzungsprüfung Darstellende Geometrie CAD. Ebenes Zeichnen (2D-CAD) und die ersten Befehle
CAD Ebenes Zeichnen (2D-CAD) und die ersten Befehle Schnellzugriff-Werkzeugkasten (Quick Access Toolbar) Registerkarten (Tabs) Gruppenfenster (Panels) Zeichenfläche Befehlszeile: für schriftl. Eingabe
2.1 CorelDRAW 8 Das Allround-Programm
2 CorelDRAW 8 Ziele dieses Kapitels: $ Sie lernen verschiedene Anwendungsgebiete von CorelDRAW 8 kennen. $ Sie verstehen den Unterschied zwischen Vektor-, Pixel- und Rendergrafiken. 2.1 CorelDRAW 8 Das
Heute. Motivation. Diskretisierung. Medizinische Bildverarbeitung. Volumenrepräsentationen. Volumenrepräsentationen. Thomas Jung
t.jung@fhtw-berlin.de Heute Volumenrepräsentationen Thomas Jung Generierung von Volumenrepräsentationen Rendering von Volumenrepräsentationen Konvertierung in Oberflächenrepräsentationen Weitere Geometrische
Raytracing. Schlussbericht. Jonas Lauener 1995, Áedán Christie 1997 Melvin Ott 1997, Timon Stampfli 1997
Raytracing Schlussbericht Jonas Lauener 1995, Áedán Christie 1997 Melvin Ott 1997, Timon Stampfli 1997 bei Betreuer Marco Manzi, Institut für Informatik und angewandte Mathematik Inhalt Fragestellung...
6.2 Scan-Konvertierung (Scan Conversion)
6.2 Scan-Konvertierung (Scan Conversion) Scan-Konvertierung ist die Rasterung von einfachen Objekten (Geraden, Kreisen, Kurven). Als Ausgabemedium dient meist der Bildschirm, der aus einem Pixelraster
Photon Mapping. Proseminar How to make a P I X A R movie. Inhaltsverzeichnis. Andreas Schmidt 2011
Photon Mapping Proseminar How to make a P I X A R movie Andreas Schmidt 2011 Inhaltsverzeichnis Zusammenfassung...2 Motivation...2 Photon Tracing Pass...3 Aussenden der Photonen...3 Russisches Roulette...3
Grundlagen der Computer-Tomographie
Grundlagen der Computer-Tomographie Quellenangabe Die folgenden Folien sind zum Teil dem Übersichtsvortrag: imbie.meb.uni-bonn.de/epileptologie/staff/lehnertz/ct1.pdf entnommen. Als Quelle für die mathematischen
Simulation von räumlich verteilten kontinuierlichen Modellen
Vorlesungsreihe Simulation betrieblicher Prozesse Simulation von räumlich verteilten kontinuierlichen Modellen Prof. Dr.-Ing. Thomas Wiedemann email: wiedem@informatik.htw-dresden.de HOCHSCHULE FÜR TECHNIK
Monte-Carlo-Simulation
Modellierung und Simulation Monte-Carlo-Simulation Universität Hamburg Johannes Schlundt 7. Januar 2013 Monte-Carlo-Simulation Johannes S. 1/31 Inhalt Motivation Geschichtliche Entwicklung Monte-Carlo-Simulation
Computer Vision: 3D-Geometrie. D. Schlesinger () Computer Vision: 3D-Geometrie 1 / 17
Computer Vision: 3D-Geometrie D. Schlesinger () Computer Vision: 3D-Geometrie 1 / 17 Lochkamera Modell C Projektionszentrum, Optische Achse, Bildebene, P Hauptpunkt (optische Achse kreuzt die Bildebene),
Christina Nell 3D-Computergrafik Seminararbeit im Hauptseminar Grafikprogrammierung. Universität Ulm Sommersemester 2008
Christina Nell 3D-Computergrafik Seminararbeit im Hauptseminar Grafikprogrammierung Universität Ulm Sommersemester 2008 1 Inhalt 1 Einleitung 3 2 Beleuchtung 2.1 Grundlagen 2.2 Beleuchtung 2.3 Shading
Grundlagen der digitalen Bildverarbeitung / Fortsetzung
Grundlagen der digitalen Bildverarbeitung / Fortsetzung Wir haben bereits zwei Beispiele digitaler Bildfilter gesehen. Es gibt eine große Menge von Filtern mit ganz unterschiedlicher Auswirkung auf das
Computer Vision I. Nikos Canterakis. Lehrstuhl für Mustererkennung, Universität Freiburg,
Nikos Canterakis Lehrstuhl für Mustererkennung, Universität Freiburg, Literatur Richard Hartle and Andrew Zisserman. Multiple View Geometr in computer vision, Cambridge Universit Press, 2 nd Ed., 23. O.D.
Dies ist eine Arbeit für das Hauptseminar "3D Modellierung und Virtuelle Präsenz" an der Universität Ulm im Sommersemester 2007 zu dem Thema
Dies ist eine Arbeit für das Hauptseminar "3D Modellierung und Virtuelle Präsenz" an der Universität Ulm im Sommersemester 2007 zu dem Thema Modellierung, weitergehende Schwerpunkte von Wolfgang Holoch
RENDERING. Cobalt Xenon Argon. mit Ashlar-Vellum. www.arnold-cad.com
RENDERING mit Ashlar-Vellum Cobalt Xenon Argon www.arnold-cad.com Erstellen photorealistischer Darstellungen Erstellen Sie Ihre Welt! Modellier Tips für mehr Realität Hintergrund und Szene Betrachtung
Im Original veränderbare Word-Dateien
Computergrafik Bilder, Grafiken, Zeichnungen etc., die mithilfe von Computern hergestellt oder bearbeitet werden, bezeichnet man allgemein als Computergrafiken. Früher wurde streng zwischen Computergrafik
Bildtransformationen. Geometrische Transformationen Grauwert-Interpolation
Bildtransformationen Geometrische Transformationen Grauwert-Interpolation Transformation Transformation zwei Schritte geometrische Transformation (Trafo der Koordinaten) Neuberechnung der Pielwerte an
Mathematik-Dossier. Die lineare Funktion
Name: Mathematik-Dossier Die lineare Funktion Inhalt: Lineare Funktion Lösen von Gleichungssystemen und schneiden von Geraden Verwendung: Dieses Dossier dient der Repetition und Festigung innerhalb der
Workshop: Einführung in die 3D-Computergrafik. Julia Tolksdorf Thies Pfeiffer Christian Fröhlich Nikita Mattar
Workshop: Einführung in die 3D-Computergrafik Julia Tolksdorf Thies Pfeiffer Christian Fröhlich Nikita Mattar 1 Organisatorisches Tagesablauf: Vormittags: Theoretische Grundlagen Nachmittags: Bearbeitung
NÜTZLICHE TIPPS FÜR OPTIMALE SCANS
Bedingungen, um gute Scans zu erhalten Die Faktoren, von denen das Ergebnis eines Scans abhängt, sind einerseits die Umgebung sowie die Konfiguration und Kalibrierung des Scanners, aber auch das zu scannende
8 3D-Grafik mit VPython
8 3D-Grafik mit VPython In diesem Kapitel wird das Python-Erweiterungsmodul Visual-Python bzw. VPython vorgestellt. Mit VPython können interaktive und animierte 3D-Szenen erzeugt werden. Dreidimensionale
Computergraphik I. Scan Conversion: Lines & Co. Einordnung in die Pipeline. G. Zachmann Clausthal University, Germany zach@tu-clausthal.
11/4/10 lausthal omputergraphik I Scan onversion of Lines. Zachmann lausthal University, ermany zach@tu-clausthal.de Einordnung in die Pipeline Rasterisierung der Objekte in Pixel Ecken-Werte interpolieren
Animation ist das Erzeugen von Filmen mit Hilfe der Computergrafik. Objekte bewegen sich hierbei oder Beleuchtung, Augpunkt, Form,... ändern sich.
Kapitel 1 Animation (Belebung) Animation ist das Erzeugen von Filmen mit Hilfe der Computergrafik. Objekte bewegen sich hierbei oder Beleuchtung, Augpunkt, Form,... ändern sich. Anwendungen findet die
Computer Graphik. Mitschrift von www.kuertz.name
Computer Graphik Mitschrift von www.kuertz.name Hinweis: Dies ist kein offizielles Script, sondern nur eine private Mitschrift. Die Mitschriften sind teweilse unvollständig, falsch oder inaktuell, da sie
Logo-Aufgaben mit Verbindung zur Mathematik
Logo-Aufgaben mit Verbindung zur Mathematik Student: Dozent: Prof. Juraj Hromkovic Datum: 13.06.007 Logo-Kenntnisse Für die Lösung der Aufgaben werden folge Logo-Befehle benötigt: Arithmetik: +, -, *,
Photorealistische Echtzeit-Visualisierung geovirtueller Umgebungen
Photorealistische Echtzeit-Visualisierung geovirtueller Umgebungen Anselm Kegel Hasso-Plattner-Institut Fachgebiet Computergrafische Systeme Prof. Dr. Jürgen Döllner Universität Potsdam www.hpi.uni-potsdam.de/3d
Lineare Gleichungssysteme
Brückenkurs Mathematik TU Dresden 2015 Lineare Gleichungssysteme Schwerpunkte: Modellbildung geometrische Interpretation Lösungsmethoden Prof. Dr. F. Schuricht TU Dresden, Fachbereich Mathematik auf der
3 GRAFIKEN, BILDER, ZEICHNUNGSOBJEKTE
3 GRAFIKEN, BILDER, ZEICHNUNGSOBJEKTE Grafiken, Bilder und Zeichnungsobjekte können in einer Präsentation mehrere Funktionen haben: Sie können eine Präsentation anschaulicher machen, können das Vorgeführte
Computergraphik Grundlagen
Computergraphik Grundlagen V. Die Rendering-Pipeline Prof. Stefan Schlechtweg Hochschule Anhalt Fachbereich Informatik Inhalt Lernziele 1. Der Begriff Rendering 2. Die Rendering-Pipeline Geometrische Modellierung
Bildverarbeitung Herbstsemester 2012. Kanten und Ecken
Bildverarbeitung Herbstsemester 01 Kanten und Ecken 1 Inhalt Einführung Kantendetektierung Gradientenbasierende Verfahren Verfahren basierend auf der zweiten Ableitung Eckpunkterkennung Harris Corner Detector
2D-Transformationen. Kapitel 6. 6.1 Translation. 6.2 Skalierung
Kapitel 6 2D-Transformationen Mit Hilfe von Transformationen ist es möglich, die Position, die Orientierung, die Form und die Größe der grafischen Objekte zu manipulieren. Transformationen eines Objekts
Schnelle und konsistente Stoffwertberechnung mit Spline Interpolation Arbeiten innerhalb der IAPWS Task Group "CFD Steam Property Formulation"
M. Kunick, H. J. Kretzschmar Hochschule Zittau/Görlitz, Fachgebiet Technische Thermodynamik, Zittau Schnelle und konsistente Stoffwertberechnung mit Spline Interpolation Arbeiten innerhalb der IAPWS Task
Parallele und funktionale Programmierung Wintersemester 2013/14. 8. Übung Abgabe bis 20.12.2013, 16:00 Uhr
8. Übung Abgabe bis 20.12.2013, 16:00 Uhr Aufgabe 8.1: Zeigerverdopplung Ermitteln Sie an folgendem Beispiel den Rang für jedes Listenelement sequentiell und mit dem in der Vorlesung vorgestellten parallelen
Unterscheidung: Workflowsystem vs. Informationssystem
1. Vorwort 1.1. Gemeinsamkeiten Unterscheidung: Workflowsystem vs. Die Überschneidungsfläche zwischen Workflowsystem und ist die Domäne, also dass es darum geht, Varianten eines Dokuments schrittweise
Wahlfach Mathematik: Funktionen
Wahlfach Mathematik: Funktionen In der Mathematik ist eine Funktion oder Abbildung eine Beziehung zwischen zwei Mengen, die jedem Element der einen Menge (Funktionsargument, unabhängige Variable, x-wert)
er erste Workshop-Teil widmete sich der Konzeption und Modellierung des CryENGINE-Tempels. Im
Grafik-Workshop Bau eines CryENGINE-Tempels Teil 2: UV-Mapping und Texturierung Im zweiten Teil der Workshop-Reihe beschreibt Martin Teichmann die Erstellung des HighpolyMeshes, das Baken sowie die Texturierung
Computer-Graphik I Transformationen & Viewing
lausthal Motivation omputer-raphik I Transformationen & Viewing Man möchte die virtuelle 3D Welt auf einem 2D Display darstellen. Zachmann lausthal University, ermany zach@in.tu-clausthal.de. Zachmann
Allerdings ist die Bearbeitung von Standardobjekten vorerst eingeschränkt. Wir wollen uns dies im folgenden Beispiel genauer betrachten.
7. KURVEN UND KNOTEN INFORMATION: Sämtliche Objekte bestehen in CorelDRAW aus Linien oder Kurven. So ist ein Rechteck ein Gebilde aus einem Linienzug, ein Kreis hingegen besteht aus einer Kurve. Zum Bearbeiten
Route Ein Programm besteht aus mehreren Routen (Teilstrecken). Jede Route hat eigene Einstellungen für
Trainingseinheit Mit der Funktionsschaltfläche Training können Sie Routen und Trainingsfahrten mit den verschiedenen Trainingstypen erstellen und bearbeiten: Catalyst, Video, GPS-Touren und Virtual Reality.
Schnellanleitung: Bilder für das Internet optimieren
Inhaltsverzeichnis Inhaltsverzeichnis... 1 Schnellanleitung: Bilder für das Internet optimieren... 1 Bilder für das Internet optimieren... 2 Auflösung bei Grafiken für Printmedien... 2 Auflösung bei Grafiken
5. Bildauflösung ICT-Komp 10
5. Bildauflösung ICT-Komp 10 Was sind dpi? Das Maß für die Bildauflösung eines Bildes sind dpi. Jeder spricht davon, aber oft weiß man gar nicht genau was das ist. Die Bezeichnung "dpi" ist ein Maß, mit
Billboard Clouds for Extreme Model Simplification
Fakultät für Elektrotechnik, Informatik und Mathematik Arbeitsgruppe Algorithmen und Komplexität Prof. Friedhelm Meyer auf der Heide Billboard Clouds for Extreme Model Simplification Seminararbeit im Rahmen
Dokumentation Programm 1 Großmaßstäbig: Villacher Alpe/Dobratsch
Dokumentation Programm 1 Großmaßstäbig: Villacher Alpe/Dobratsch Daten Die für das großmaßstäbige Programm 1 verwendeten Daten stammen vom Land Kärnten (Open Government Data) und sind über folgendem URL
Probelektion zum Thema. Shadow Rendering. Shadow Maps Shadow Filtering
Probelektion zum Thema Shadow Rendering Shadow Maps Shadow Filtering Renderman, 2006 CityEngine 2011 Viewport Real reconstruction in Windisch, 2013 Schatten bringen viel Realismus in eine Szene Schatten
Informatik Aufgaben. 1. Erstelle ein Programm zur Berechnung der Summe der Zahlen von 1 bis n, z.b. n = 100.
Informatik Aufgaben 1. Erstelle ein Programm zur Berechnung der Summe der Zahlen von 1 bis n, z.b. n = 100. 2. Erstelle ein Programm, das die ersten 20 (z.b.) ungeraden Zahlen 1, 3, 5,... ausgibt und deren
Cutout - Dokumentation Plug-In zur Erstellung von Bastelbögen
V1.0 Cutout - Dokumentation Plug-In zur Erstellung von Bastelbögen Copyright 2009-2010 Dunreeb Gutschke & Klie GbR Inhaltsverzeichnis 1 Allgemeines 2 1.1 Überblick.................................. 2 1.2
Inhalt. Seite 4... Am Anfang: Fotos, Fotos, Fotos-Referenzmaterial. Seite 4... Modellieren, texturieren und beleuchten
Inhalt Seite 3... Die Idee Seite 4... Am Anfang: Fotos, Fotos, Fotos-Referenzmaterial Seite 4... Modellieren, texturieren und beleuchten Seite 7... Renderelemente: Wie die Bilder aufgebaut sind Seite 9...
Bilder korrigieren. So sieht das ursprüngliche Bild aus: So sieht das Bild nach den Korrekturen aus:
Bilder korrigieren Willkommen bei Corel PHOTO-PAINT, der leistungsfähigen Anwendung zum Bearbeiten von Fotos und zum Erstellen von Bitmaps. In diesem Lernprogramm lernen Sie, wie Sie einfache Bildkorrekturen
Arbeiten mit Adobe Photoshop Elements
D. Rudolph & J. E. von Specht Arbeiten mit Adobe Photoshop Elements Teil 1 Objekte freistellen Kompositionen erstellen Um Bildkompositionen zu erstellen, muss man gelegentlich Objekte freistellen. Dies
Visio 2013. Grundlagen. Linda York. 1. Ausgabe, Oktober 2013
Visio 2013 Linda York 1. Ausgabe, Oktober 2013 Grundlagen V2013 2 Visio 2013 - Grundlagen 2 Einfache Zeichnungen erstellen In diesem Kapitel erfahren Sie wie Sie Shapes einfügen, kopieren und löschen was
Volumenrendering. Modellierung der visuellen Erscheinung von semitransparenten, beleuchteten Objekten. Marcel Petrick
Volumenrendering Modellierung der visuellen Erscheinung von semitransparenten, beleuchteten Objekten Marcel Petrick Einleitung Anwendung zur Visualisierung von Skalarfunktionen dreidimensionaler Variablen
Softwaretechnik (WS 11/12)
Universität Augsburg, LSt. Softwaretechnik, K. Stenzel, H. Seebach, G. Anders Softwaretechnik (WS 11/12) Lösungsvorschlag 5 Aufgabe 1 (System Behavior: System Sequence Diagrams) (10/5 Punkte) a) Was sind
1 Schatten und Texturen
1 Schatten und Texturen 1.1 Kapitel Guide oder Was Sie anhand von diesem Beispiel lernen werden! Wir stellen Sie nun vor die spannende Aufgabe, ein einfaches Diagramm optisch so gelungen aufzubereiten,
Auflösung von Displays und Pixelbildern. Unterlagen für den Workshop Designing Interactions in XS Stand März 2012
Unterlagen für den Workshop Designing Interactions in XS Stand März 2012 Nutzungsumfeld und -situationen Kategorisierung von Geräten Eingabe für mobile Geräte Displaytechnologien Auflösung von Displays
Programmierkurs Java
Programmierkurs Java Dr. Dietrich Boles Aufgaben zu UE22-NutzungVonKlassen (Stand 28.09.2012) Aufgabe 1: Entwickeln Sie in Eclipse auf der Basis der vorgestellten Java-GUI-Klassen ein Java- Programm, das
Wie erstellt man dynamische Elemente mit JSXGraph?
Wie erstellt man dynamische Elemente mit JSXGraph? 1. Kurzinformation zu JSXGraph Was ist JSXGraph? Eine freie dynamische Mathematiksoftware, die vollständig in Javascript programmiert ist. Daher benötigt
mayasketche.book Seite 58 Dienstag, 18. September 2001 4:27 16 KNUBBELMÄNNCHEN
1 mayasketche.book Seite 58 Dienstag, 18. September 2001 4:27 16 KNUBBELMÄNNCHEN Wie baue ich eine Figur, die nicht glatt ist wie der typische 3D-Character? Thematik: Modeling, Rendering Verwendete Techniken
Farbdarstellung. aber mit einem ausgeprägten Empfindlichkeitsmaximum im roten, grünen bzw. blauen Bereich.
Erinnerung aus dem Biologieunterricht: Das menschliche Auge hat Stäbchen zur Unterscheidung von Helligkeiten drei verschiedene Arten von Zäpfchen, die für rot, grün und blau empfindlich sind. Genauer:
Virtuelle Objekte und Szenerie
3D Grafik und Animation Überblick Q-Medien GmbH Konzept Design Produktion Virtuelle Objekte und Szenerie Wie entsteht eigentlich ein 3D-Modell? Wir fangen mit einer 2D-Darstellung an und zeichnen ein Rechteck
Anhand des bereits hergeleiteten Models erstellen wir nun mit der Formel
Ausarbeitung zum Proseminar Finanzmathematische Modelle und Simulationen bei Raphael Kruse und Prof. Dr. Wolf-Jürgen Beyn zum Thema Simulation des Anlagenpreismodels von Simon Uphus im WS 09/10 Zusammenfassung
Zeichnen von Graphen. graph drawing
Zeichnen von Graphen graph drawing WS 2006 / 2007 Gruppe: D_rot_Ala0607 Christian Becker 11042315 Eugen Plischke 11042351 Vadim Filippov 11042026 Gegeben sei ein Graph G = (V; E) Problemstellung V E =
RTT DeltaGen Suite. Materialeinstellungen für OpenGL, RTT RealTrace & Global illumination. Copyright 2010 by Realtime Technology AG
RTT DeltaGen Suite Materialeinstellungen für OpenGL, RTT RealTrace & Global illumination Copyright 2010 by Realtime Technology AG Look Editor Der Look Editor zeigt die Eigenschaften des Looks des selektierten
Multivariate Statistik
Hermann Singer Multivariate Statistik 1 Auflage 15 Oktober 2012 Seite: 12 KAPITEL 1 FALLSTUDIEN Abbildung 12: Logistische Regression: Geschätzte Wahrscheinlichkeit für schlechte und gute Kredite (rot/blau)
2 Arbeiten mit CAD-Modellen
14 2 Arbeiten mit CAD-Modellen In diesem Kapitel werden die Grundlagen des Arbeitens mit CAD- Modellen in NX erläutert. Dazu zählen neben der Struktur von CAD- Modellen auch das Arbeiten mit Geometrieelementen,
Proseminar: Website-Managment-System. NetObjects Fusion. von Christoph Feller
Proseminar: Website-Managment-System NetObjects Fusion von Christoph Feller Netobjects Fusion - Übersicht Übersicht Einleitung Die Komponenten Übersicht über die Komponenten Beschreibung der einzelnen
Computergrafiken lassen sich grob in zwei Kategorien einteilen: Vektorgrafiken und Bitmap-Grafiken, die man auch Pixelgrafiken nennt.
WS03/04 Digitale Bildformate / Sleegers / p.1 Digitale Bildformate Computergrafiken lassen sich grob in zwei Kategorien einteilen: Vektorgrafiken und Bitmap-Grafiken, die man auch Pixelgrafiken nennt.
Rendering Grundlagen Autodesk Maya. Grundlagen. Version 1.0-2009-04-08. 2009 Ingo Clemens brave rabbit www.braverabbit.de
Rendering Grundlagen Version 1.0-2009-04-08 Allgemeine Unterschiede bei Renderern Scanline Rendering Raytrace Rendering Renderlayer Einsatz von Renderlayern Overrides Material Overrides Layer Presets Batch
Grundlagen Programmierung
13. Aufgabe (13 Punkte) Schreiben Sie eine neue Klasse Zahlenanalyse, mit der Integer-Objekte genauer betrachtet werden können. Bei den zu entwickelnden Methoden kann es immer sinnvoll sein, sich den Ablauf
Wirtschaftsrechnen. Leseprobe
Wirtschaftsrechnen Kapitel 1 Darstellung von Größen 1.1 Größen im Koordinatensystem 1.2 Diagramme und Ihre Verwendung 1.2.1 Säulendiagramm 1.2.2 Balkendiagramm 1.2.3 Punktdiagramm (Streudiagramm) 1.2.4
Codierungstheorie Rudolf Scharlau, SoSe 2006 9
Codierungstheorie Rudolf Scharlau, SoSe 2006 9 2 Optimale Codes Optimalität bezieht sich auf eine gegebene Quelle, d.h. eine Wahrscheinlichkeitsverteilung auf den Symbolen s 1,..., s q des Quellalphabets
Computer Graphik (CS231) - Installation der Software
UNIVERSITÄT BASEL Prof. Dr. Thomas Vetter Departement Mathematik und Informatik Spiegelgasse 1 CH 4051 Basel Tobias Maier (tobias.maier@unibas.ch) Jasenko Zivanov (jasenko.zivanov@unibas.ch) Marc Schmidlin
Teil III. Grundlagen der Computergrafik
Teil III Grundlagen der Computergrafik Überblick 1 2 Geometrische Modellierung 3 Bildsynthese 4 Grafikprogrammierung Eike Schallehn Grundlagen der Informatik für Ingenieure Wintersemester 08/09 3 1 Begriff:
Dokumentation zum Projekt Multimediale Lehre Fluidmechanik an der Technischen Universität Graz
Dokumentation zum Projekt Multimediale Lehre Fluidmechanik an der Technischen Universität Graz Andreas Aigner email: andreasa@sbox.tu-graz.ac.at. Januar 00 Inhaltsverzeichnis Theorie. Stromfunktion...........................
Effiziente Erzeugung qualitativ hochwertiger Bilder anhand punktbasierter Geometriedaten
Effiziente Erzeugung qualitativ hochwertiger Bilder anhand punktbasierter Geometriedaten Referent: Arndt Ebert 1 2 Ziel des Vortrags Einordnung der point based representation (PBR) und Grundlagen Effiziente
Visualisierung von Geodaten. Visualisierung von Geodaten
1 Inhalt Visualisierung Motivation Definition Vorteile Geoobjekte Geometrische Modellierung Rastermodelle Vektormodelle Hybridmodelle Software Kartographie Client-Server Server-Anwendungen 3D-Visualisierung