Fachhochschule Köln Abteilung Gummersbach. Computergrafik und Animation. 3D Modellierung vom Foto zum Objekt

Größe: px
Ab Seite anzeigen:

Download "Fachhochschule Köln Abteilung Gummersbach. Computergrafik und Animation. 3D Modellierung vom Foto zum Objekt"

Transkript

1 Fachhochschule Köln Abteilung Gummersbach Computergrafik und Animation 3D Modellierung vom Foto zum Objekt Diplomarbeit Radu Chisleag Matr.- Nr August 24 Gutachter: Prof. Dr. Horst Stenzel

2 Erklärung Ich versichere hiermit, die vorliegende Arbeit selbständig und ohne Verwendung anderer als der angegebenen Hilfsmittel angefertigt zu haben. Alle Stellen, die wörtlich oder sinngemäß aus veröffentlichten und nicht veröffentlichten Schriften entnommen sind, sind als solche kenntlich gemacht. Gummersbach, August 24. Radu Chisleag

3 Danksagung Zunächst möchte ich mich bei Herrn Prof. Dr. Horst Stenzel, Lehrgebiet für Graphische Datenverarbeitung an der Fachhochschule Köln Abteilung Gummersbach für die Vergabe dieses Diplomthemas bedanken. Ebenfalls möchte ich mich noch bei meinen Eltern bedanken, die mir das Studium der Informatik ermöglicht und mich in schwierigen Phasen unterstützt haben.

4 Inhaltverzeichnis 1 MOTIVATION EINLEITUNG GRUNDLEGENDE 3D ALGORITHMEN DIE RENDERING PIPELINE: ELEMENTARE DATENSTRUKTUREN SZENEN MANAGEMENT GEOMETRISCHE TRANSFORMATIONEN: RASTERUNG Überprüfung des Rendering Kontext Tiefen Pufferung Kappung am Bildschirmrand und Transparenztest Transparenz Nebel und Depth Cueing Anti-Aliasing Das Rendern eines Dreiecks TEXTURE MAPPING Bilineares Texture Mapping Perspektivisches Texture Mapping SHADING PRINZIPIEN Konstante Schattierung Phong Reflektions-Modell Gouraud Shading Phong Shading EINGESETZTE SOFTWARE PHOTOMODELER LITE, VERSION ADOBE PHOTOSHOP, VERSION ACDSEE, VERSION D STUDIO MAX, VERSION ERKLÄRUNG DES ARBEITSABLAUFES VISUELLE DOKUMENTATION FH-GEBÄUDE AUßEN FH AUßEN MENSA SÄULENRAUM ATRIUM TREPPENHAUS EINGANGSTREPPE Geometrie Details Wände SCHLUSSFOLGERUNG UND AUSBLICK REFERENZEN...69

5 Motivation 5 1 Motivation Da das Gebiet der computergenerierten 3D Graphik mittlerweile interdisziplinär verbreitet ist, und sich im stetigen Wachstum befindet, stellt es für den Autor dieser Arbeit ein attraktives Forschungsgebiet dar. Für jemanden, der sich selbst noch nicht eingehend mit der Erzeugung dreidimensionaler Szenarien und sogenannter virtueller Welten auseinandergesetzt hat, bietet es sich als Einstiegspunkt in diese sehr komplexe Thematik an, selbst den Versuch zu wagen, solch eine Szene oder ein Modell von Grunde auf selbstständig zu erzeugen. Ein komplexes Feld wie die 3D Graphik führ selbstverständlich dazu, dass zahlreiche Produkte erscheinen, mit welchen sich 3D Modelle und Landschaften auf unterschiedlichste Art und Weise erzeugen, manipulieren und darstellen lassen. Von besonderer Attraktivität stellte sich dabei ein Programm heraus, PhotoModeler, welches es ermöglicht, aus gängigen Fotographien dreidimensionale Computergraphik zu erstellen, anstatt diese selbständig von Grund auf zu erzeugen, wie es bei anderen Graphikpaketen üblich ist. Eingesetzt wurde hierbei die Lite Version von PhotoModeler, da sie kostenfrei erhältlich ist, und dem Benutzer durch die geringere Komplexität leichter Einblicke in die Vorgänge der Computergraphik im Allgemeinen, und den Arbeitsabläufen unseres Projektes im Speziellen gestattet.

6 Einleitung 6 2 Einleitung In dem Bereich der Computergraphik besitzt das 3D-Modelling heutzutage eine wichtige Rolle. Ursprünglich nur auf komplexen Rechnerarchitekturen sinnvoll einsetzbar, ist diese Technologie mittlerweile durch den stetigen Fortschritt in der Leistung moderner Rechnersysteme auch für den privaten und semi-professionellen Bereich nutzbar und erschwinglich gemacht worden. Parallel zum Fortschritt in der Hardware sind durch die Verbreitung und die steigende Popularität des Internets auch 3D-Algorithmen und intuitiv zu bedienende, sowie im Vergleich zu Profisystemen günstige Graphiksoftware den oben genannten Bereichen leichter zugänglich gemacht worden. Aufgrund des zunehmenden Wettbewerbs der Soft- und Hardware-Hersteller, welcher weiterhin durch die steigende Popularität computeranimierter Graphik, wie sie auch vor allem in Kinofilmen zum Einsatz kommt, stieg im Laufe der Zeit die Leistungsfähigkeit von Computersystemen und spezialisierter Graphiksoftware. Ebenso wichtig wie die leistungsfähige Technologie ist auch der Einsatz von effizienten Algorithmen. Hierbei spielt die Verbreitung des Internets als breites Kommunikationsmedium eine wichtige Rolle, da es interessierten Laien, wie auch professionellen Entwicklern Zugang verschafft zu einer großen Sammlung an Informationsmaterial zu dieser Thematik, sei es in Form von frei zugänglichen Bibliotheken, oder in Form von Kommunikationsinstanzen wie z.b. Foren oder Newsgroups. Das von vielen gern zitierte Moorsche Gesetz, welches Aussagen trifft über die Zunahme der Rechenleistung und über die Dichte der Transistoranzahl auf einem Chip im Laufe der Zeit, wurde immer wieder in seinen Prognosen übertroffen. Im Prinzip handelt es sich dabei um eine Aussage des Intel Mitbegründers Gordon Moore, welche aufgrund diverser Beobachtungen im Jahr 1965 getroffen wurde, und besagt, dass die Datendichte ungefähr alle 18 Monate verdoppelt wird.

7 Einleitung 7 Viele graphische Funktionen wie Texture-Mapping oder Geometrische Transformationen, die vor Jahren nur auf extrem kostspieligen Multi-CPU-Architekturen in der Industrie oder wissenschaftlichen Instituten in Echtzeit realisierbar waren, oder in weitaus langsamerer Form rein Software-basierend auf simpleren Computersystemen liefen, sind zur heutigen Zeit bereits Standardkomponenten moderner Graphikhardware. In immer geringerem Maße kommt der CPU eines Systems bei der Berechnung von 3D-Graphik Bedeutung zu, da die meisten Rechenanweisungen von spezialisierter Graphikhardware übernommen werden. Generell kann man sagen, dass das 3D-Modelling in der Computergraphik eingesetzt wird, um dreidimensionale räumliche Daten auf einem zweidimensionalen Bildschirm darzustellen. Wo bei zweidimensionaler Computergraphik die kleinsten Bildelemente, die sogenannten Pixel, nur Eigenschaften wie Farbe, Position und Helligkeit besitzen, verfügen Pixel in einer durch 3D-Algorithmen erzeugten Graphik noch zusätzlich über die Eigenschaft der räumlichen Tiefe, welche entlang einer Z-Achse festgelegt wird. Im Gegensatz zu einer zweidimensionalen Computergraphik, welche im Prinzip statischer Natur ist, wird eine dreidimensionale Graphik, bzw. die Graphik eines dreidimensionalen Modells, immer wieder neu berechnet, und könnte so aus allen Perspektiven betrachtet werden. Um zu realitätsnahen Ergebnissen zu gelangen z.b. durch eine aufwändige Beleuchtungssimulation -, verlangt die Berechnung der dreidimensionalen Graphik eine entsprechend hohe Rechenkapazität. Der eigentliche Einsatzzweck dieser visualisierten Daten hängt von dem Bereich ab, in dem von der Computergraphik Gebrauch gemacht wird. Diese Bereiche beinhalten unter anderem das Konstruieren und Planen von Architektur, die Visualisierung mathematischer Algorithmen in der Wissenschaft, die Modellierung von Fahr- und Flugzeugen in der Luftund Raumfahrt, der Autoindustrie und im Schiffsbau, oder die Kernspintomographie in der Medizin. Ebenso wird die 3D-Computergraphik als visuelles Hilfsmittel in Flug- und Fahrsimulationen zum Schulen und Trainieren von Fahrern und Piloten im militärischen und zivilen Bereich verwendet. Der Bereich der 3D-Modellierung/-Computergraphik ist ein von ständigen Innovationen geprägtes Wissenschaftsfeld. Aus diesem Bereich hat sich der Autor dieser Arbeit das Prinzip des Erstellens von 3D-Modellen aus zweidimensionalen Fotographien herausgesucht, und sich näher damit auseinandergesetzt. Genauer gesagt, besteht die Zielvorstellung darin, eine Anzahl von Innenräumen eines real existierenden Gebäudes das Hauptgebäude der Fachhochschule Gummersbach mit einer digitalen Fotokamera aufzunehmen, und diese

8 Einleitung 8 Bilddaten mit einem Spezialprogramm PhotoModeler 3D [PHOT3] in ein dreidimensionales Computermodell umzuwandeln. Im Laufe dieser Arbeit wurde von den meisten bereits genannten Technologien Gebrauch gemacht. Darunter fallen unter anderem digitale Bildkameras zur Aufnahme rohen Bildmaterials, Computersysteme mit ausgereifter Graphikhardware und verschiedene Arten von Graphiksoftware, zum Zwecke der Erschaffung und nachträglichen Bearbeitung zweiund dreidimensionaler Modelle und Bilddaten. Im Folgenden ein Überblick über den Aufbau dieser Arbeit: Im dritten Kapitel folgt eine Übersicht aller für diese Arbeit potentiell relevanten Algorithmen und mathematischen Grundlagen. Kapitel vier bietet Beschreibungen der Software, welche im Rahmen des Projektes eingesetzt wurde. In Kapitel fünf wird dargestellt wie der tatsächliche Arbeitsverlauf mit Hilfsmitteln und Ressourcen aussieht. Die genauere Darlegung der einzelnen Teil- und Unterprojekte in Wort und Bildern befindet sich im sechsten Kapitel dieser Arbeit. Eine genauere Analyse der angestrebten und erreichten Ziele, sowie eine Schlussfolgerung ist in Kapitel sieben zu finden.

9 Grundlegende 3D Algorithmen 9 3 Grundlegende 3D Algorithmen Um ein besseres Verständnis für die Prinzipien und Methoden zu schaffen, die bei der modernen 3D-Graphik im Allgemeinen, und bei diesem Projekt im Speziellen zum Einsatz kommen, soll dieses Kapitel einige grundlegende 3D Algorithmen erläutern. Bevor es zu einer genaueren Aufzählung der einzelnen Arbeitsstufen kommt, soll an dieser Stelle erwähnt werden, dass die Anordnung der nachfolgend dargestellten Abläufe nicht zwingend gültig sein müssen für alle existierenden Soft- und Hardware-Implementierungen im Bereich der 3D-Graphik. Das dritte Kapitel beginnt, im Unterkapitel 3.1, mit der Erklärung der klassischen Rendering Pipeline, wie sie häufig in der Fachliteratur und in den Dokumentationen von weitverbreiteten Graphikfunktionsbibliotheken wie z.b. Direct3D und OpenGL bezeichnet wird. Unterkapitel 3.3 beschäftigt sich mit dem Szenen-Management. Die klassischen geometrischen Transformationen, sowohl für den zwei- wie auch für den dreidimensionalen Raum, werden in Unterkapitel 3.4 erläutert. Da der Bereich der Rasterung durch die große Anzahl seiner Teilkomponenten äußert komplex ist, werden die einzelnen Effekte, die zum Einsatz kommen können, aber zum Teil nicht zwingend müssen, wiederum in den Unterkapitel 3.5 aufgeteilt. Die letzten beiden Unterkapitel 3.6 und 3.7 beschäftigen sich mit Texture Mapping, und Shading-Prinzipien. Diese Methoden werden eingesetzt, um z.b. ein Muster auf ein dreidimensionales Objekt zu projizieren, bzw. den Lichteinfall auf das Objekt in Form von Glanzpunkten optisch anzudeuten. Somit handelt es sich hierbei um die für den Benutzer am eindeutigsten wahrnehmbaren Methoden, die selbstverständlich auch in diesem Projekt zum Einsatz kommen.

10 Grundlegende 3D Algorithmen Die Rendering Pipeline: Wir können annehmen, dass wir ein dreidimensionales Modell in einer Szenerie platzieren, einen Ansichtspunkt - in der Fachliteratur auch "Viewpoint" genannt dafür wählen, das Modell in seine geometrischen Primitive reduzieren, die Beleuchtungstypen oder Beleuchtungsmodelle, und Materialien wie z.b. Farben, Reflektions- und Refraktionseigenschaften, auswählen [FOLE94]. Diese Informationen reichen aus, um ein Bild zu berechnen. Dies geschieht in der "Rendering Pipeline"[SCHM97], welche diese Beschreibung in Pixel umwandelt. Im folgenden werden die einzelnen Schritte des Schaubildes [Abbildung 1] in kurzen Worten erklärt. Als erstes gehen wir davon aus, dass wir über eine Datenbank, oder eine allgemeine Datenstruktur verfügen, in welcher sich Informationen über Position und Beschaffenheit aller in der Szene vorhandenen Objekte befinden, so dass man schon im Vorfeld bestimmen kann, welche dieser Objekte oder Elemente sichtbar sein werden, oder vom Rendering - Prozess ausgeschlossen werden können. Dieser Teilvorgang wird allgemein als Szenen- oder Szenario-Management, in mancher Fachliteratur auch als Culling bezeichnet, was in diesem Zusammenhang soviel bedeutet wie selektives Pflücken oder Schlachten. Im folgenden werden wir uns jedoch auf den Begriff Szenen-Management beschränken, da der Begriff Culling bei manchen Herstellern von Graphikhardware als werbewirksames Feature herausgestellt wird z.b. das Backface Culling, welches sich aber auf einen Aussortierungsprozess bezieht, der mit dem in diesem Kapitel beschriebenen nichts zu tun hat. Sobald man die darzustellenden Szenen-Elemente herausgesucht hat, müssen deren kleinste Elemente, die Eckpunkte Vertices in der Szene platziert und ausgerichtet werden, wozu diese eine Vielzahl geometrischer Transformationen durchlaufen. Parallel zum Transformationsprozess werden die Eckpunkte auch unter Berücksichtigung der in der Szene vorhandenen Lichtquellen beleuchtet, so dass dadurch ihre Farbeigenschaften verändert werden. Nach der Transformation muss ermittelt werden, ob sich Elemente außerhalb der Sichtpyramide befinden, und Teile davon entsprechend gekappt werden. Da alle Transformations- und Beleuchtungsberechnungen auf die Eckpunkte angewandt wurden, und nicht auf komplette Polygone, müssen die transformierten und beleuchteten Eckpunkte den Polygonen zugewiesen werden, die sie letztendlich darstellen. Um die Szene

11 Grundlegende 3D Algorithmen 11 zeichnen zu können, müssen die Koordinaten aller Objekte in bildschirmgerechte 2D Koordinaten umgewandelt werden. Durchlaufen der Objekt-Datenbank mit allen in der Szenerie befindlichen Objekten Transformation der lokalen Objekt- oder Modellkoordinaten in globale Weltkoordinaten Modell -> Welttransformation Transformation der globalen Weltkoordinaten relativ zum Betrachter. Welt -> Kameratransformation Beleuchtungsberechnung Bestimmung einer Sichtpyramide, perspektivische Skalierung der Szene Perspektivische Projektion Wegschneiden aller Objekte außerhalb der Sichtpyramide Clipping Zuweisung der transformierten und beleuchteten Eckpunkte zu Polygonen Polygon Setup Umwandeln der gesamten 3D Szene in bildschirmgerechten 2D Koordinaten 3D - > 2D Konvertierung Rasterung aller Elemente in den Bildspeicher, mit Hinblick auf Tiefenunterschiede sich überlappender Pixel Z-Buffering, Scanline-Algorithmus Auslesen des Bildspeicherinhalts und Ausgabe über die Videoelektronik auf den Bildschirm Abbildung 1 Anschließend, bei der eigentlichen Rasterung, muss neben der Bestimmung der Bildschirmauflösung auch ermittelt werden, welche Szenenteile sich gegenseitig überlappen, so dass verdeckte Pixel nicht gezeichnet werden. Letztendlich werden alle im

12 Grundlegende 3D Algorithmen 12 Bildschirmspeicher vorhandenen Pixeldaten von der Videoelektronik ausgelesen, und auf dem Bildschirm ausgegeben. 3.2 Elementare Datenstrukturen Um ein genaueres Verständnis zur Begründung der nachfolgenden Algorithmen zu liefern, soll an dieser Stelle der Aufbau der Datenstruktur für eine 3D-Szene als kurzer Überblick anhand des Beispiels der Beschreibungssprache VRML geliefert werden. Ein VRML Dokument der sogenannte Szenengraph besteht aus einer Liste von Strukturen, den Nodes oder Knotenpunkten. Nodes lassen sich prinzipiell in drei Klassen unterteilen, und zwar geometrischen Formen, Aussehen des Objektes und Objektzusammenfassung. Jedes Node hat verschiedene Eigenschaften Properties -, wie z.b. Materialien, Texturen oder Geometriebeschreibungen, welche aus mehreren Argumenten den Fields - bestehen kann. Hierbei hängt die Art der Eigenschaften vom zugehörigen Knotenpunkt ab, so kann sich z.b. die Geometriebeschreibung auf ein geometrisches Primitiv wie Würfel oder Zylinder beziehen, oder auf polygonale oder extrudierte Objekte. Materialbeschreibungen beinhalten Farben und Schattierung. Weiterhin bietet VRML Beleuchtungs-, Texturierungs-, Transformations- und Interaktionsbeschreibungen als Teil der Datenstruktur zur Beschreibung der 3D-Szene an. Die Programmierlogik kann separat als Java, JavaScript oder VRMLscript spezifiziert werden. Aufgrund der hohen Verbreitung der Sprache VRML, lassen sich viele der nachfolgend beschriebenen Prinzipien und Algorithmen in einer für VRML implementierten Form finden. Es soll an dieser Stelle jedoch erwähnt werden, dass während dieser Arbeit keine direkte Programmierung mit VRML stattgefunden hat. 3.3 Szenen Management Bei der computergenerierten Darstellung dreidimensionaler Szenarien, ist es aufgrund des anfallenden hohen Rechenbedarfs und den limitierten Ressourcen von großer Wichtigkeit, tatsächlich nur solche Elemente in den Bearbeitungszyklus mit einzubeziehen, welche am Ende der Rendering Pipeline auch dargestellt werden. Aus diesem Grund werden Objekte innerhalb der Szene mit Hilfe verschiedener, von der Art der Szene abhängiger Algorithmen

13 Grundlegende 3D Algorithmen 13 in Vorfeld heraussortiert. Um einen Überblick aller Objekte zu haben, ist es von Bedeutung, diese in einer Verwaltungsstruktur zu referenzieren, zum Beispiel einer Objektdatenbank. Es gibt zahlreiche Algorithmen, darunter zum Beispiel Binary Space Partitioning [NAYL92], Portals oder Occlusion Trees [GARL97, BITT98], welche im Einsatz bei der 3D Berechnung die Aufgabe haben, zu ermitteln, welche Objekte, oder auch Teile derer im endgültigen Bild sichtbar sind. In letzterem Fall wir das Objekt nicht komplett aus dem Rendering-Vorgang ausgeschlossen, stattdessen wird analysiert, welche Teil-Elemente, in den meisten Fällen Polygongruppen, nachher sichtbar sind. Die Effizienz und die Einsatzrelevanz dieser Algorithmen ist sehr stark von der Beschaffenheit der Szenerie abhängig; so werden Portals häufig für virtuelle Kamerafahrten durch geschlossene Räumlichkeiten eingesetzt, wohingegend Octrees bei der Darstellung offener Landschaften Verwendung finden. Sofern man davon ausgehen kann, dass, wie z.b. in unserem Projekt, sehr wenige Objekte in der Szene vorhanden sind, beziehungsweise die Objekte an sich aus einer geringen Anzahl an Polygonen bestehen, ist es möglich, solche optimierenden Algorithmen außer Acht zu lassen. Sollte jedoch im Laufe des Projektes die Objektkomplexität, oder die Anzahl an Szenenelementen zunehmen, würde durch den steigenden Datenbestand und den dadurch zunehmenden Rechenbedarf die Anforderung an die Hardware steigen. Da in der hier vorliegenden Arbeit in erster Linie von einem fertigen, kommerziellen Programm, PhotoModeler, Gebrauch gemacht wird, lässt sich ohne interne Kenntnisse des Programms keine genaue Aussage darüber treffen, welche der oben genannten Datenstrukturen zum Einsatz kommen. 3.4 Geometrische Transformationen: Geometrische Transformationen [BOEH94] werden für zahlreiche Zwecke in der Computergraphik eingesetzt: 1) Weltkoordinaten nach Bildschirmkoordinaten (Window-to-viewport mapping) Im Computerspeicher besteht ein mathematisches Modell mit sämtlichen Positionskoordinaten aller graphischen Objekte im virtuellen 2D oder 3D Raum[DIRX1]. Diese Koordinaten müssen mit Hilfe der Window-to-Viewport Transformation in ein für das

14 Grundlegende 3D Algorithmen 14 Bildausgabegerät lesbares Format umgewandelt werden, damit die Objekte auf der zweidimensionalen Abbildungsfläche des Bildschirms dargestellt werden können. 2) Konstruieren von Objekt Modellen Die Form, Position und Ausrichtung eines Objektes im virtuellen Raum, wird anhand seiner grundlegenden Eckpunkte festgelegt. Diese Punkte befinden sich in einem bestimmten Abstand zur lokalen Ursprungskoordinate des Objekts. 3) Beschreibung von Bewegungsabläufen von Modellen (zu Animationszwecken) Objektmodelle lassen sich mit Hilfe der grundlegenden Transformationsoperationen (weiter unten als Translation, Skalierung und Rotation näher beschrieben) im Raum bewegen. Dies geschieht, indem man die Objekte über einen Zeitraum hinweg mit sich verändernden Parametern durch Translation, Rotation oder Skalierung bewegt wird. Dadurch entsteht der Effekt einer Animation. 4) Mapping von der 3D auf die 2D Sicht (Projektion) In diesem Arbeitsschritt werden Objekte im Hinblick auf ihre Distanz zum Betrachterauge so skaliert, dass solche Objekte, die sich weiter weg befinden kleiner erscheinen, als solche, welche näher am Betrachter sind. Dadurch wird ein für den Betrachter perspektivisch korrekter Eindruck zu vermitteln versucht. Die grundlegenden Transformationen sind allesamt lineare Transformationen. Die selben Arten Transformationen kommen sowohl bei 2D als auch bei 3D zum Einsatz. Punkte im zweidimensionalen Raum werden als Zeilen-Vektoren dargestellt. Relevant für Graphikberechnungen [HOGG92] sind vier Arten von Transformationen: - Translation - Skalierung - Rotation - perspektivische Projektion 1) Translation kann algebraisch als eine Vektor-Addition beschreiben werden. Es sei gegeben ein Punkt P (x, y) und ein Vektor T (dx, dy), dann ergibt die Translation den Punkt: P' = P+T = (x+dx, y+dy) Gleichung 1

15 Grundlegende 3D Algorithmen 15 Translationsmatrix (Translation um den Vektor T): ' ' ' [ x y z 1] = [ x y z 1] 1 Tx 1 T y 1 T z 1 Gleichung 2 Man kann dabei beobachten, dass, wenn auf jeden Punkt in einem Objekt die Translation um den selben Betrag angewandt wird, das gesamte Objekt um diesen Betrag bewegt wird. In der Tat kann man die Translation auf eine ganze Linie anwenden, indem man sie auf die Endpunkte der Linie ausführt, und anschließend die neu positionierten Endpunkte wieder verbindet. 2) Die Skalierung bedeutet die Vergrößerung und Verkleinerung eines Objekts im Hinblick auf seine x- und y-achse, und seines Ursprungs. Skalierung entlang der x- und y-achse verzerrt die Form eines geometrischen Primitives und verändert zusätzlich noch seine Größe. Die Skalierung wird algebraisch dargestellt als eine skalare Multiplikation. Das Skalieren von P(x, y) um einen Faktor von sx mit Hinblick auf die x-achse ergibt P'(sx x, y). Das Skalieren von P(x, y) um den Faktor sy mit Hinblick auf die y-achse ergibt P'(x, sy y). Diese Operation kann durch eine Matrizen - Multiplikation ausgedrückt werden. Skalierungsmatrix (Skalierung um den Faktor s): ' ' ' [ x y z 1] = [ x y z 1] sx s y s z 1 Gleichung 3 Analog zur Translation kann man eine gesamte Figur skalieren, indem man jeden Punkt innerhalb der Figur separat skaliert. Ebenso kann man eine Linie skalieren, indem man nur die Endpunkte skaliert, und anschließend diese skalierten Punkte wieder verbindet.

16 Grundlegende 3D Algorithmen 16 3) Bei der Rotation wird ein Punkt oder beliebig viele Punkte eines Objekts um einen bestimmten Winkel gedreht. Dabei dient der Ursprungspunkt des Objekts als Rotationsachse. Soll ein Objekt um seine eigene Achse rotiert werden, so muss beachtet werden, dass diese Operation nur im lokalen Objektkoordinatensystem durchgeführt wird. Würde sie hingegen im globalen Weltkoordinatensystem stattfinden, so würde das gesamte Objekt um den globalen Ursprungspunkt gedreht werden. Rotation Matrix um die Achsen x, y und z: [ ] [ ] = 1 cos sin sin cos ' ' ' θ θ θ θ z y x z y x [ ] [ ] = 1 cos sin 1 sin cos 1 1 ' ' ' θ θ θ θ z y x z y x [ ] [ ] = 1 1 cos sin sin cos 1 1 ' ' ' θ θ θ θ z y x z y x Gleichung 4 4) Es stellt sich die Frage, wie nun ein dreidimensionales Objekt auf einem zweidimensionalen Monitor dargestellt wird. Dies geschieht mit Hilfe einer Abbildungsgleichung, welche perspektivische Projektion genannt wird. Die perspektivische Projektion beruht auf der Tatsache, dass weit entfernte Objekte dem Auge kleiner erscheinen. z y Entfernungsfaktor y z x Entfernungsfaktor x = = Gleichung 5

17 Grundlegende 3D Algorithmen 17 Um also unser 3D Objekt auf einem 2D Bildschirm zu projizieren, müssen die x- und y- Komponenten entsprechend der z-komponente skaliert werden. Demzufolge werden die Punkte, welche einen größeren z-wert haben für den Betrachter als weiter entfernt erscheinen. Außerdem muss um einen Entfernungsfaktor multipliziert werden, um das Objekt in den sichtbaren Bereich zu skalieren. 3.5 Rasterung Der Schritt "Rasterung" besteht aus dem Berechnen von Farbwerten an jeder Pixelposition innerhalb jedes graphischen primitiven Elements. Diese Werte sind auch abhängig von solchen Faktoren wie verdeckten Linien, Transparenzberechnungen und Anti-Aliasing (Kanten Glättung). Zum jetzigen Zeitpunkt hat jeder Pixel eine x/y Koordinate, eine Farbe und Tiefenwert. Es folgt eine Beschreibung der einzelnen Schritte dieses Schaubildes, welche den Rasterungsprozess [OPGL3] genauer verdeutlichen Überprüfung des Rendering Kontext Je nach Grafikbibliothek, welche beim Programmieren einer 3D-Applikation zum Einsatz kommt, kann es notwendig sein, dass man den gesamten Pixelbestand einem Kontext zuordnet, so dass die Grafikbibliothek erkennt, dass ihr ein bestimmtes Pixel auf dem Bildschirm zugeordnet ist, und dieses somit manipulieren darf. Eine Art der Zuweisung kann zum Beispiel ein Fenster sein, auf welches die Grafikbibliothek alleinigen Zugriff hat. Alle Pixel außerhalb dieses Fensters werden somit im Vorfeld vom Bearbeitungsablauf ausgeschlossen, und werden von den Operationen der Grafikbibliothek nicht betroffen. Es wird also ein Arbeitsbereich geschaffen, auf welchem nun Polygone, welche in den zweidimensionalen Bildschirmraum transformiert wurden letztendlich als Pixel gezeichnet werden.

18 Grundlegende 3D Algorithmen 18 Überprüfung der Pixeldaten auf Renderingkontext Polygondaten im 2D Bildschirmraum Tiefenvergleich anhand von Algorithmen wie Z-Buffer oder Painter-Algorithmus Kappung am Bildschirmrand und Transparenztest Schattierungsberechnung Flat Shading, Gouraud- Shading, Phong Shading Hinzufügen von Texturen (optional) Hinzufügen von Nebel (optional) Endgültiges Schreiben der modifizierten Pixeldaten in den Bildspeicher Abbildung Tiefen Pufferung Um Pixel oder andere Bildelemente wie ganze Polygone, welche im endgültigen Bild nicht sichtbar sein werden, nicht zeichnen und überzeichnen zu müssen, wird eine Methode benötigt, die verhindert, dass verdeckte Bildelemente überhaupt in den Bildspeicher gelangen. Ein Pixel wird nicht in den Bildspeicher, auch Framebuffer genannt, geschrieben, wenn es von einem anderen Pixel bereits überdeckt wird. Das bedeutet, wenn ein vorangehendes Pixel einen Z-Wert hat, welcher sich näher beim Betrachter befindet, so wird das nachfolgende Pixel mit einem Z-Wert weiter weg vom Betrachter nicht in den Bildspeicher geschrieben. Alternativ zum Z-Buffer Test, werden manchmal auch Verfahren wie W-Buffering und Painter Algorithmus eingesetzt. Diese Methoden zur Tiefenbestimmung von Pixels oder ganzen Polygonen sind aber nicht so weit verbreitet wie das Z-Buffering und sollen deswegen hier auch nur kurz angeschnitten werden [WATT9].

19 Grundlegende 3D Algorithmen 19 Beim W-Buffering wird statt der Z-Koordinate eines Pixels die homogene W-Koordinate zum Tiefenvergleich herangezogen. Der Grund dafür ist, dass generell bei Z-Werten mit niedriger Präzision, z.b. 16 Bit um Speicherplatz zu sparen, bei wachsender Entfernung zum Betrachter/Kamera die Genauigkeit abnimmt. Um eine anschaulichere Vorstellung davon zu geben kann man sagen, dass 9 Prozent der Genauigkeit des Z-Buffers auf den ersten 1 Prozent des Weges vom Betrachter weg liegen. So lässt sich unter Einsatz eines ungenauen Z-Buffers beim Betrachten einer 3D Szene beobachten, wie die Flächen weit entfernter Objekte aufflackern, da der Z-Buffer nicht in der Lage ist zu unterscheiden, welches Pixel das andere überdeckt. Setzt man jedoch präzisere Z- Buffer ein, solche mit einer Genauigkeit von 24 oder 32 Bit, so schwindet der Vorteil des W- Bufferings schnell. Der Painter-Algorithmus hingegen arbeitet nicht direkt mit Pixels, sondern sortiert komplette Polygone nach ihrer Entfernung vom Betrachter. Wenn sich dabei zwei oder mehrere Polygone schneiden, so dass man nicht konkret sagen kann dass ein Polygon das andere komplett verdeckt, so werden diese an den Schnittkanten erneut in neue, kleinere Polygone aufgeteilt. Dieses Verfahren stammt jedoch aus einer Zeit, als die Rasterung auf schwächeren Systemen ausschließlich in Software, also nur durch die CPU berechnet wurden, es also noch keine dedizierte Grafikhardware mit Z-Buffer gab Kappung am Bildschirmrand und Transparenztest Da der Bildschirmspeicher Framebuffer logisch als lineare Struktur angesehen werden kann, müssen Elemente, die visuell nicht komplett auf dem Bilderschirm, oder in einem Fenster eines Renderingkontextes sichtbar sind, an den Rändern eines vorgegebenen Kappungsrechtecks, auch Clipping-Rectangle genannt, abgeschnitten werden. Würde man dies nicht tun, so würden die nicht dargestellten Abschnitte eines Polygons aufgrund des erwähnten linearen Bildspeichers in die nächste Bildschirmzeile rutschen. Häufig werden die Dimensionen des Kappungsrechtecks der Größe des gesamten Bildschirms oder des einzelnen Fensters gleichgesetzt.

20 Grundlegende 3D Algorithmen 2 Jedes Pixel besitzt die Eigenschaften Position in Form von x- und y-koordinaten, einen Tiefenwert z, Farbe in Form von RGB Werten, und zusätzlich noch einen Opazitätswert, welcher angibt, in welchem Maße ein Pixel durchsichtig ist. Dies bedeutet, dass bei einem zu 5% durchsichtigem Pixel die Farbe des Hintergrundes oder eines dahinterliegendem Pixel mit der Farbe des transparenten Pixels vermischt wird. Beim Transparenztest auch Alphatest genannt - wird jedes Pixel anhand seines Opazitätswertes mit einer globalen Konstante verglichen, und entsprechend einer zu erfüllenden Bedingung, z.b. niemals, immer, kleiner als oder größer als weggelassen oder nicht Transparenz Wenn ein Element transparent ist, kann es sein, dass ein Pixel ausgelassen wird, selbst wenn es sich vorne befindet. Heutzutage werden auf modernen graphischen Systemen die Farbwerte von übereinanderliegenden, transparenten Pixels mittels "Blending" ermittelt. Das Alpha Blending ist die herkömmlichste heutzutage eingesetzte Technologie, welche eingesetzt wird um Transparenzeffekte nachzubilden, wie sie z.b. bei Objekten wie Glas, Nebel oder Wasser vorkommen, oder um eine Textur oberhalb einer anderen abzubilden, ohne diese komplett zu verdecken. Genauer gesagt kann man das Alpha Blending dazu nutzen, eine Textur mit einem bereits in den Bildspeicher geschriebenem Bild zu vermischen. Hierbei wird jedem Pixel innerhalb einer Textur neben den Farbwerten für rot, grün und blau ein zusätzlicher Alpha Wert zugewiesen, welcher den Grad der Transparenz angibt. Diese Alpha Werte werden dann eingesetzt um auf einer pro-pixel Basis die Farbwerte zweier Texturen, bzw. einer Textur und einem im Bildspeicher vorhandenen Bild zu vermischen, indem die gewogenen arithmetischen Mittelwerte der Farben beider Bilder oder Texturen berechnet werden Nebel und Depth Cueing Nebel ist ein Spezialeffekt in der Computergrafik, der für zusätzlichen Realismus in dreidimensionalen Bildern sorgt. Der Nebel fügt einer auf einem zweidimensionalen Bildausgabegerät abgebildeten dreidimensionalen Szene einen Tiefeneffekt hinzu. In der Computergrafik wird der Nebeleffekt auch als Fogging bezeichnet. Der Nebeleffekt wird erreicht, indem die Farbe der darzustellenden Elemente in Abhängigkeit von ihren

:= Modellabbildung. Bildsynthese (Rendering) Bildsynthese

:= Modellabbildung. Bildsynthese (Rendering) Bildsynthese Geometrisches Modell bestehend aus Datenstrukturen zur Verknüpfung geometrischer Primitive, welche eine Gesamtszene beschreiben Bildsynthese := Modellabbildung Pixelbasiertes Modell zur Darstellung eines

Mehr

"rendern" = ein abstraktes geometrisches Modell sichtbar machen

rendern = ein abstraktes geometrisches Modell sichtbar machen 3. Grundlagen des Rendering "rendern" = ein abstraktes geometrisches Modell sichtbar machen Mehrere Schritte: Sichtbarkeitsberechnung Beleuchtungsrechnung Projektion Clipping (Abschneiden am Bildrand)

Mehr

Workshop: Einführung in die 3D-Computergrafik. Julia Tolksdorf Thies Pfeiffer Christian Fröhlich Nikita Mattar

Workshop: Einführung in die 3D-Computergrafik. Julia Tolksdorf Thies Pfeiffer Christian Fröhlich Nikita Mattar Workshop: Einführung in die 3D-Computergrafik Julia Tolksdorf Thies Pfeiffer Christian Fröhlich Nikita Mattar 1 Organisatorisches Tagesablauf: Vormittags: Theoretische Grundlagen Nachmittags: Bearbeitung

Mehr

1. Sichtbarkeitsproblem beim Rendern einer dreidimensionalen Szene auf einer zweidimensionalen

1. Sichtbarkeitsproblem beim Rendern einer dreidimensionalen Szene auf einer zweidimensionalen 3D-Rendering Ulf Döring, Markus Färber 07.03.2011 1. Sichtbarkeitsproblem beim Rendern einer dreidimensionalen Szene auf einer zweidimensionalen Anzeigefläche (a) Worin besteht das Sichtbarkeitsproblem?

Mehr

Photonik Technische Nutzung von Licht

Photonik Technische Nutzung von Licht Photonik Technische Nutzung von Licht Raytracing und Computergraphik Überblick Raytracing Typen von Raytracern z-buffer Raytracing Lichtstrahlen-Verfolgung (engl. ray tracing): Berechnung von Lichtstrahlen

Mehr

Erinnerung. Arbeitsschritte der Computergraphik. Modellierung. Animation. Rendering. Ausgabemedium. Generierung

Erinnerung. Arbeitsschritte der Computergraphik. Modellierung. Animation. Rendering. Ausgabemedium. Generierung Erinnerung Arbeitsschritte der Computergraphik Modellierung Animation Generierung Ausgabemedium Graphik/-Pipeline Wandelt die Beschreibung einer Szene im dreidimensionalen Raum in eine zweidimensionale

Mehr

Rendering: Lighting & Shading

Rendering: Lighting & Shading Hauptseminar How to make a Pixar Movie WS 2010 / 2011 Rendering: Lighting & Shading von Manuel Schmidt Gliederung: 1 Einführung 1.1 Rendering 1.2 Reflektionsmodelle 1.2.1. Diffuse Reflektion 1.2.2. Spieglende

Mehr

Non-Photorealistic Rendering

Non-Photorealistic Rendering Übersicht 1. Motivation und Anwendungen 2. Techniken - Cel Shading - Konturlinien - Hatching Einführung Traditionelle Computergraphik Ziel: Fotorealismus Einführung Motivation Bewusste Vermeidung von

Mehr

Kapitel 0. Einführung. 0.1 Was ist Computergrafik? 0.2 Anwendungsgebiete

Kapitel 0. Einführung. 0.1 Was ist Computergrafik? 0.2 Anwendungsgebiete Kapitel 0 Einführung 0.1 Was ist Computergrafik? Software, die einen Computer dazu bringt, eine grafische Ausgabe (oder kurz gesagt: Bilder) zu produzieren. Bilder können sein: Fotos, Schaltpläne, Veranschaulichung

Mehr

Graphische Datenverarbeitung und Bildverarbeitung

Graphische Datenverarbeitung und Bildverarbeitung Graphische Datenverarbeitung und Bildverarbeitung Hochschule Niederrhein Shading-Verfahren Graphische DV und BV, Regina Pohle, 22. Shading-Verfahren Einordnung in die Inhalte der Vorlesung Einführung mathematische

Mehr

NX für die digitale Produktentwicklung:

NX für die digitale Produktentwicklung: StS.fact sheet NX Virtual Studio NX für die digitale Produktentwicklung: Als vollständige Lösung für die digitale Produktentwicklung bietet die NX Software integrierte und technologisch führende Funktionen

Mehr

Überblick Echtzeit-Rendering. Uwe Domaratius dou@hrz.tu-chemnitz.de

Überblick Echtzeit-Rendering. Uwe Domaratius dou@hrz.tu-chemnitz.de Überblick Echtzeit-Rendering Uwe Domaratius dou@hrz.tu-chemnitz.de Gliederung 1. Einleitung 2. geometriebasierende Verbesserungen 3. Level-of-Detail 4. Culling 5. Texturen 6. bildbasiertes Rendering Was

Mehr

Universität Augsburg. 20. April 2012. B. Möller (U. Augsburg) Computergraphik SS12 20. April 2012 1 / 6

Universität Augsburg. 20. April 2012. B. Möller (U. Augsburg) Computergraphik SS12 20. April 2012 1 / 6 Kapitel 1 Einführung B. Möller Universität Augsburg 20. April 2012 B. Möller (U. Augsburg) Computergraphik SS12 20. April 2012 1 / 6 Begriffsdefinition Computergrafik: realistische Darstellung realer oder

Mehr

19.09.2014. 2D-Texturen. Reflectance Mapping 3D-Texturen. Farbtexturen

19.09.2014. 2D-Texturen. Reflectance Mapping 3D-Texturen. Farbtexturen 2D-Texturen Texturarten Transformationen Generierung Thomas Jung Reflectance Mapping 3D-Texturen Modellierung von Details erfordert Zeit Darstellung ist aufwendig (langsam) Details belegen Speicherplatz

Mehr

3D rendering. Introduction and interesting algorithms. PHP Usergroup Dortmund, Dortmund, 2006-12-14. Kore Nordmann

3D rendering. Introduction and interesting algorithms. PHP Usergroup Dortmund, Dortmund, 2006-12-14. Kore Nordmann <kore@php.net> 3D rendering Introduction and interesting algorithms PHP Usergroup Dortmund, Dortmund, 2006-12-14 Kore Nordmann Speaker Kore Nordmann Studies computer science at the University Dortmund

Mehr

Graphische Datenverarbeitung und Bildverarbeitung

Graphische Datenverarbeitung und Bildverarbeitung Graphische Datenverarbeitung und Bildverarbeitung Hochschule Niederrhein Clippen in 2D und 3D Graphische DV und BV, Regina Pohle, 19. Clippen in 2D und 3D 1 Einordnung in die Inhalte der Vorlesung Einführung

Mehr

(7) Normal Mapping. Vorlesung Computergraphik II S. Müller. Dank an Stefan Rilling U N I V E R S I T Ä T KOBLENZ LANDAU

(7) Normal Mapping. Vorlesung Computergraphik II S. Müller. Dank an Stefan Rilling U N I V E R S I T Ä T KOBLENZ LANDAU (7) Normal Mapping Vorlesung Computergraphik II S. Müller Dank an Stefan Rilling Einleitung Die Welt ist voller Details Viele Details treten in Form von Oberflächendetails auf S. Müller - 3 - Darstellung

Mehr

Raytracing. Schlussbericht. Jonas Lauener 1995, Áedán Christie 1997 Melvin Ott 1997, Timon Stampfli 1997

Raytracing. Schlussbericht. Jonas Lauener 1995, Áedán Christie 1997 Melvin Ott 1997, Timon Stampfli 1997 Raytracing Schlussbericht Jonas Lauener 1995, Áedán Christie 1997 Melvin Ott 1997, Timon Stampfli 1997 bei Betreuer Marco Manzi, Institut für Informatik und angewandte Mathematik Inhalt Fragestellung...

Mehr

Probelektion zum Thema. Shadow Rendering. Shadow Maps Shadow Filtering

Probelektion zum Thema. Shadow Rendering. Shadow Maps Shadow Filtering Probelektion zum Thema Shadow Rendering Shadow Maps Shadow Filtering Renderman, 2006 CityEngine 2011 Viewport Real reconstruction in Windisch, 2013 Schatten bringen viel Realismus in eine Szene Schatten

Mehr

Computergraphik Grundlagen

Computergraphik Grundlagen Computergraphik Grundlagen V. Die Rendering-Pipeline Prof. Stefan Schlechtweg Hochschule Anhalt Fachbereich Informatik Inhalt Lernziele 1. Der Begriff Rendering 2. Die Rendering-Pipeline Geometrische Modellierung

Mehr

Zwischenvortrag zum Entwicklungsstand der Bachelor-Arbeit. Direct 3D-Output für ein Rendering Framework

Zwischenvortrag zum Entwicklungsstand der Bachelor-Arbeit. Direct 3D-Output für ein Rendering Framework Zwischenvortrag zum Entwicklungsstand der Bachelor-Arbeit Direct 3D-Output für ein Rendering Framework von Benjamin Betting unter der Betreuung von Daniel Schiffner 1 Gliederung Kapitel I und II: Motivation,Einführung,Grundlagen

Mehr

Pixel oder Vektor? Die Vor- und Nachteile der verschiedenen Dateiformate. Langner Marketing Unternehmensplanung Metzgerstraße 59 72764 Reutlingen

Pixel oder Vektor? Die Vor- und Nachteile der verschiedenen Dateiformate. Langner Marketing Unternehmensplanung Metzgerstraße 59 72764 Reutlingen Die Vor- und Nachteile der verschiedenen Dateiformate Stand April 2016 Langner Marketing Unternehmensplanung Metzgerstraße 59 72764 Reutlingen T 0 71 21 / 2 03 89-0 F 0 71 21 / 2 03 89-20 www.langner-beratung.de

Mehr

2.2 Projektionen und Kameramodelle

2.2 Projektionen und Kameramodelle Graphikprog. GRUNDLEGENDE VERFAHREN UND TECHNIKEN. Projektionen und Kameramodelle Nachdem alle Objekte einer Szenerie mittels der besprochenen Transformationen im D-Weltkoordinatensystem platziert sind,

Mehr

Linear Workflow. Linear Workflow. Version 1.0-2011-10-11

Linear Workflow. Linear Workflow. Version 1.0-2011-10-11 Version 1.0-2011-10-11 Verfahren, Bilder unter Rücksichtnahme ihres Farbprofils und der des Ausgabegeräts zu berechnen (3D), bzw. zu bearbeiten (Compositing), um eine mathematisch und physikalisch korrekte

Mehr

Computer Graphik. Mitschrift von www.kuertz.name

Computer Graphik. Mitschrift von www.kuertz.name Computer Graphik Mitschrift von www.kuertz.name Hinweis: Dies ist kein offizielles Script, sondern nur eine private Mitschrift. Die Mitschriften sind teweilse unvollständig, falsch oder inaktuell, da sie

Mehr

Lokale Beleuchtungsmodelle

Lokale Beleuchtungsmodelle Lokale Beleuchtungsmodelle Oliver Deussen Lokale Modelle 1 Farbschattierung der Oberflächen abhängig von: Position, Orientierung und Charakteristik der Oberfläche Lichtquelle Vorgehensweise: 1. Modell

Mehr

4. Kapitel 3D Engine Geometry

4. Kapitel 3D Engine Geometry 15.11.2007 Mathematics for 3D Game Programming & Computer Graphics 4. Kapitel 3D Engine Geometry Anne Adams & Katharina Schmitt Universität Trier Fachbereich IV Proseminar Numerik Wintersemester 2007/08

Mehr

Szenengraph-Architekturen im Kontext von VR- und AR-Anwendungen

Szenengraph-Architekturen im Kontext von VR- und AR-Anwendungen Szenengraph-Architekturen - 1 Szenengraph-Architekturen im Kontext von VR- und AR-Anwendungen Hauptseminar Medieninformatik Christina Eicher 10. Mai 2004 Inhalt Szenengraph-Architekturen - 2 Teil 1: Szenengraphen

Mehr

Visualisierung mit TurboCAD

Visualisierung mit TurboCAD Frank Sattler Visualisierung mit TurboCAD ab Version 10 Professional Erste Schritte / Überblick Inhalt Kriterien für Visualisierung Anforderungen an die 3D-Modellierung Eigenschaften der 3D-Objekte Gegenüberstellung

Mehr

Parallele und funktionale Programmierung Wintersemester 2013/14. 8. Übung Abgabe bis 20.12.2013, 16:00 Uhr

Parallele und funktionale Programmierung Wintersemester 2013/14. 8. Übung Abgabe bis 20.12.2013, 16:00 Uhr 8. Übung Abgabe bis 20.12.2013, 16:00 Uhr Aufgabe 8.1: Zeigerverdopplung Ermitteln Sie an folgendem Beispiel den Rang für jedes Listenelement sequentiell und mit dem in der Vorlesung vorgestellten parallelen

Mehr

computer graphics & visualization

computer graphics & visualization Entwicklung und Implementierung echtzeitfähiger Verfahren zur Darstellung von reflektierenden Objekten auf GPUs echtzeitfähiger Verfahren zur Darstellung von reflektierenden Objekten auf GPUs Motivation

Mehr

2D-Transformationen. Kapitel 6. 6.1 Translation. 6.2 Skalierung

2D-Transformationen. Kapitel 6. 6.1 Translation. 6.2 Skalierung Kapitel 6 2D-Transformationen Mit Hilfe von Transformationen ist es möglich, die Position, die Orientierung, die Form und die Größe der grafischen Objekte zu manipulieren. Transformationen eines Objekts

Mehr

Grundlagen der Computer-Tomographie

Grundlagen der Computer-Tomographie Grundlagen der Computer-Tomographie Quellenangabe Die folgenden Folien sind zum Teil dem Übersichtsvortrag: imbie.meb.uni-bonn.de/epileptologie/staff/lehnertz/ct1.pdf entnommen. Als Quelle für die mathematischen

Mehr

6.2 Scan-Konvertierung (Scan Conversion)

6.2 Scan-Konvertierung (Scan Conversion) 6.2 Scan-Konvertierung (Scan Conversion) Scan-Konvertierung ist die Rasterung von einfachen Objekten (Geraden, Kreisen, Kurven). Als Ausgabemedium dient meist der Bildschirm, der aus einem Pixelraster

Mehr

Prüfungsprotokoll Computergrafik 1 und 2 (1692 & 1693) Prüfer: M. Felten von: Lindig Florian. Dauer: 30 min jeweils. Note: 1.

Prüfungsprotokoll Computergrafik 1 und 2 (1692 & 1693) Prüfer: M. Felten von: Lindig Florian. Dauer: 30 min jeweils. Note: 1. Prüfungsprotokoll Computergrafik 1 und 2 (1692 & 1693) Prüfer: M. Felten von: Lindig Florian Dauer: 30 min jeweils Note: 1.0 jeweils Alles in allem eine lockere Atmosphäre, man bekommt genug Papier und

Mehr

NÜTZLICHE TIPPS FÜR OPTIMALE SCANS

NÜTZLICHE TIPPS FÜR OPTIMALE SCANS Bedingungen, um gute Scans zu erhalten Die Faktoren, von denen das Ergebnis eines Scans abhängt, sind einerseits die Umgebung sowie die Konfiguration und Kalibrierung des Scanners, aber auch das zu scannende

Mehr

Bildtransformationen. Geometrische Transformationen Grauwert-Interpolation

Bildtransformationen. Geometrische Transformationen Grauwert-Interpolation Bildtransformationen Geometrische Transformationen Grauwert-Interpolation Transformation Transformation zwei Schritte geometrische Transformation (Trafo der Koordinaten) Neuberechnung der Pielwerte an

Mehr

Inhalt. Seite 4... Am Anfang: Fotos, Fotos, Fotos-Referenzmaterial. Seite 4... Modellieren, texturieren und beleuchten

Inhalt. Seite 4... Am Anfang: Fotos, Fotos, Fotos-Referenzmaterial. Seite 4... Modellieren, texturieren und beleuchten Inhalt Seite 3... Die Idee Seite 4... Am Anfang: Fotos, Fotos, Fotos-Referenzmaterial Seite 4... Modellieren, texturieren und beleuchten Seite 7... Renderelemente: Wie die Bilder aufgebaut sind Seite 9...

Mehr

3D-Computergrafik und animation. Shading und globale Beleuchtungsverfahren, Animationstechniken

3D-Computergrafik und animation. Shading und globale Beleuchtungsverfahren, Animationstechniken 3D-Computergrafik und animation Shading und globale Beleuchtungsverfahren, Animationstechniken 1 Von 2D nach 3D Weiter: Modell für eine Sichtbeschreibung 2 Kameramodell Reale Kamera als Orientierung und

Mehr

Numerisches Programmieren

Numerisches Programmieren Technische Universität München WS /3 Institut für Informatik Prof Dr Hans-Joachim Bungartz Dipl-Inf Christoph Riesinger Dipl-Inf Dipl-Math Jürgen Bräckle Numerisches Programmieren Programmieraufgabe: Polnominterpolation,

Mehr

Digitale Bilddateien

Digitale Bilddateien ARBEITSBLATT 1 Digitale Bilddateien Gängige Bildformate und deren Speicherbedarf Unkomprimierte Bilddateien Öffnen Sie in Photopaint die Datei beauty.tga! Beauty.tga ein virtueller Männertraum, generiert

Mehr

Bilddateien. Für die Speicherung von Bilddaten existieren zwei grundsätzlich unterschiedliche Verfahren. Bilder können als

Bilddateien. Für die Speicherung von Bilddaten existieren zwei grundsätzlich unterschiedliche Verfahren. Bilder können als Computerdateien Alle Dateien auf dem Computer, egal ob nun Zeichen (Text), Bilder, Töne, Filme etc abgespeichert wurden, enthalten nur eine Folge von Binärdaten, also Nullen und Einsen. Damit die eigentliche

Mehr

Teil III. Grundlagen der Computergrafik

Teil III. Grundlagen der Computergrafik Teil III Grundlagen der Computergrafik Überblick 1 2 Geometrische Modellierung 3 Bildsynthese 4 Grafikprogrammierung Eike Schallehn Grundlagen der Informatik für Ingenieure Wintersemester 08/09 3 1 Begriff:

Mehr

Modellierungsmethoden

Modellierungsmethoden Modellierungsmethoden Definition (smethoden) smethoden fassen verschiedene Beschreibungsmittel, insbesondere Datenstrukturen und Operationen, für geometrische Objekte zusammen. Äquivalente Begriffe: Geometrische

Mehr

3 GRAFIKEN, BILDER, ZEICHNUNGSOBJEKTE

3 GRAFIKEN, BILDER, ZEICHNUNGSOBJEKTE 3 GRAFIKEN, BILDER, ZEICHNUNGSOBJEKTE Grafiken, Bilder und Zeichnungsobjekte können in einer Präsentation mehrere Funktionen haben: Sie können eine Präsentation anschaulicher machen, können das Vorgeführte

Mehr

Teil 1: Modellierung. Einleitung. 3D Szene Inhalt. Objekte und ihre Beschreibung

Teil 1: Modellierung. Einleitung. 3D Szene Inhalt. Objekte und ihre Beschreibung Objekte und ihre Beschreibung Einleitung Computergraphik: 3D sehr wichtig photo-realistic rendering Computer-Animation, Modellierung Visualisierung, Virtual Reality Ansatz: per rendering wird eine 3D-Szene

Mehr

Texture Based Direct Volume Rendering

Texture Based Direct Volume Rendering Texture Based Direct Volume Rendering Vorlesung: "Advanced Topics in Computer Graphics" cbrak@upb.de 1 Agenda 1. Einleitung Volume Rendering 1.1. Volumendatensatz 1.2. Volumenintegral 1.3. Image order

Mehr

Photorealistische Echtzeit-Visualisierung geovirtueller Umgebungen

Photorealistische Echtzeit-Visualisierung geovirtueller Umgebungen Photorealistische Echtzeit-Visualisierung geovirtueller Umgebungen Anselm Kegel Hasso-Plattner-Institut Fachgebiet Computergrafische Systeme Prof. Dr. Jürgen Döllner Universität Potsdam www.hpi.uni-potsdam.de/3d

Mehr

Grumman F-14 Tomcat. ein 3D-Model erstellt in Autodesk Maya 2008

Grumman F-14 Tomcat. ein 3D-Model erstellt in Autodesk Maya 2008 Grumman F-14 Tomcat ein 3D-Model erstellt in Autodesk Maya 2008 Friedrich Maiwald s0518155 friedrich.maiwald @ fhtw-berlin.de http://www.friedrichmaiwald.de/tomcat/ Internationaler Studiengang Medieninformatik

Mehr

Computer Graphik (CS231) - Installation der Software

Computer Graphik (CS231) - Installation der Software UNIVERSITÄT BASEL Prof. Dr. Thomas Vetter Departement Mathematik und Informatik Spiegelgasse 1 CH 4051 Basel Tobias Maier (tobias.maier@unibas.ch) Jasenko Zivanov (jasenko.zivanov@unibas.ch) Marc Schmidlin

Mehr

Lineare Gleichungssysteme

Lineare Gleichungssysteme Brückenkurs Mathematik TU Dresden 2015 Lineare Gleichungssysteme Schwerpunkte: Modellbildung geometrische Interpretation Lösungsmethoden Prof. Dr. F. Schuricht TU Dresden, Fachbereich Mathematik auf der

Mehr

Softwareprojekt Spieleentwicklung

Softwareprojekt Spieleentwicklung Softwareprojekt Spieleentwicklung Prototyp I (2D) Prototyp II (3D) Softwareprojekt 12.04. 19.04. 26.04. 03.05. 31.05. Meilenstein I 28.06. Meilenstein II Prof. Holger Theisel, Tobias Günther, OvGU Magdeburg

Mehr

Heute. Motivation. Diskretisierung. Medizinische Bildverarbeitung. Volumenrepräsentationen. Volumenrepräsentationen. Thomas Jung

Heute. Motivation. Diskretisierung. Medizinische Bildverarbeitung. Volumenrepräsentationen. Volumenrepräsentationen. Thomas Jung t.jung@fhtw-berlin.de Heute Volumenrepräsentationen Thomas Jung Generierung von Volumenrepräsentationen Rendering von Volumenrepräsentationen Konvertierung in Oberflächenrepräsentationen Weitere Geometrische

Mehr

Inhaltsverzeichnis - Themen

Inhaltsverzeichnis - Themen Inhaltsverzeichnis - Themen 1 Hardwaregrundlagen 2 Transformationen und Projektionen 3 Repräsentation und Modellierung von Objekten 4 Visibilität und Verdeckung 5 Rasterung 6 Rendering 7 Abbildungsverfahren

Mehr

Einsatz der Mehrkörpersimulation in Verbindung mit Computertomographie in der Produktentwicklung

Einsatz der Mehrkörpersimulation in Verbindung mit Computertomographie in der Produktentwicklung Einsatz der Mehrkörpersimulation in Verbindung mit Computertomographie in der Produktentwicklung Hintergrund Bei komplexen Baugruppen ergeben sich sehr hohe Anforderungen an die Tolerierung der einzelnen

Mehr

u + v = v + u. u + (v + w) = (u + v) + w. 0 V + v = v + 0 V = v v + u = u + v = 0 V. t (u + v) = t u + t v, (t + s) u = t u + s u.

u + v = v + u. u + (v + w) = (u + v) + w. 0 V + v = v + 0 V = v v + u = u + v = 0 V. t (u + v) = t u + t v, (t + s) u = t u + s u. Universität Stuttgart Fachbereich Mathematik Prof. Dr. C. Hesse PD Dr. P. H. Lesky Dipl. Math. D. Zimmermann Msc. J. Köllner FAQ 3 Höhere Mathematik I 4..03 el, kyb, mecha, phys Vektorräume Vektorräume

Mehr

Die Dreipunkt- Beleuchtung

Die Dreipunkt- Beleuchtung Die Dreipunkt- Beleuchtung Die Dreipunkt- Beleuchtung ist eine der Standard -Methoden bei der Ausleuchtung in der Materie Film und Foto und wurde auch für die Ausleuchtung im Bereich der Computer-generierten

Mehr

Computergrafik 2010 Oliver Vornberger. Kapitel 18: Beleuchtung

Computergrafik 2010 Oliver Vornberger. Kapitel 18: Beleuchtung Computergrafik 2010 Oliver Vornberger Kapitel 18: Beleuchtung 1 Ausgangslage am Ende der Viewing Pipeline liegt vor: P A Materialeigenschaften P B P C 2 Beleuchtungmodelle lokal: Objekt, Lichtquellen,

Mehr

Computer Vision I. Nikos Canterakis. Lehrstuhl für Mustererkennung, Universität Freiburg

Computer Vision I. Nikos Canterakis. Lehrstuhl für Mustererkennung, Universität Freiburg Nikos Canterakis Lehrstuhl für Mustererkennung, Universität Freiburg Gliederung 6 Endliche Kameras Die Lochkamera Die Projektive Kamera Die projektive Kamera Spalten von P Zeilen von P Hauptpunkt und Hauptachse

Mehr

5 Eigenwerte und die Jordansche Normalform

5 Eigenwerte und die Jordansche Normalform Mathematik für Physiker II, SS Mittwoch 8.6 $Id: jordan.tex,v.6 /6/7 8:5:3 hk Exp hk $ 5 Eigenwerte und die Jordansche Normalform 5.4 Die Jordansche Normalform Wir hatten bereits erwähnt, dass eine n n

Mehr

Wie erstellt man dynamische Elemente mit JSXGraph?

Wie erstellt man dynamische Elemente mit JSXGraph? Wie erstellt man dynamische Elemente mit JSXGraph? 1. Kurzinformation zu JSXGraph Was ist JSXGraph? Eine freie dynamische Mathematiksoftware, die vollständig in Javascript programmiert ist. Daher benötigt

Mehr

Lineare Funktionen. 1 Proportionale Funktionen 3 1.1 Definition... 3 1.2 Eigenschaften... 3. 2 Steigungsdreieck 3

Lineare Funktionen. 1 Proportionale Funktionen 3 1.1 Definition... 3 1.2 Eigenschaften... 3. 2 Steigungsdreieck 3 Lineare Funktionen Inhaltsverzeichnis 1 Proportionale Funktionen 3 1.1 Definition............................... 3 1.2 Eigenschaften............................. 3 2 Steigungsdreieck 3 3 Lineare Funktionen

Mehr

Färben, texturieren und rendern in Solid Edge

Färben, texturieren und rendern in Solid Edge Färben, texturieren und rendern in Solid Edge Man kann den Objekten in Solid Edge Farben geben, transparent oder opak und Texturen. Das sind Bilder die auf die Oberflächen aufgelegt werden. Dabei bekommt

Mehr

Grafikformate. Grafikformate. Digitale Bildverarbeitung Bildkompression

Grafikformate. Grafikformate. Digitale Bildverarbeitung Bildkompression Digitale Bildverarbeitung Bildkompression Einleitung Datenmenge für ein unkomprimiertes Bild Verwendungszweck des Bildes Bild soll weiterverarbeitet werden Bild soll archiviert werden Bild soll per E-Mail

Mehr

Seminar Game Development Game Computer Graphics. Einleitung

Seminar Game Development Game Computer Graphics. Einleitung Einleitung Gliederung OpenGL Realismus Material Beleuchtung Schatten Echtzeit Daten verringern Grafik Hardware Beispiel CryEngine 2 Kristian Keßler OpenGL Was ist OpenGL? Grafik API plattform- und programmiersprachenunabhängig

Mehr

32. Algorithmus der Woche Kreise zeichnen mit Turbo Programmoptimierung: Wie kann man die Zahl der Rechenoperationen minimieren?

32. Algorithmus der Woche Kreise zeichnen mit Turbo Programmoptimierung: Wie kann man die Zahl der Rechenoperationen minimieren? 32. Algorithmus der Woche Kreise zeichnen mit Turbo Programmoptimierung: Wie kann man die Zahl der Rechenoperationen minimieren? Autor Leif Kobbelt, RWTH Aachen Dominik Sibbing, RWTH Aachen Hast Du schon

Mehr

Animation der Montage von CATIA-Bauteilen

Animation der Montage von CATIA-Bauteilen Animation der Montage von CATIA-Bauteilen KONZEPTION UND PROTOTYP PRÄSENTATION ZUM PRAXISPROJEKT SS 2007 VON TIM HERMANN BETREUER: PROF. DR. HORST STENZEL Motivation Voraussetzungen Ziele Datenkonvertierung

Mehr

Kapitel 8 Text für eine Internetseite erstellen

Kapitel 8 Text für eine Internetseite erstellen Bilder und Schriften für das World Wide Web müssen anders produziert und aufbereitet werden als Bilder, die für die Ausgabe auf Ihrem Tintenstrahldrucker oder für die Weitergabe an eine Druckerei bestimmt

Mehr

Animation ist das Erzeugen von Filmen mit Hilfe der Computergrafik. Objekte bewegen sich hierbei oder Beleuchtung, Augpunkt, Form,... ändern sich.

Animation ist das Erzeugen von Filmen mit Hilfe der Computergrafik. Objekte bewegen sich hierbei oder Beleuchtung, Augpunkt, Form,... ändern sich. Kapitel 1 Animation (Belebung) Animation ist das Erzeugen von Filmen mit Hilfe der Computergrafik. Objekte bewegen sich hierbei oder Beleuchtung, Augpunkt, Form,... ändern sich. Anwendungen findet die

Mehr

Visualisierung von Geodaten. Visualisierung von Geodaten

Visualisierung von Geodaten. Visualisierung von Geodaten 1 Inhalt Visualisierung Motivation Definition Vorteile Geoobjekte Geometrische Modellierung Rastermodelle Vektormodelle Hybridmodelle Software Kartographie Client-Server Server-Anwendungen 3D-Visualisierung

Mehr

Graphenalgorithmen und lineare Algebra Hand in Hand Vorlesung für den Bereich Diplom/Master Informatik

Graphenalgorithmen und lineare Algebra Hand in Hand Vorlesung für den Bereich Diplom/Master Informatik Vorlesung für den Bereich Diplom/Master Informatik Dozent: Juniorprof. Dr. Henning Meyerhenke PARALLELES RECHNEN INSTITUT FÜR THEORETISCHE INFORMATIK, FAKULTÄT FÜR INFORMATIK KIT Universität des Landes

Mehr

Computer Vision: 3D-Geometrie. D. Schlesinger () Computer Vision: 3D-Geometrie 1 / 17

Computer Vision: 3D-Geometrie. D. Schlesinger () Computer Vision: 3D-Geometrie 1 / 17 Computer Vision: 3D-Geometrie D. Schlesinger () Computer Vision: 3D-Geometrie 1 / 17 Lochkamera Modell C Projektionszentrum, Optische Achse, Bildebene, P Hauptpunkt (optische Achse kreuzt die Bildebene),

Mehr

Programmierpraktikum 3D Computer Grafik

Programmierpraktikum 3D Computer Grafik Dipl.Inf. Otmar Hilliges Programmierpraktikum 3D Computer Grafik Szenegraphen, Texturen und Displaylisten. Agenda Beleuchtungsmodelle in OpenGL Bump-Maps zur Erzeugung von Reliefartigen Oberflächen Height-Maps

Mehr

Visuelle Simulation eines Radiosity Algorithmus und ihre Anwendung in Lernprozessen

Visuelle Simulation eines Radiosity Algorithmus und ihre Anwendung in Lernprozessen Visuelle Simulation eines Radiosity Algorithmus und ihre Anwendung in Lernprozessen Abschlussvortrag zur Diplomarbeit von Jörg Karpf Graphische Datenverarbeitung, Institut für Informatik 3. September 2009

Mehr

DIGITALE VIDEO KOMPRESSION AM BEISPIEL DES JPEG-VERFAHRENS

DIGITALE VIDEO KOMPRESSION AM BEISPIEL DES JPEG-VERFAHRENS 1 DIGITALE VIDEO KOMPRESSION AM BEISPIEL DES JPEG-VERFAHRENS Um das digitale Schneiden von digitalisierten Bildern zu ermöglichen, ist es notwendig, die drastisch hohe Datenmenge, die für jedes Bild gespeichert

Mehr

Farbdarstellung. aber mit einem ausgeprägten Empfindlichkeitsmaximum im roten, grünen bzw. blauen Bereich.

Farbdarstellung. aber mit einem ausgeprägten Empfindlichkeitsmaximum im roten, grünen bzw. blauen Bereich. Erinnerung aus dem Biologieunterricht: Das menschliche Auge hat Stäbchen zur Unterscheidung von Helligkeiten drei verschiedene Arten von Zäpfchen, die für rot, grün und blau empfindlich sind. Genauer:

Mehr

Systemdokumentation - Rückprojektion mit mehreren Spiegeln

Systemdokumentation - Rückprojektion mit mehreren Spiegeln Systemdokumentation - Rückprojektion mit mehreren Spiegeln Robert Priewasser dm05022 Semesterprojekt Betreuer: DI(FH) Peter Brandl WS 05/06 Digitale Medien in Hagenberg Inhaltsverzeichnis 1 Umsetzung 1

Mehr

14 Teiler verschieben

14 Teiler verschieben 14 Teiler verschieben In diesem Werkzeug sind alle Funktionen zusammengefasst, die Sie zum Verschieben, Ausrichten oder Drehen von Teilern benötigen. Als Teiler werden in diesem Zusammenhang Pfosten, Riegel,

Mehr

1 Transformationen. 1.1 Transformationsmatrizen. Seite 1

1 Transformationen. 1.1 Transformationsmatrizen. Seite 1 Seite 1 1 Transformationen 1.1 Transformationsmatrizen In den folgenden Teilaufgaben sind die Koeffizienten von 4 4 Transformationsmatrizen zur Repräsentation von affinen Abbildungen im R 3 zu bestimmen.

Mehr

SketchBook Ink. Tipps & Tricks

SketchBook Ink. Tipps & Tricks SketchBook Ink Tipps & Tricks Tipps, bevor Sie beginnen SketchBook Ink funktioniert auf ipads der ersten Generation, jedoch wird die Benutzer-Erfahrung nicht optimal sein aufgrund der Gerätplattform-Begrenzung.

Mehr

Tipps für professionelle Repaints

Tipps für professionelle Repaints Tipps für professionelle Repaints Grundlagen In Tutorial 3.1 wurde Ihnen erklärt, wie man eine DDS- Texture in ein Bild umwandeln und wieder zurück transformieren kann. In diesem Tutorial gehe ich noch

Mehr

OpenGL. (Open Graphic Library)

OpenGL. (Open Graphic Library) OpenGL (Open Graphic Library) Agenda Was ist OpenGL eigentlich? Geschichte Vor- und Nachteile Arbeitsweise glscene OpenGL per Hand Debugging Trend Was ist OpenGL eigentlich? OpenGL ist eine Spezifikation

Mehr

- 3D Modelling & Renderer -

- 3D Modelling & Renderer - Referat zum Thema: Darstellung virtueller Welten - 3D Modelling & Renderer - Gruppe 3: Schilberg, Pfost, Möhle, Mertens Jan Möhle CAD-Programme 1 Begriff Rendern Darstellung virtueller Welten Rendern (von

Mehr

Information in einem Computer ist ein

Information in einem Computer ist ein 4 Arithmetik Die in den vorhergehenden Kapiteln vorgestellten Schaltungen haben ausschließlich einfache, Boole sche Signale verarbeitet. In diesem Kapitel wird nun erklärt, wie Prozessoren mit Zahlen umgehen.

Mehr

Digitale Bildverarbeitung Einheit 12 3D-Rekonstruktion

Digitale Bildverarbeitung Einheit 12 3D-Rekonstruktion Digitale Bildverarbeitung Einheit 12 3D-Rekonstruktion Lehrauftrag SS 2008 Fachbereich M+I der FH-Offenburg Dr. Bernard Haasdonk Albert-Ludwigs-Universität Freiburg Ziele der Einheit Einen Eindruck davon

Mehr

Anleitung zur Erstellung von Diagrammen in Excel

Anleitung zur Erstellung von Diagrammen in Excel Anleitung zur Erstellung von Diagrammen in Excel In den verschiedenen Praktika an der FH Aschaffenburg werden Sie in den unterschiedlichsten Versuchen mit teilweise recht großen Datenmengen konfrontiert,

Mehr

Rendering Grundlagen Autodesk Maya. Grundlagen. Version 1.0-2009-04-08. 2009 Ingo Clemens brave rabbit www.braverabbit.de

Rendering Grundlagen Autodesk Maya. Grundlagen. Version 1.0-2009-04-08. 2009 Ingo Clemens brave rabbit www.braverabbit.de Rendering Grundlagen Version 1.0-2009-04-08 Allgemeine Unterschiede bei Renderern Scanline Rendering Raytrace Rendering Renderlayer Einsatz von Renderlayern Overrides Material Overrides Layer Presets Batch

Mehr

Bestens belichtet. Center/Ars Electronica Blog, 17. Dezember 2012. by Martin Hieslmair on Dec 17, 2012Keine Kommentare

Bestens belichtet. Center/Ars Electronica Blog, 17. Dezember 2012. by Martin Hieslmair on Dec 17, 2012Keine Kommentare Center/Ars Electronica Blog, 17. Dezember 2012 Bestens belichtet by Martin Hieslmair on Dec 17, 2012Keine Kommentare In Lichtfeldaufnahmen steckt das Potential, all das radikal zu revolutionieren, was

Mehr

y x x y ( 2x 3y + z x + z

y x x y ( 2x 3y + z x + z Matrizen Aufgabe Sei f R R 3 definiert durch ( ) x 3y x f = x + y y x Berechnen Sie die Matrix Darstellung von f Aufgabe Eine lineare Funktion f hat die Matrix Darstellung A = 0 4 0 0 0 0 0 Berechnen Sie

Mehr

ax 2 + bx + c = 0, (4.1)

ax 2 + bx + c = 0, (4.1) Kapitel 4 Komplexe Zahlen Wenn wir uns auf die reellen Zahlen beschränken, ist die Operation des Wurzelziehens (also die Umkehrung der Potenzierung) nicht immer möglich. Zum Beispiel können wir nicht die

Mehr

Bestimmung einer ersten

Bestimmung einer ersten Kapitel 6 Bestimmung einer ersten zulässigen Basislösung Ein Problem, was man für die Durchführung der Simplexmethode lösen muss, ist die Bestimmung einer ersten zulässigen Basislösung. Wie gut das geht,

Mehr

Kommentierte Musterlösung zur Klausur HM I für Naturwissenschaftler

Kommentierte Musterlösung zur Klausur HM I für Naturwissenschaftler Kommentierte Musterlösung zur Klausur HM I für Naturwissenschaftler Wintersemester 3/4 (.3.4). (a) Für z = + i und z = 3 4i berechne man z z und z z. Die Ergebnisse sind in kartesischer Form anzugeben.

Mehr

RENDERING. Cobalt Xenon Argon. mit Ashlar-Vellum. www.arnold-cad.com

RENDERING. Cobalt Xenon Argon. mit Ashlar-Vellum. www.arnold-cad.com RENDERING mit Ashlar-Vellum Cobalt Xenon Argon www.arnold-cad.com Erstellen photorealistischer Darstellungen Erstellen Sie Ihre Welt! Modellier Tips für mehr Realität Hintergrund und Szene Betrachtung

Mehr

8 3D-Grafik mit VPython

8 3D-Grafik mit VPython 8 3D-Grafik mit VPython In diesem Kapitel wird das Python-Erweiterungsmodul Visual-Python bzw. VPython vorgestellt. Mit VPython können interaktive und animierte 3D-Szenen erzeugt werden. Dreidimensionale

Mehr

Rastergrafikalgorithmen

Rastergrafikalgorithmen Rastergrafikalgorithmen Sebastian Kurfürst Proseminar Computergrafik Institut für Software-und Multimediatechnik TU Dresden 10. Juli 2008 Zusammenfassung Es wird eine Einführung in Basisalgorithmen der

Mehr

bildimport 1 5 InDesign cs6 Dateiformate

bildimport 1 5 InDesign cs6 Dateiformate 1 5 Dateiformate InDesign unterstützt zahlreiche Grafikformate; Bitmap-Formate (= zweidimensionales Rastergrafikformat) wie TIFF, GIF, JPEG und BMP sowie Vektorformate wie EPS. Darüber hinaus werden beispielsweise

Mehr

2.1 CorelDRAW 8 Das Allround-Programm

2.1 CorelDRAW 8 Das Allround-Programm 2 CorelDRAW 8 Ziele dieses Kapitels: $ Sie lernen verschiedene Anwendungsgebiete von CorelDRAW 8 kennen. $ Sie verstehen den Unterschied zwischen Vektor-, Pixel- und Rendergrafiken. 2.1 CorelDRAW 8 Das

Mehr

Abiturvorbereitung Mathematik -Dierentialrechnungc Max. Hoffmann

Abiturvorbereitung Mathematik -Dierentialrechnungc Max. Hoffmann Abiturvorbereitung Mathematik -Dierentialrechnungc Max Hoffmann 1 Ganzrationale Funktionen Im Folgenden wollen wir uns mit ganzrationale Funktionen und der Untersuchung solcher beschäftigen. Dabei werden

Mehr

Oberstufe Mathematik - Fraktale Annika Maier, Anja Schmid; Abitur 2004. Fraktale

Oberstufe Mathematik - Fraktale Annika Maier, Anja Schmid; Abitur 2004. Fraktale Fraktale 1 Einleitung : Um solche grafischen Gebilde handelt es sich in unserem mathematischen Referat Wir werden in möglichst nicht-mathematischer Sprache, also für jedermann zugänglich, beschreiben,

Mehr

Kreisprogrammierung Interpolation

Kreisprogrammierung Interpolation Kreisprogrammierung Zuerst einige Worte zur Interpolation: Wenn eine mathematische Formel grafisch als Punkte dargestellt wird, die zu einer (angenäherten) Geraden oder Kurve verbunden werden, dann ist

Mehr