Moderne Grafikkarten und 3D-Grafik (Vortrag und Ausarbeitung von Kay Ackermann)

Größe: px
Ab Seite anzeigen:

Download "Moderne Grafikkarten und 3D-Grafik (Vortrag und Ausarbeitung von Kay Ackermann)"

Transkript

1 Moderne Grafikkarten und 3D-Grafik (Vortrag und Ausarbeitung von Kay Ackermann) , 12:46 Uhr 1

2 Inhaltsverzeichnis: Seite 1. 3D-Grafik und Grundlagen Der Aufbau einer 3D-Szene Szenenobjekte Grundelemente für die Darstellung einer Szene D-Hardware Die Geschichte der 3D-Grafikkarten von Technische Details und Statistiken im Überblick Von der Software auf den Monitor 8 (Der 3D-Datenfluss bei der Echtzeitdarstellung) 2.4 Probleme und Lösungen bei der Bilddarstellung 9 von 3D-Inhalten 3. Aktuelle Trends und Techniken Displacement Mapping Vertex Mapping Normal Mapping HDR Schlusswort Informationsquellen Anhang 15 2

3 1. 3D-Grafik und Grundlagen 1.1 Der Aufbau einer 3D-Szene Für den Umgang mit 3D-Inhalten, Hardware und Techniken ist es hilfreich etwas Grundwissen zu besitzen, das mit den nächsten Zeilen vermittelt werden soll. Eine 3D-Szene kann man mit einem Set bei Dreharbeiten vergleichen. Man braucht eine Kamera, oftmals als POV (Point Of View bezeichnet), die bestimmte Eigenschaften wie z.b. FOV (Field Of View) besitzt, und wenn möglich auch ein Objekt oder eine ganze Szenerie, die betrachtet werden soll. Hier im Bild stellt die Kamera (links am Rand) den späteren POV und die von ihr ausgehende Pyramide das entsprechende FOV dar. 1.2 Szenenobjekte Für die Erstellung und Präsentation eines Objektes gibt es softwaretechnisch verschiedene Lösungen, wie zum Beispiel die Darstellung über geschlossene Kurven (Nurbs) welche besonders gerne für die Modellierung von Figuren für computergenerierte Videos verwendet wird. Allerdings ist diese Technik ziemlich rechenaufwendig und wird daher nicht direkt von der Hardware unterstützt. 3D-Grafikkarten verwenden deswegen für die Darstellung Polygone (Vielecke). Hierbei wird meist ein Objekt als Mesh (Netz) bezeichnet. Ein Objekt entsteht beispielsweise, indem man Eckpunkte definiert und diese mit Linien verbindet. Ein Eckpunkt ( Vertex, im Bild rechts unten als blaue Kugeln zu sehen) alleine kann allerdings nicht dargestellt werden. In der Mathematik wird eine Fläche entweder durch 2 Vektoren und einen Aufpunkt, oder mindestens 3 Punkte im Raum beschrieben. Das bedeutet, 3 dieser Punkte (Vertize) bilden zusammen eine darstellbare Fläche im Raum die zusätzlich über ihre Normale noch eine Orientierung besitzt. Betrachtet man einen Würfel, so braucht man für dessen Darstellung 8 Eckpunkte ( Vertize ). Jede Fläche besteht somit aus 4 Eckpunkten, wobei sich eine Fläche ihre Eckpunkte mit den anderen teilen kann, d.h. dass ein Vertex zu mehreren (theoretisch beliebig vielen) Flächen gehören kann. Für die Hardware ist dies insofern wichtig ist, als dass, abhängig von der Situation, teils über 50% der für eine Fläche benötigten, geometrischen Berechnungen, gespart werden können. Auch wenn Objekte aus Polygonen (Vielecken) bestehen, so werden sie für die spätere Berechnung in lauter kleinere Dreiecke unterteilt. Der Hauptgrund hierfür ist, dass 4 oder mehr Punkte, die eine Fläche bilden sollen, nicht unbedingt in derselben Ebene liegen müssen. Tritt dieser Fall ein, so wäre der Aufwand für die Berechnung des auf die entsprechende Fläche fallenden Lichts deutlich komplexer. Die Unterteilung in Triangles (Dreiecke) heißt allerdings auch, dass runde Objekte wie Torbögen oder Kugeln nicht exakt darzustellen sind. Diese müssen über eine extrem hohe Anzahl von Vielecken simuliert werden. Ein Mesh in einem Programm wie 3D-Studio Max oder Maya wird normalerweise über Dreiund Vierecke erzeugt Im Bild links sieht man die verstärkte Unterteilung an runden Stellen des Objektes. 3

4 1.3 Grundelemente für die Darstellung einer Szene Will man nun diese nur im Modell vorhandene Szene in ein Bild umwandeln, so werden als erstes die Geometriedaten gesammelt und berechnet; danach wird Pixel für Pixel das eigentliche Bild aufgebaut. In der Fachsprache bezeichnet man den ersten Vorgang als Scene Set-Up ( Transform and Lightning oder Vertex Set-Up bei Grafikkarten), den zweiten als Rendering (Wiedergabe). Das Rendering ist der rechen- und speicherintensivste Vorgang bei der Erstellung des Bildes. Es gibt inzwischen eine Reihe komplizierter Verfahren den Rechenaufwand zu verringern, was vor allem Echtzeitberechnungen bei Spielen zu Gute kommt, wohl aber dem auch zu verdanken ist. Im späteren Verlauf werden diese Techniken näher beschrieben. Objekte und eine Kamera alleine ergeben allerdings noch kein lebendiges Bild. Man erhält lediglich eine relativ monotone Darstellung einfarbiger Objekte. Um etwas mehr Leben in die Szenerie zu bekommen, benötigt man noch Texturen, Lichter, die die Szene beleuchten, und entsprechende Schatten, die von diesen Lichtern verursacht werden. Objekte werden im Allgemeinen mit zwei Grundtexturen (oder Grundeigenschaften) versehen: zum Ersten gibt es die Diffuse Texture / Color welche die Grundfarbe oder eigentliche Textur des Objektes bestimmt, und zweitens die Specular Color / Lightning, die den Grad der Lichtspiegelung oder auch das sogenannte Highlight (Glanzpunkt) des Objektes angibt. Specular Color / Lightning hat zusätzliche Attribute, die die Schärfe und Stärke der Reflektion bestimmen. Das linke der beiden nachfolgenden Bilder besitzt keinerlei gerichtete Lichtquellen. Das rechte Bild hingegen besitzt einen Richtscheinwerfer, der die Teekanne beleuchtet. Dabei ist die helle, fast weiße Stelle auf der Teekanne das Resultat des Specular Lightning, der Reflektion des gerichteten Lichtes durch das Objekt zur Kamera hin. Szene ohne Texturen, keine gerichtete Beleuchtung, kein Glanzeffekt Szene ohne Texturen, dafür mit gerichteter Beleuchtung und Glanzeffekt. Auch wenn das rechte Bild schon besser aussieht, so wirkt es noch extrem künstlich. In der Realität gibt es nur wenige einfarbige und glatte Flächen. Den Objekten fehlt es noch an Textur. Das Auftragen oder Einarbeiten von ein oder mehreren Texturen wird als Mapping bezeichnet. Neben der normalen Grundtextur gibt es hierbei noch eine Reihe anderer spezieller Texturen und Techniken, unter anderem Bump & Normal Mapping, auf die im späteren Verlauf näher eingegangen wird. Beim (Texture) Mapping werden Punkte des Objektes im 3D-Raum mit Punkten einer 2D-Textur verknüpft, die meist als Bild vorliegt. 4

5 Das Bild rechts sieht im Vergleich zu den vorhergehenden Bildern schon deutlich lebhafter aus. Trotzdem wirkt es immer noch ein wenig künstlich da die Oberflächen der Objekte extrem glatt aussehen. Diese benötigen für einen realistischeren Eindruck Tiefe, und um dieses zu bewerkstelligen verwendet man Bump Maps, die über ein Objekt gelegt werden und den Vektor der Lichtreflektionen verändern. Wie das folgende Bild zeigt wirken dadurch die Oberflächen der Objekte deutlich griffiger und verleihen dem Bild deutlich mehr Flair. Bump Maps verändern lediglich die Richtung der Oberflächennormale für die Lichtreflektion des entsprechenden Bereiches, die Komplexität der Geometrie des Objektes bleibt gleich. Dass nur der Vektor der Lichtreflektion verändert wird heißt aber wiederum, dass Bump Maps auf entsprechend gerichtetes Licht angewiesen sind, um ihre Wirkung zu erzielen. Ohne Bump Mapping Mit Bump Mapping Ein Problem der dreidimensionalen Darstellung ist die tiefenunabhängige Schärfe. Das Bild ist sowohl im Hintergrund als auch im Vordergrund scharf, obwohl aus der Physik allgemein bekannt ist, dass jede Art von Linsensystemen nur um den Focusbereich herum scharf erscheint. Hält man sich beispielsweise einen Finger in kurzem Abstand vor die Augen und konzentriert sich auf ihn, so wird der Hintergrund unscharf. Konzentriert man sich auf den Hintergrund, so wird der Finger im Vordergrund unscharf. Dieses Manko in der Darstellung beseitigt die Technik Depth of Field (Tiefenunschärfe). Sie sorgt dafür, dass das Bild nur im Fokusbereich scharf erscheint und andere Bildelemente mit zunehmendem Abstand zu diesem immer unschärfer werden. Tiefenunschärfe ist relativ neu und wird in kommenden Spielen wohl mehr und mehr verwendet werden, um dem Spieler während Schnittsequenzen noch mehr das Gefühl zu verleihen, mitten drin statt nur dabei zu sein. Das Bild im Anhang (6.1.) zeigt eine Echtzeitimplementation dieses Effektes. 5

6 2. 3D-Hardware 2.1 Die Geschichte der 3D-Grafikkarten von Die Entwicklung von 3D-Hardwarebeschleunigern began in etwa Die erste, für damalige Verhältnisse schnelle Karte, war die 3Dfx Interactive Voodoo1. Nach ihrer Einführung brachte Nvidia den Riva128 Chip auf den Markt. Durch diesen Konkurrenzkampf folgen jährlich neue Entwicklungen und mit der Zeit wurde das Marktsegment der 3D- Hardwarebeschleuniger zu einem, für heute, sehr wichtigen Bereich der Computerindustrie. Die meisten der Hersteller für 3D-Beschleuniger konnten sich nicht gegen die heutigen Marktführer Nvidia und ATI durchsetzen. Boten die ersten 3D-Grafikkarten nur Techniken wie die bilineare Filterung, MIP Mapping und Alpha Blending (Transparenz), so ist die Liste der Features aktueller Karten zu lang um sie hier aufzuführen. Im späteren Verlauf dieses Dokuments werden allerdings einige der neuesten und Imposantesten Techniken noch genauer beschrieben. Im Anhang (6.2) befindet sich eine Tabelle die die wichtigsten Technischen Spezifikationen der Grafikkarten zwischen 1996 und 2005 beinhaltet. Die aktuellste und schnellste Karte ist zur Zeit, Ende des Jahres 2005, die Nvidia GeForce 7800 GTX 512 (G70). Sie verarbeitet 24 Pixel parallel, während ATIs aktuellstes Modell, die X1800XT, nur 16 Pixel in einem Takt verarbeiten kann. Die GeForce 7800 GTX 512 besitzt in etwa 300 Millionen Transistoren, während die ATI X1800XT nur 160 Millionen besitzt, dafür aber etwas höher getaktet wird. Zum Vergleich: Ein Athlon64 X2 (3800+) mit zwei Kernen besitzt, je nach Größe des internen Pufferspeichers, etwa Millionen Transistoren, ist aber im Grafikbereich bei weitem nicht so schnell wie eine Grafikkarte. Diese erreichen in ihrem Anwendungsbereich eine Leistung von etwa 1-2 Teraflop, während ein aktueller Prozessor mit zwei Kernen gerade mal auf etwa 26 Gigaflop im Fließkommabereich kommt. Inzwischen gibt es einige Ansätze, die Rechenleistung der Grafikkarten für Berechnungen zu verwenden, die bisher vom Hauptprozessor erledigt wurden. Im Quellenverzeichnis am Ende dieses Dokumentes befindet sich ein Link zu einer Meldung des Heise-Verlags, in der von einer Softwarefirma berichtet wird, die den Pixel Shader in modernen Grafikkarten dazu verwenden will, aufwendige Soundeffekte in Echtzeit zu berechnen. 2.2 Technische Details und Statistiken im Überblick Vergleicht man die Speicherbandbreite und Füllrate, welche ausschlaggebend für die Geschwindigkeit der Grafikkarte sind, so sieht man, dass sich diese von einer zur nächsten Generation nahezu verdoppeln. Dies entspricht übertragen ungefähr einer Leistungsverdoppelung pro Jahr. In der Grafik gut zu erkennen ist Nvidias Speicherproblem der GeForce 5800 Serie. MTexels/s Nvidia Riva 128 Füllrate Speicherbandbreite Nvidia Riva TNT Nvidia Riva TNT2 Nvidia GeForce 256 Nvidia Geforce 2 GTS Nvidia GeForce 3 Nvidia GeForce 4 Geforce FX 5800 Geforce FX 5900 (Ultra) Geforce 6800 (Ultra) Geforce 7800 GTX GB/s 6

7 Wie schon bei der GeForce 5800 angesprochen, ist die Wärmeentwicklung der Grafikchips und deren damit nötige Kühlung eines der größten Probleme aktueller Karten. Meist wird heute versucht, die warme Abluft direkt nach außen abzugeben, um das Aufheizen des Rechnerinneren zu verhindern. Eine Umsetzung dieser Lösung ist am Beispiel der GeForce 7800 GTX 512 (siehe rechts) gut zu erkennen. Die Leistungsaufnahme eines Chips nimmt etwa proportional zu seiner Komplexität und Taktfrequenz zu. Um diese zu verringern, versucht man, die Strukturgröße des Kerns und damit auch seine Betriebsspannung immer weiter zu verringern. 600,00 550,00 500,00 450,00 400,00 350,00 300,00 250,00 200,00 150,00 100,00 50,00 0,00 Riva 128 Transistoren (in Millionen) Fertigungstechnik (in nm) Taktfrequenz (in MHz) Riva TNT Riva TNT2 GeForce 256 Geforce 2 GTS GeForce 3 GeForce 4 Geforce FX 5800 Geforce FX 5900 Geforce 6800 (Ultra) Geforce 7800 GTX 512 Allerdings stieg die Leistungsaufnahme der Grafikkarten der letzten Jahre extrem an. Die nachfolgende Grafik zeigt die Leistungsaufnahme der Grafikkartengeneration des vergangenen Jahres. Leider finden sich bisher keine Messungen der aktuellsten Generation, es wird aber behauptet, dass die diesjährige Generation nicht mehr Leistung verbraucht, als die des Vorjahres. Ähnlich wie es AMD im Prozessorbereich geschafft hat, den Verbrauch seiner Prozessoren, trotz Leistungssteigerung, zu reduzieren, scheint sich dieser Trend nun auch auf dem Grafikkartenmarkt breit zu machen. Technisch gesehen wird es kaum möglich sein, eine noch höhere Leistungsaufnahme der Grafikkarten vernünftig zu kühlen, da dafür der Bereich, auf dem diese Leistung abgegeben wird, zu klein ist. Deswegen versuchen Nvidia und ATI die Leistung der Grafikkarten durch die Kombination mehrerer Karten und Chips zu erhöhen. So hat man mit der Einführung der GeForce 6800 die Wiederauferstehung der 3Dfx SLI-Technik erleben dürfen, welche inzwischen in einer ähnlichen Form unter dem Namen Crossfire bei ATI Anwendung findet. Es wird vermutet, dass die nächste Kartengeneration von Nvidia es erlaubt, 4 GPUs zu kombinieren, indem auf einer Karte jeweils zwei Chips verbaut und jeweils zwei solcher Karten über SLI verbindet. Angesichts der aktuellen Leistung der Grafikkarten, gerade im SLI-Betrieb, kann man in etwa abschätzen, was 4 solcher Chips zusammen gebündelt an Leistung liefern könnten. Allerdings hat diese Leistung auch ihren Preis: während die 3D- Grafikkarten noch etwa bei für die Spitzenmodelle lagen, kosten aktuelle Modelle wie die GeForce 7800 GTX 512 alleine schon 650, was deutlich mehr ist, als jede Spielekonsole, die momentan auf dem Markt ist. Angesichts dieser Tatsachen stellt sich die Frage, ob diese Preise wirklich noch gerechtfertig sind und wie die Zukunft für den PC als Spieleplattform aussehen wird. 7

8 2.3 Von der Software auf den Monitor (Der 3D-Datenfluss bei der Echtzeitdarstellung) In diesem Abschnitt wird etwas näher auf den Ablauf bei der Darstellung von 3D- Echtzeitgrafiken eingegangen. Hierbei soll gezeigt werden, wie aus einer Szene, die in einem Spiel oder einer Anwendung vorliegt, das Bild auf dem Monitor entsteht und welche Probleme es in den einzelnen Teilschritten gibt. Bis das Bild auf dem Monitor zu sehen ist, durchläuft es mehrere Phasen. Die Erste befindet sich in der reinen Software- und CPU-Ebene. Bei Spielen ist dies die sogenannte Engine des jeweiligen Spiels. Diese ist für künstliche Intelligenz, Spielerinteraktion, Physik und Daten- und Objektverwaltung zuständig. Sie platziert Objekte, Lichter und mögliche Kameras in der Szene. Anschließend legt die Engine fest, welchen Sichtbereich (FOV) die auszugebende Ansicht haben soll. Weiterhin berechnet sie, welche Objekte für den aktuell darzustellenden Zeitpunkt in der Szene überhaupt sichtbar sind. Dies ist extrem wichtig und oftmals auch die Schwerste einer solchen Engine. Ist hierbei der Rechenaufwand zu hoch, so bleibt zu wenig Prozessorrechenleistung für die restlichen Elemente der Engine übrig. Ist der Aufwand zu niedrig oder der Programmcode nicht optimal, so kann es zu unschönen Bildfehlern kommen oder die Grafikkarte muss Objekte berechnen, die aber für den Betrachter hinterher nicht sichtbar sind, was unnötig Rechenzeit verbrauchen würde. Nachdem die Szene erstellt wurde, wird ihr aktueller Zustand an die Grafikkarte geschickt. Das bedeutet, alle Objektdaten, Texturen, Lichtdaten, Vertex - und Pixelshader Funktionen, die ausgeführt werden sollen, müssen der Karte übergeben werden. Die nachfolgende Grafik zeigt was dort mit diesen Daten passiert und wie diese von der 3D- Pipeline einer Aktuellen Grafikkarte verarbeitet werden. Die 3D-Pipeline (im deutschen am ehesten Leitung oder Anschlusskanal genannt), ist eigentlich eine Ansammlung vieler paralleler Pipelines, die in der Lage sind, unabhängig voneinander die Geometrie und Texturdaten gleichzeitig zu verarbeiten. Heute werden, wie zum Beispiel bei der GeForce 7800 GTX 512, bis zu 24 solcher Pipelines verbaut. Einer Schätzung zufolge soll die nächste Generation 32 bis 48 Pipelines besitzen. Der Arbeitsablauf (siehe Grafik im Anhang 6.3) in einer Pipeline sieht in etwa wie folgt aus: Die Geometriedaten der Szene werden vom Vertex Shader verarbeitet. Dieser berechnet für jeden Eckpunkt die evtl. nötige Translation (Verschiebung), sowie dessen Grundfarbe und Helligkeit. Für die Translationen können dabei kleine Shader -Programme geschrieben werden, welche dann situationsbedingt die Geometrie eines Objektes verändern. Ein Beispiel hierfür wären unterschiedliche Gesichtsausdrücke einer Figur in einem Spiel. Bevor die Vertize in Polygonen zusammengefasst den Vertex Shader verlassen, berechnet dieser noch anhand der Vertex-Daten den Farb- und Helligkeitsgradienten über je einzelnen Polygone. Dieser Vorgang nennt sich Shading (Schattierung). Nach der Verarbeitung durch die Vertex Shader werden die Geometrieinformationen an die Textur- und Pixelshader-Pipeline weiter gereicht. Diese versieht die einzelnen Polygone mit Texturen. Im letzten Schritt wird dann die gesamte Szene für den Monitor ausgewertet. Dabei wird für jeden später auf dem Monitor sichtbaren Pixel der entsprechende Farb- und Tiefenwert (Z- Wert) in den Bildspeicher geschrieben. Transparente Pixel im Vordergrund werden dabei mit den dahinter liegenden Pixeln gemischt ( Alpha Blending ). Anschließend können die Pixel- Daten im Speicher nochmals mit Hilfe des Pixelshader nachträglich verändert werden. 8

9 Ist dies geschehen, so wird das Bild in den Front Buffer kopiert, dessen Inhalt regelmäßig an den Monitor übertragen wird. Hierzu sei gesagt. dass es zwei Bildspeicher gibt, den sog. Front Buffer und den Back Buffer, zwischen denen im Normalfall einfach hin und her geschaltet wird. Während das Bild aus dem Front Buffer an den Monitor geschickt wird, zeichnet die Grafikkarte ohne Unterbrechung die nächsten Bilder in den Back Buffer, der bei jedem neuen Bild überschrieben wird. 2.4 Probleme und Lösungen bei der Bilddarstellung von 3D-Inhalten Der nun folgende Abschnitt soll einen kleinen Überblick über die Probleme der 3D- Darstellung geben. Die größten Probleme entstehen dabei bei der Darstellung der Objekttexturen und Kanten. Um eine korrekte Darstellung der Textur auf dem Objekt zu erhalten benötigt man diese in verschiedenen Detailgraden. Diese werden als MIP Maps ( Multum Im Parvo - vieles in einem ) bezeichnet. So liegt beispielsweise eine Wandtextur in 512x512, 256x256,,32x32 Pixel vor, und je nach Entfernung zur Kamera wird eine entsprechend aufgelöste Textur verwendet. Dies ist nötig, da es bei einer fein detaillierten Textur mit zunehmendem Abstand zur Kamera sonst zu Artefakten (Bildanomalien) kommt. Diese kommen daher, dass die Auflösung des Monitors deutlich geringer ist, als die der Textur, womit die Textur nicht mehr korrekt dargestellt werden kann. Hier gilt dasselbe Theorem von Nyquist, wie es auch im Audiobereich bei der Digitalisierung analoger Signale bekannt ist. Es besagt, dass für die korrekte Aufzeichnung eines Signals (hier: der Textur) die Aufzeichnungsfeinheit (Sample Rate) doppelt so hoch sein muss, wie das aufzuzeichnende Signal (mehr Informationen dazu findet man unter dem Stichwort Nyquist auf Für die Bilddarstellung heißt dies also, dass Texturen nicht mehr Details besitzen sollten, als später auf dem Monitor ausgegeben werden kann. Das nachfolgende Bild zeigt, was mit einer Linienmustertextur passiert, die nur einen Detailgrad besitzt. Man sieht sehr schön, dass mit zunehmendem Abstand zur Kamera die Textur mehr und mehr fehlerhaft dargestellt wird. Theoretisch müsste die Fläche nach hinten einen mittelhellen Grauton annehmen, allerdings wird für die Farbausgabe ohne Filterung und MIP-Mapping einfach der nächstliegende Farbwert der Textur genommen. Dreht man den Fall jetzt um, sprich, besitzt die Textur deutlich weniger Auflösung, als sie für die Darstellung bräuchte (zu vergleichen ist dies als würde man in einem Spiel sich direkt vor die Wand stellen), dann würde diese ohne eine Art von Filterung extrem grob und verblockt aussehen. Außerdem kommen bei der einfachen Vergrößerung ähnliche Präzisionsprobleme zum Tragen, wie bei der starken Verkleinerung von Texturen. Die folgenden zwei Bilder zeigen eine Teekanne mit einem Karomuster, allerdings wird im linken Bild die Textur nicht gefiltert, während sie im rechten durch den Texturfilter geglättet wird. 9

10 Die wohl bekannteste Filterung ist die bilineare Filterung, bei der für den zu zeichnenden Bildpunkt die 4 nächstliegenden Pixelmittelpunkte und deren Farben verwendet werden. Die endgültige Farbe des entsprechenden Bildpunktes entsteht dabei aus dem gewichteten Mittelwert dieser vier umliegenden Punkte. Die Gewichtung erfolgt dabei über ihren jeweiligen Abstand zu der Position des Bildpunktes auf dem Objekt. Dies sorgt für weiche Übergänge beim Vergrößern der Textur und beugt, bis zu einem gewissen Grad, der Entstehung von Anomalien bei der Verkleinerung vor. Der Nachteil hierbei ist, dass die Texturen alle etwas unschärfer und verwaschener wirken. Verwendet man MIP Maps, so kann man auf Flächen, die schräg in den Hintergrund laufen, wie z.b. dem Boden oder den Wänden eines Raumes, Grenzen erkennen, bei denen die Umstellung von einer detaillierten zu einer etwas weniger detaillierten Textur erfolgt. Um diesen Effekt zu verringern wurde die trilineare Filterung entwickelt. Dabei wird zur bilinearen Filterung noch die nächst größere und kleinere Texturvariante (MIP Map) mit einbezogen. Zwar verschwinden durch diese Art der Filterung die unschönen Detailgrenzen, allerdings werden entfernte Texturen zu stark verwaschen und das Bild verliert deutlich an Schärfe. Außerdem kann es trotzdem noch zu Anomalien in weit entfernten Texturen kommen. Die anisotrope Filterung, die etwa mit dem Erscheinen der Nvidia TNT verfügbar war, beseitigt genau dieses letzte Problem. Diese hat dem Namen nach nicht in alle Richtungen hin die gleichen Eigenschaften. Sie beseitigt die Schwächen von bi- und trilinearer Filterung, die auftreten, wenn der Betrachter nicht annähernd senkrecht auf das Polygon schaut, was sich aus Gründen der Perspektive in einer 3D-Szene nicht vermeiden lässt. Hierbei werden für die Filterung deutlich mehr Texturdetailvarriationen (Textursamples, kurz taps ) verwendet, als bei der bi- oder trilinearen Filterung (maximal bis 128 pro Pixel). Das folgende Bild demonstriert die Unterschiede der verschiedenen Filtermethoden und deren Kombinationen. Das letzte Problem, das hier erwähnt werden soll, ist die Stufenbildung an schräg verlaufenden Kanten von Objekten. Diese Stufen entstehen dadurch, dass je ein Pixel des ausgegebenen Bildes zu genau einem Objekt der Szene gehört. An der Grenze eines schräg liegenden Objekts kommt es daher zu Bereichen, in denen die Zugehörigkeit eines Pixels zu einem Objekt nur noch auf Rundungsfehler zurückzuführen ist. Für die Lösung dieses Problems wurden im laufe der Jahre diverse Techniken entwickelt. Das Grundprinzip dabei ist, das Bild in einer höheren Auflösung zu berechnen ( Rendern ) als es später gebraucht wird. So versteht man zum Beispiel unter einem 2-fach Anti-Aliasing, dass ein 640x480 Pixel großes Bild mit 1280x960 Pixel berechnet und anschließend auf die gewünschte Anzahl Pixel heruntergerechnet wird. Ein Bildpunkt des 640x480 Pixel großen Ausgabebildes besteht somit aus dem gewichteten Mittelwert der vier Pixel des Bildes mit der Auflösung 1280x960. Dort, wo früher noch eine harte Stufe zu sehen war, entsteht durch diese Technik eine Vielzahl von Farbabstufungen an der eigentlichen Kante, wodurch sie nicht mehr so stark heraus sticht. Heutige Grafikkarten beherrschen bis zu 16-fach Anti-Aliasing, was für ein schönes weiches 10

11 und an Kanten stufenfreies Bild sorgt. Ein weiterer Nebeneffekt dabei ist, dass dünne Linien, die unter Umständen nicht mehr Korrekt auf dem Bildschirm dargestellt werden würden, durch das Zeichnen in der höheren Auflösung noch erfasst werden und ihre Details in das daraus resultierende herunter gerechnete Bild einfließen. Es existieren diverse Variationen des Anti-Aliasing, die sich auch bezüglich ihrer Resultate in der Bildqualität unterscheiden. Die bekanntesten Implementationen sind: Edge Anti-Aliasing (3Dfx Voodoo2) FSAA (Full Screen Anti-Aliasing, ab Nvidia TNT, ab ATI Radeon) AAA (Adaptive Anti-Aliasing, GeForce 3-5, ATI X800 X1800) TAAA (Transparency Adaptive Anti-Aliasing, GeForce 5-7) Das Edge-, oder auch kantenbasierte Anti-Aliasing, wurde erstmals von der Voodoo2 verwendet und kam etwas später durch Nvidia als Adaptive Anti-Aliasing auf den Markt. Es wird dabei versucht, nur Kanten und nicht Texturen zu glätten, um die Texturen nicht unschärfer zu machen, als sie bisher schon sind (siehe bi- oder trilineare Filterung). Das Full Screen Anti-Aliasing hingegen berechnet das gesamte Bild in zwei-, vier-, achtoder heute sogar sechzehnfacher Größe, um es später, wie bereits beschrieben, auf die eigentliche Ausgabegröße herunterzurechnen. In der Softwaretechnik wird dieses Verfahren oftmals auch als Super Sampling bezeichnet und hat den Nachteil, dass die allgemeine Bildschärfe abnimmt und Details in Texturen verloren gehen. Transparency Adaptive Anti-Aliasing, kurz TAAA, ist ein Zusatz für das Adative Anti- Aliasing. Da beim AAA bekanntlich nur Objektkanten geglättet werden, nicht aber Texturen, gibt es Fälle, in denen auch Texturen geglättet werden müssen. Ein einfaches Beispiel wäre hierfür ein Maschendrahtzaun. Da die Darstellung jedes einzelnen Drahtes als geometrisches Objekt zu rechenintensiv wäre, verwendet man für solche Fälle teiltransparente Texturen, die über eine Fläche gelegt werden. Allerdings stellt das Gitter somit keine geometrische Kante dar, sondern ist eben lediglich eine transparente Textur und wird somit nicht vom Adaptive Anti-Aliasing behandelt, wodurch in diesen Bereichen es zu den bekannten Treppen oder Stufenbildungen kommt. TAAA greift genau hier ein und glättet auch Kanten, die durch Texturtransparenz verursacht werden. Allerdings scheinen aktuelle Nvidia Treiber noch Probleme mit dieser Technik zu haben, so dass unter Umständen, anstatt der unschönen Kanten, die gesamte Textur entfernt wird. Es ist aber davon auszugehen, dass diese Probleme mit den kommenden Treibern behoben werden. 3. Aktuelle Trends und Techniken Da die Software meist etwas bei der Implementierung der neusten Techniken hinterher hängt, oder diese nicht umsetzen kann, da ein entsprechender Effekt zwar theoretisch möglich wäre, die Performance der Karte aber nicht ausreicht, ist oftmals nur alle 2 Jahre ein größerer Sprung in der Grafik von Spielen zu beobachten. Dies liegt teils auch daran, dass viele Spiele auf der gleichen Engine basieren, die von einem Hersteller regelmäßig weiter entwickelt und vermarktet wird. Als Beispiel seien hier die Unreal oder Quake Engine genannt. Mit dem Anfang des nächsten Jahres wird sich wieder solch ein Sprung stattfinden. Zu erwarten sind realistischere Schattenwürfe, Lichtanimationen, Materialien welche Licht beugen, brechen oder ausstrahlen, sowie echte Wolken, die nicht nur durch halbtransparente Texturwände simuliert werden, sondern einen dreidimensionalen Körper besitzen. Die interessantesten Techniken für die nächst Zeit dürften Displacement Mapping, Vertex Mapping, Normal Mapping und HDR sein. Ihre Funktionsweise und Anwendungsbereiche in neuen Spielen, werden in den kommenden Abschnitten etwas näher erläutert. 11

12 3.1 Displacement Mapping Das Displacement Mapping ist eine Technik die verwendet wird, auf einfache Art und Weise das Geometriedetail der Szene zu erhöhen. Hierbei wird vom Designer eine Höhentextur für ein Objekt erstellt, welche später verwendet wird um die Vertize eines Objektes oder einer Fläche entlang ihres Normalenvektors zu versetzen. Bisher musste dabei die entsprechende Fläche eines Objektes in viele kleine Flächen unterteilt werden, da sonst nicht genug Vertize für die korrekte Darstellung vorhanden waren. Die kommende Unreal 3 Engine ist in der Lage, Flächen nur dort zu unterteilen, wo auch eine Verschiebung der Vertize stattfinden soll. Dies kommt der Geschwindigkeit zu Gute. Die Technik selbst, eignet sich extrem, das Geometriedetail der Szene zu erhöhen, ohne viel Zeit in langwieriges modellieren von Objekten zu stecken. Statt jeden Ziegel einer Mauer einzeln in die Szene zu modellieren, wird einfach eine ebene Fläche mit einer Displacement Map versehen, welche sich relativ leicht aus der sowieso für die Wand nötigen Textur erstellen lässt. Der Nachteil des Displacement Mapping ist allerdings, dass es für die Engine des Spieles schwer ist, für Objekte, die von diesem Verfahren Gebrauch machen, Kollisionstests durchzuführen, da so entstandene Auswölbungen an dem Objekt erst von der Grafikkarte berechnet werden. 3.2 Vertex Mapping Das Vertex Mapping ist eine weitere Möglichkeit die Geometrie der Szene zu verändern. Dies findet, wie beim Displacement Mapping, schon in der Vertex Shader Einheit der Grafikkarte statt. Das Verfahren ist dabei Analog zu dem des Displacement Mapping, erlaubt dafür aber die Anwendung von animierten Texturen. Anwendungsbeispiele für diese Technik finden sich z.b. in der Animation und Darstellung von Wasseroberflächen. Die folgenden zwei Bilder stammen aus dem Spiel Pacific Fighters und dienen als Beispiel für Displacement und Vertex Mapping. ohne Vertex Mapping mit Vertex Mapping 12

13 3.3 Normal Mapping Mit die interessanteste Technik, die in den kommenden Spielen Anwendung findet, ist das Normal Mapping. Versieht man ein Objekt mit einer solchen Normal Map, verändert sich die Richtung des von einem Objekt reflektierten Lichts. Durch die draus entstehenden Schattierungen gewinnt das Objekt, ähnlich wie beim Bump Mapping, an Tiefendetails. Für die Erstellung einer Normal Map werden 2 Versionen des Objektes erstellt (siehe Anhang 6.4). Eine mit sehr vielen und eine weitere mit vergleichsweise wenigen Geometriedetails. Durch die Subtraktion der beiden Modelle entsteht dabei eine Textur mit der Höhendifferenz der beiden Objekte, die als Normal Map verwendet werden kann. Für Spiele bedeutet diese Technik, dass es möglich ist Objekte zu erstellen, die extrem detailliert aussehen, in Wirklichkeit allerdings nur aus wenigen Polygonen bestehen. Im Anhang befinden sich einige Bilder aus der Unreal 3 Engine welche ausgiebig gebrauch von dieser Technik macht. 3.4 HDR Eine weitere, leistungsfähige Technik, die Bildqualität zu verbessern, ist High Dynamic Range, kurz HDR. Hierbei versucht man, das grundsätzliche Darstellungsproblem bezüglich des Farb- und Helligkeitsspektrums von Monitoren zu korrigieren. Der Hintergrund liegt dabei in den begrenzten Fähigkeiten der Monitore, Kontraste darzustellen. Sie sind in ihren Eigenschaften der Bildreproduktion zu beschränkt, um eine wirklich realitätsgetreue Darstellung zu erlauben. Für einen Monitor ist es zum Beispiel nicht möglich, die helle Überblendung, die entsteht, wenn man in eine extrem helle Lichtquelle wie die Sonne oder einen Suchscheinwerfer sieht, wiederzugeben. Durch geschickte Manipulation der Kontrastund Farbkurven versucht HDR, dieses Problem zu umgehen. Das Bild bekommt dabei meist sattere Farben und höhere Kontraste zwischen beleuchteten, hellen und dunklen Bildbereichen. Auch erlaubt diese Technik, extrem helle Objekte oder Bildbereich mit einem Glühen oder Überblenden zu versehen. Dabei wird über die eigentlichen Grenzen des hellen Bildbereiches hinaus die Umgebung bis zu einem bestimmten Abstand hin zusätzlich aufgehellt. Die dabei entstehenden Resultate sind nicht zu verachten. Bisher wird HDR nur in wenigen Engines (Half Life 2, Far Cry, F.E.A.R.) verwendet, allerdings wird HDR zweifellos ein Muss für kommende Spiele werden. Unreal 3 & HDR 13

14 4. Schlusswort Wie man also unschwer erkennen kann sind moderne Spiele nicht nur spielereien sondern der Motor für die Entwicklung eines ganzen Marktsegmentes. Die technischen Innovationen und der Forschungsaufwand in diesem Bereich sind ohne Zweifel enorm. Gerade die Entwicklung neuer Techniken für die Darstellung dreidimensionaler Bildinhalte ist extrem komplex. Würde man versuchen, nur 50% der im laufe der Zeit entstandenen Techniken, Effekte und deren mathematische Hintergründe zu erklären, könnte man damit inzwischen mehrere Bücher füllen. Sinn und Zweck dieses Dokumentes war es jedoch, nur einen Überblick über moderne Grafikkarten und 3D-Grafik zu vermitteln. Im Anhang befinden sich noch ein paar Bilder, die Ausblicke auf aktuelle und kommende Spiele Zeigen, sowie eine Liste an Internetadressen, deren Informationen für die Erstellung dieses Dokumentes verwendet wurden. 5. Informationsquellen 3D-Lexikon: 3D-Pipeline: ATI 3D-Demos: Nvidia History: Technik & Tests: Seminar über GPUs / 3D-Effekte: Grafikkarten und Grafikchips im Überblick: Heise News: Grafikchips berechnen Soundeffekte: Ageia PhysX: Physikprozessoren sollen die CPU in Zukunft entlasten:

15 6. Anhang 6.1 Depth of Field 6.2 Übersicht über die Grafikchips von Die Nachfolgende Tabelle gibt einen Überblick über den Werdegang der verschiedenen Grafikchips von denen einige im vorherigen Abschnitt schon kurz erwähnt wurden. Karte Chip erschienen Fertigung Komplexität 3D-API Schnittstelle ATI 3D Rage II nm - - PCI 3Dfx Voodoo 1 SST1 Ende nm - Glide PCI Riva 128 NV3 Apr nm 3,5M DirectX PCI/AGP 3Dfx Voodoo 2 - Anfang nm - Glide PCI Riva TNT NV4 Mrz nm 7M DirectX 6.0 PCI/AGP ATI Rage Feb nm 8M DirectX 6.0 PCI/AGP Riva TNT2 NV5 Mai nm 15M DirectX 6.0 PCI/AGP 3Dfx Voodoo Frühjahr nm - Glide AGP GeForce 256 NV10 Aug nm 23M DirectX 7.0 PCI/AGP Geforce 2 GTS NV15 Apr nm 25M DirectX 7.0 AGP ATI Radeon R100 Apr nm 23M DirectX 7.0 PCI/AGP 3Dfx Voodoo 5500 VSA-100 Mai nm 14M Glide AGP GeForce 3 NV20 Feb nm 57M DirectX 8.0 AGP ATI 8500 R200 Aug nm 60M DirectX 8.1 AGP GeForce 4 NV30 Feb nm 63M DirectX 8.0 AGP ATI 9700 R300 Jul nm 107M DirectX 9.0 AGP Geforce FX 5800 NV30 Jan nm 125M DirectX 9.0 AGP ATI 9800 PRO R350/R360 Mrz nm 115M DirectX 9.0 AGP Geforce FX 5900 NV35 Mai nm 135M DirectX 9.0 AGP Geforce 6800 (Ultra) NV40 Apr nm 222M DirectX 9.0c AGP/PCIe X16 X800 XT R420 Mai nm 160M DirectX 9.0 AGP/PCIe X16 X1800XT R520 Sep 05 90nm 321M DirectX 9.0c PCIe X16 Geforce 7800 GTX 512 G70 Nov nm 302M DirectX 9.0c PCIe X16 15

16 Karte VSU VS PP / TP PS Prozessor (MHz) Füllrate (MTexels/s) Speicherbusbreite Speicher (MHz) ATI 3D Rage II 1-1x MHz SDR 3Dfx Voodoo x bit 50MHz EDO Nvidia Riva x bit 100 MHz SDR 3Dfx Voodoo x bit EDO Nvidia Riva TNT 1-1x bit 110Mhz SDR ATI Rage x bit 103 MHz SDR Nvidia Riva TNT2 1-1x bit 166MHz SDR 3Dfx Voodoo x bit 166MHz SDR Nvidia GeForce TnL 4x bit 150MHz SDR / DDR Nvidia Geforce 2 GTS 1 TnL 4x bit 166MHz DDR ATI Radeon 1 TnL 2x bit 183MHZ DDR 3Dfx Voodoo x1x bit 166MHz SDR Nvidia GeForce x bit 230 MHz DDR ATI x bit 275MHz DDR Nvidia GeForce x bit 325 MHz DDR ATI x bit 270 MHz DDR Geforce FX x bit 500 MHz DDR II ATI 9800 PRO x bit 350MHz DDR II Geforce FX 5900 (Ultra) x bit (4x64bit) 425 MHz DDR Geforce 6800 (Ultra) x bit (4x64bit) 550 MHz GDDR III X800 XT x bit 500 MHz GDDR III X1800XT x bit 750MHz GDDR III Geforce 7800 GTX x bit (4x64bit) 850MHz GDDR III VSU VS PP TP PS = Vertex Shader Einheiten = Vertex Shader Version = Pixel Pipleines (Begriffserklärung folgt später) = Texture Pipelines = Pixel Shader Version Anmerkung: Wie man aus der oberen Tabelle erkennen kann, so wurden mit der Einführung des Pixel Shaders die zusätzlichen Texture Pipelines unnötig, wurden allerdings noch eine Zeit lang weiter verbaut um die Kompatibilität bezüglich der Geschwindigkeit bei älteren Spielen zu gewährleisten. Diese verwendeten oftmals eine zweite Textur um Lichteffekte zu simulieren weswegen sich ohne die zweite Textureinheit die Leistung der Grafikkarte halbiert hätte. 6.3 Die 3D- Pipeline Vertex Shader (6 parallel) Pixel Shader (16 parallel) Speicher (Anbindung) 16

17 6.4. Normal Mapping 6.5. Bilder aus aktuellen Spielen X3 Reunion (Egosoft) 17

18 X3 Reunion (Egosoft) X3 Reunion (Egosoft) 18

19 X3 Reunion (Egosoft) X3 Reunion (Egosoft) 19

20 X3 Reunion (Egosoft) 20

21 Unreal 3 (Epic Megagames) Unreal 3 (Epic Megagames) 21

22 Unreal 3 (Epic Megagames) Unreal 3 (Epic Megagames) 22

23 Unreal 3 (Epic Megagames) Unreal 3 (Epic Megagames) 23

24 Unreal 3 (Epic Megagames) 24

25 Unreal 3 (Epic Megagames) 25

26 Unreal 3 (Epic Megagames) 26

Georg Molzer 1HDD 3D-Grafikkarten GDV-Hardware

Georg Molzer 1HDD 3D-Grafikkarten GDV-Hardware 3D-GRAFIKKARTEN Einleitung: 3D-Grafikkarten haben in erster Linie den Zweck, den Hauptprozessor beim Darstellen aufwendiger dreidimensionaler Szenarien zu entlasten. Sie übernehmen dabei einen Großteil

Mehr

Grundlagen der Spieleprogrammierung

Grundlagen der Spieleprogrammierung Grundlagen der Spieleprogrammierung Teil I: 3D-Graphik Kapitel 8: Hardware Peter Sturm Universität Trier Outline 1. Übersicht und Motivation 2. Mathematische Grundlagen 3. Das Ideal: Photorealistisch (Raytracing,

Mehr

3D-Grafik-Chips. Informatik-Seminar Michael R. Albertin. Betreuer: E. Glatz

3D-Grafik-Chips. Informatik-Seminar Michael R. Albertin. Betreuer: E. Glatz 3D-Grafik-Chips Informatik-Seminar Michael R. Albertin Betreuer: E. Glatz Übersicht Übersicht Ziel Einleitung Chipgrundlagen Funktionen Benchmarks Schluss Ziel Grundlegende Techniken kennen Chips unterscheiden

Mehr

Shader. Computer Graphics: Shader

Shader. Computer Graphics: Shader Computer Graphics Computer Graphics Shader Computer Graphics: Shader Inhalt Pipeline Memory Resources Input-Assembler Vertex-Shader Geometry-Shader & Stream-Output Rasterizer Pixel-Shader Output-Merger

Mehr

Christina Nell. 3D-Computergrafik

Christina Nell. 3D-Computergrafik Christina Nell 3D-Computergrafik Was ist 3D-Computergrafik? 3D graphics is the art of cheating without getting caught. (unbekannte Quelle) Folie 2/52 Inhalt Beleuchtung Shading Texturierung Texturfilterung

Mehr

Probelektion zum Thema. Shadow Rendering. Shadow Maps Shadow Filtering

Probelektion zum Thema. Shadow Rendering. Shadow Maps Shadow Filtering Probelektion zum Thema Shadow Rendering Shadow Maps Shadow Filtering Renderman, 2006 CityEngine 2011 Viewport Real reconstruction in Windisch, 2013 Schatten bringen viel Realismus in eine Szene Schatten

Mehr

Die Welt der Shader. Fortgeschrittene Techniken III

Die Welt der Shader. Fortgeschrittene Techniken III Die Welt der Shader Fortgeschrittene Techniken III Universität zu Köln WS 14/15 Softwaretechnologie II (Teil 1) Prof. Dr. Manfred Thaller Referent: Lukas Kley Gliederung 1. Was ist ein Shader? 2. Verschiedene

Mehr

Beleuchtung. in Computerspielen

Beleuchtung. in Computerspielen Beleuchtung in Computerspielen Motivation Überblick Licht und Schattierung Lichtquellen Lokale Beleuchtungsmodelle Schattierungsverfahren Oberflächensimulation Beispiele der CryEngine Ausblick Zusammenfassung

Mehr

Programmierpraktikum 3D Computer Grafik

Programmierpraktikum 3D Computer Grafik Dipl.Inf. Otmar Hilliges Programmierpraktikum 3D Computer Grafik Dynamische Schattenberechnung Agenda Der Stencil-Buffer Der 1-bit Stencil-Buffer Der 8-bit Stencil-Buffer Volumetrische Echtzeitschatten

Mehr

Schattenwurf mit Perspective Shadow Maps

Schattenwurf mit Perspective Shadow Maps 16. April 2010 Xpiriax Software Wer wir sind und was wir machen Hobby-Entwicklerteam, zur Zeit 6 Personen gegründet Anfang 2008 Schwerpunkte: Spiele- & 3D-Engine-Programmierung Ziele: Erfahrung, Arbeitsproben,

Mehr

3D Programmierpraktikum: Schattenberechnung in Echtzeit

3D Programmierpraktikum: Schattenberechnung in Echtzeit 3D Programmierpraktikum: Schattenberechnung in Echtzeit Praktikum 3D Programmierung Sebastian Boring, Otmar Hilliges Donnerstag, 20. Juli 2006 LMU München Medieninformatik Boring/Hilliges 3D Programmierpraktikum

Mehr

Diplomarbeit. Neue Möglichkeiten durch programmierbare Shader. Unter der Leitung von: Prof. Dr.-Ing. Detlef Krömker

Diplomarbeit. Neue Möglichkeiten durch programmierbare Shader. Unter der Leitung von: Prof. Dr.-Ing. Detlef Krömker Diplomarbeit 5HDO7LPH6SHFLDO (IIHFWV Neue Möglichkeiten durch programmierbare Shader Unter der Leitung von: Prof. Dr.-Ing. Detlef Krömker Betreut von: Paul Grimm, Ralf Dörner Beginn: 01.04.02 Abgabe: 30.09.02

Mehr

HLSL PostProcess Shaders

HLSL PostProcess Shaders HLSL Advanced 1 HLSL PostProcess Shaders Einführung PostProcess Effekte werden erst nach dem Rendern aller Objekte angewandt, nämlich auf das Render-Target (daher der Name). Das Spektrum der Möglichkeiten

Mehr

Programmierpraktikum 3D Computer Grafik

Programmierpraktikum 3D Computer Grafik Prof. Andreas Butz, Dipl.Inf. Otmar Hilliges Programmierpraktikum 3D Computer Grafik Dynamische Schattenberechnung Agenda Der Stencil-Puffer Der 1-bit Stencil-Puffer Der 8-bit Stencil-Puffer Volumetrische

Mehr

Modellierung. Oliver Hartmann

Modellierung. Oliver Hartmann Modellierung Oliver Hartmann oliver.hartmann@uni-ulm.de Inhalt Boolesche Operationen Splines B-Splines Bezier-Kurven NURBS Anwendung Sculpting Volumengrafik Marching Cubes Ray Casting Texture Mapping Boolesche

Mehr

5 Mapping-Techniken. 5.1 Motivation

5 Mapping-Techniken. 5.1 Motivation 5.1 Motivation Bisher sind alle Oberflächen (polygonale Objekte, später auch parametrisierte Freiformflächen) glatt im Gegensatz zu wirklich existierenden natürlichen Oberflächen. Die explizite Wiedergabe

Mehr

Adaptives Displacement Mapping unter Verwendung von Geometrieshadern

Adaptives Displacement Mapping unter Verwendung von Geometrieshadern Fakultät Informatik Institut für Software- und Multimediatechnik, Professur für Computergraphik und Visualisierung Adaptives Displacement Mapping unter Verwendung von Geometrieshadern Diplomarbeit Timo

Mehr

Architektur moderner GPUs. W. Sczygiol - M. Lötsch

Architektur moderner GPUs. W. Sczygiol - M. Lötsch Architektur moderner GPUs W. Sczygiol - M. Lötsch Überblick Chipentwicklung Aktuelle Designs Nvidia: NV40 (ATI: R420) Vertex-Shader Pixel-Shader Shader-Programmierung ROP - Antialiasing Ausblick Referenzen

Mehr

Kapitel 4: Schattenberechnung

Kapitel 4: Schattenberechnung Kapitel 4: Schattenberechnung 1 Überblick: Schattenberechnung Motivation Schattenvolumen Shadow Maps Projektive Schatten 2 Motivation Wesentlich für die Wahrnehmung einer 3D-Szene Eigentlich ein globaler

Mehr

Tools und Techniken. Gängige Arbeitsabläufe. Ein Gesicht formen

Tools und Techniken. Gängige Arbeitsabläufe. Ein Gesicht formen 1 1 1 1 1 1 1 1 Tools und Techniken Gängige Arbeitsabläufe Ein Gesicht formen In diesem Kapitel gebe ich besonders Einsteigern einen Überblick über den Einsatz gängiger Softwarewerkzeuge. Anhand von kurzen

Mehr

Beleuchtungsmodelle und Shading

Beleuchtungsmodelle und Shading Beleuchtungsmodelle und Shading Andreas Spillner Computergrafik, WS 2018/2019 Ziel der Modellierung von Beleuchtung Baut auf dem Kapitel zu Licht und Farben auf. In die 3D-Szene werden Lichtquellen eingebracht.

Mehr

3.5 Methode des gleitenden Horizonts

3.5 Methode des gleitenden Horizonts 3.5 Methode des gleitenden Horizonts Für Flächen die durch eine Gleichung F (x, y, z) = 0 gegeben sind, lässt sich die Methode des gleitenden Horizonts anwenden. Dabei werden die sichtbaren Teile der Schnitte

Mehr

Rendering: Lighting and Shading

Rendering: Lighting and Shading Rendering: Lighting and Shading Hauptseminar: How to make a Pixar Movie Inhalt Einführung Was ist Rendering Was ist Reflexionsmodelle Lighting Shading Globale Beleuchtungsmodelle Zusammenfassung 2/53 Inhalt

Mehr

Hyrican Striker PA70 einfach starke Leistung!

Hyrican Striker PA70 einfach starke Leistung! Hyrican Striker PA70 einfach starke Leistung! Hyrican Gaming Notebooks bieten höchste Performance und sind speziell für den Gaming-Einsatz konzipert. Der reflexionsarme 17,3 Zoll große Full-HD-Bildschirm

Mehr

In welchen Tiefen die verschiedenen Farben verschwinden veranschaulicht uns die folgende Grafik.

In welchen Tiefen die verschiedenen Farben verschwinden veranschaulicht uns die folgende Grafik. Sehen unter Wasser Durch verschiedene Umstände ist das Sehen unter Wasser anders als über Wasser. Wie sich das auf das Tauchen auswirkt und welche Mittel wir verwenden, um dies so gut wie möglich auszugleichen,

Mehr

BlendaX Grundlagen der Computergrafik

BlendaX Grundlagen der Computergrafik BlendaX Grundlagen der Computergrafik Beleuchtungsmodelle (Reflection Models) 16.11.2007 BlendaX Grundlagen der Computergrafik 1 Rendering von Polygonen Der Renderingprozess lässt sich grob in folgende

Mehr

Grafikkarten-Architektur

Grafikkarten-Architektur > Grafikkarten-Architektur Parallele Strukturen in der GPU Name: Sebastian Albers E-Mail: s.albers@wwu.de 2 > Inhalt > CPU und GPU im Vergleich > Rendering-Pipeline > Shader > GPGPU > Nvidia Tesla-Architektur

Mehr

AORUS Gaming. Hier ist der Name Programm.

AORUS Gaming. Hier ist der Name Programm. AORUS Gaming Hier ist der Name Programm. Hochwertige AORUS-Komponenten und edelste AORUS-Peripherie bilden das Gerüst für diesen HighEnd-Gaming-PC. In Partnerschaft mit GIGABYTE haben wir die AORUS Gaming

Mehr

Computer Graphics Shader

Computer Graphics Shader Computer Graphics Shader Sven Janusch Inhalt Fixed Function Pipeline Programmable Pipeline Implementierung Applikation Beispiel Sven Janusch 2 Fixed Function Pipeline T&L Pipeline (Transformation and Lighting)

Mehr

Bildbearbeitung und Texturierung

Bildbearbeitung und Texturierung Ulf Döring, Markus Färber 07.03.2011 1. Anti-Aliasing (a) Wodurch entsteht der Aliasing-Effekt bei der Rasterisierung einer Linie? (b) Wie kann der Aliasing-Effekt durch Supersampling mit nachträglichem

Mehr

Techniken der Effizienzsteigerung bei 2D-Texturierung:

Techniken der Effizienzsteigerung bei 2D-Texturierung: Techniken der Effizienzsteigerung bei 2D-Texturierung: Mip-Mapping MIP = "Multum in Parvo" = vieles auf kleinem Raum spezielle Texture-Mapping-Erweiterung, häufig bei Echtzeitanwendungen, z.b. Spielen,

Mehr

Thema: Hardware-Shader

Thema: Hardware-Shader Seminar Grafikprogrammierung Thema: Hardware-Shader Christian Bauer 03.07.08 Überblick Entwicklung Die Shader im Detail Programmierung GPGPU Zusammenfassung & Ausblick 1/19 Entwicklung (1) Früher: Berechnung

Mehr

Game Engine Architecture and Development. Effekte (Sound, Partikel, Physik)

Game Engine Architecture and Development. Effekte (Sound, Partikel, Physik) Game Engine Architecture and Development Effekte (Sound, Partikel, Physik) Wer hat schon was? Sound s Soundsysteme Einfach zu benutzen Leveldesigner müssen sehr einfach Sounds hinzufügen können (Gamplay

Mehr

Ansätze 4. GPU. Echtzeit- Raytracing. Polygon- Rendering. Computerspiele Sommer (c) 2013, Peter Sturm, Universität Trier 1

Ansätze 4. GPU. Echtzeit- Raytracing. Polygon- Rendering. Computerspiele Sommer (c) 2013, Peter Sturm, Universität Trier 1 4. GPU Ansätze Echtzeit- Raytracing Modell und Materialeigenschaften auf Raytracer Kontinuierliche Darstellung Polygon- Rendering CPU wählt darzustellende Polygone aus Render Pipeline (c) 2013, Peter Sturm,

Mehr

3D - Modellierung. Arne Theß. Proseminar Computergraphik TU Dresden

3D - Modellierung. Arne Theß. Proseminar Computergraphik TU Dresden 3D - Modellierung Arne Theß Proseminar Computergraphik TU Dresden Gliederung Darstellungsschemata direkte Constructive Solid Geometry (CSG) Generative Modellierung Voxelgitter indirekte Drahtgittermodell

Mehr

Speicherkonzepte von Pixel- und Vektorgrafik

Speicherkonzepte von Pixel- und Vektorgrafik Speicherkonzepte von Pixel- und Vektorgrafik Jahrgangsstufen Lernbereich 1: Modul 1.5 Stand: 20.01.2016 Fach/Fächer Zeitrahmen Benötigtes Material Informationstechnologie 1 Unterrichtsstunde Legoplatten

Mehr

Real-Time High-Dynamic Range Texture Mapping

Real-Time High-Dynamic Range Texture Mapping Real-Time High-Dynamic Range Texture Mapping Jonathen Cohen, Chris Tchou, Tim Hawkins and Paul Debevec Präsentiert von Daniel Wickeroth Einführung Worum geht s? Darstellung realistischer Szenen Innen -

Mehr

1.2 Dateiformate. max. 1,5 MB / Sekunde o Bild Sequenzen für alle in Schleife abzuspielenden Videos: BMP, PNG, JPG. bis zu 1.

1.2 Dateiformate. max. 1,5 MB / Sekunde o Bild Sequenzen für alle in Schleife abzuspielenden Videos: BMP, PNG, JPG. bis zu 1. Seite 1 von 7 Die ARTMOS GmbH bietet Ihnen an, inspirierende und eindrucksvolle Animationen für die LED Kugel zu erstellen. Sollten Sie sich entscheiden diesen Service in Anspruch zu nehmen, wird ARTMOS

Mehr

Hyrican Elegance. Innovation, Zuverlässigkeit und Design. Zeitlos elegantes Design mit rahmenlosem Hartglas-Seitenfenster

Hyrican Elegance. Innovation, Zuverlässigkeit und Design. Zeitlos elegantes Design mit rahmenlosem Hartglas-Seitenfenster Hyrican Elegance Innovation, Zuverlässigkeit und Design Zeitlos elegantes Design mit rahmenlosem Hartglas-Seitenfenster Der Hyrican Elegance vereint moderne Optik mit einer edel anmutenden Ästhetik. Das

Mehr

Interaktives Wasser in 3D. Jörn Loviscach Hochschule Bremen

Interaktives Wasser in 3D. Jörn Loviscach Hochschule Bremen Interaktives Wasser in 3D Jörn Loviscach Hochschule Bremen Ringwellen (Kapillar- und Schwerewellen) Kelvin-Schiffswellen Reflexionen von Himmel (Frensel-Effekt) und Sonne Kaustiken mit korrekten Schatten

Mehr

Hyrican Striker PC. Gönne dir mehr von allem was wichtig ist. Überragende Leistung für Gaming, Freizeit und vieles mehr!

Hyrican Striker PC. Gönne dir mehr von allem was wichtig ist. Überragende Leistung für Gaming, Freizeit und vieles mehr! Hyrican Striker PC Gönne dir mehr von allem was wichtig ist. Überragende Leistung für Gaming, Freizeit und vieles mehr! Wähle deinen Look Unübersehbar ist das neue Design mit farbiger LED-Beleuchtung*

Mehr

Teil 7: Beleuchtung Beleuchtungsmodelle, Schattierungsmodelle

Teil 7: Beleuchtung Beleuchtungsmodelle, Schattierungsmodelle Beleuchtungsmodelle, Schattierungsmodelle Einleitung Beleuchtung vs. Schattierung Beleuchtung: Modell auswerten (anschl.) global vs. lokal phsikalisch (photo-realistisch?) vs. empirisch Phong-Modell Schattierung:

Mehr

Hyrican Crystal. Perfekte Kombination aus Glas und LEDs. RGB-Beleuchtung. Design. mit Farbwechsel. Stahl und getöntes Hartglas

Hyrican Crystal. Perfekte Kombination aus Glas und LEDs. RGB-Beleuchtung. Design. mit Farbwechsel. Stahl und getöntes Hartglas Hyrican Crystal Perfekte Kombination aus Glas und LEDs RGB-Beleuchtung mit Farbwechsel Design Stahl und getöntes Hartglas Genieße die fantastische RGB-Beleuchtung durch das gehärtete Glas des Front- und

Mehr

Echtzeitfähige hige Verfahren in der Computergrafik. Lehrstuhl für f r Informatik Computer Grafik und Visualisierung TUM

Echtzeitfähige hige Verfahren in der Computergrafik. Lehrstuhl für f r Informatik Computer Grafik und Visualisierung TUM Echtzeitfähige hige Verfahren in der Computergrafik Prof. Dr. Rüdiger R Westermann Lehrstuhl für f r Informatik Computer Grafik und Visualisierung TUM Lehr- und Forschungsinhalte Visualisierung Darstellung

Mehr

RST-Labor WS06/07 GPGPU. General Purpose Computation On Graphics Processing Units. (Grafikkarten-Programmierung) Von: Marc Blunck

RST-Labor WS06/07 GPGPU. General Purpose Computation On Graphics Processing Units. (Grafikkarten-Programmierung) Von: Marc Blunck RST-Labor WS06/07 GPGPU General Purpose Computation On Graphics Processing Units (Grafikkarten-Programmierung) Von: Marc Blunck Ablauf Einführung GPGPU Die GPU GPU Architektur Die Programmierung Programme

Mehr

Distributed Algorithms. Image and Video Processing

Distributed Algorithms. Image and Video Processing Chapter 7 High Dynamic Range (HDR) Distributed Algorithms for Quelle: wikipedia.org 2 1 High Dynamic Range bezeichnet ein hohes Kontrastverhältnis in einem Bild Kontrastverhältnis bei digitalem Bild: 1.000:1

Mehr

MSI Dragon Edition. Das must have für MSI-Fans und anspruchsvolle Gamer. Erwecke den Drachen!

MSI Dragon Edition. Das must have für MSI-Fans und anspruchsvolle Gamer. Erwecke den Drachen! MSI Dragon Edition Das must have für MSI-Fans und anspruchsvolle Gamer Erwecke den Drachen! Die neuen Dragon-Edition-PCs sehen nicht nur stark aus, sondern sind das ultimative must have für MSI-Fans sowie

Mehr

Hotline-Information / FAQ

Hotline-Information / FAQ Hotline-Information / FAQ Thema: Animationsfenster & Performanceprobleme Datum: 14.12.2009 Programme: Allplan 2008 Allplan 2006 Allplan 2005 Allplan 2004 Dokument-ID: 0003F4E2 Internet: http://serviceplus.nemetschek.de/hotline/faq.nsf/link/cad_0003f4e2.html

Mehr

Einbeziehung von Elementen der 3D-Computergrafik in den Mathematikunterricht der Sekundarstufe II im Stoffgebiet Analytische Geometrie

Einbeziehung von Elementen der 3D-Computergrafik in den Mathematikunterricht der Sekundarstufe II im Stoffgebiet Analytische Geometrie Andreas Filler Einbeziehung von Elementen der 3D-Computergrafik in den Mathematikunterricht der Sekundarstufe II im Stoffgebiet Analytische Geometrie (Habilitationsschrift) Farbige Abbildungen Dieses Dokument

Mehr

PhysX Evaluation. Softwarepraktikum Computergraphik. Daniel Brock, Robert Kreuzer, Simon Kufner. 5. Juli 2010

PhysX Evaluation. Softwarepraktikum Computergraphik. Daniel Brock, Robert Kreuzer, Simon Kufner. 5. Juli 2010 PhysX Evaluation Softwarepraktikum Computergraphik Daniel Brock, Robert Kreuzer, Simon Kufner 5. Juli 2010 Daniel Brock, Robert Kreuzer, Simon Kufner () PhysX Evaluation 5. Juli 2010 1 / 17 1 Aufgabenstellung

Mehr

Eine Sandwüste malen. Arbeitsschritte

Eine Sandwüste malen. Arbeitsschritte Dies ist eine Anleitung der Künstlerin und Autorin Efyriel von Tierstein (kurz: EvT) Die Anleitung ist nur für den privaten Gebrauch gedacht und EvT übernimmt keine Garantien dafür, dass eine Arbeit nach

Mehr

Hyrican Military Gaming

Hyrican Military Gaming Hyrican Military Gaming LASST DIE SPIELE BEGINNEN! Robust, stabil und solide Military-Gaming-Systeme bieten die perfekte Ausstattung für Gamer, die keine Kompromisse für ihre Gaming-Leistung eingehen wollen.

Mehr

3.6 Schattenberechnung

3.6 Schattenberechnung 3.6 Schattenberechnung Schatten sind für die realistische Darstellung von Szenerien sehr wichtig, da der Mensch aus dem Alltag gewohnt ist, Schatten zu sehen, so dass Bilder ohne Schatten sehr unnatürlich

Mehr

Farbtiefe. Gängige Farbtiefen

Farbtiefe. Gängige Farbtiefen Farbtiefe Die Anzahl der darstellbaren Farben ist abhängig von den Farbabstufungen, die in einem Pixel gespeichert werden. Die Anzahl der darstellbaren Farbtöne wird als Farbtiefe bezeichnet. Die Farbtiefe

Mehr

Komplexpraktikum Graphische Datenverarbeitung im WS 04/05

Komplexpraktikum Graphische Datenverarbeitung im WS 04/05 Komplexpraktikum Graphische Datenverarbeitung im WS 04/05 von Enrico Leonhardt 28 45 669 TU Dresden Medieninformatik 29. März 2005 Graphische Datenverarbeitung WS 04/05 Einführung Dieser Raytracer entstand

Mehr

Jörn Loviscach Hochschule Bremen

Jörn Loviscach Hochschule Bremen Programmierbare Hardware-Shader Jörn Loviscach Hochschule Bremen Überblick Vertex- und Pixel-Shader Anwendungsbeispiele fx-dateien Anwendungsbeispiele Zusammenfassung Puffer Vertex- und Pixel-Shader Hardware-Renderpipeline

Mehr

Shader kreativ Scharfe Texturen, Bewegungsunschärfe und Stofffalten Jörn Loviscach Hochschule Bremen jlovisca@informatik.hs-bremen.de www.l7h.cn Einführung Standardanwendungen für aktuelle Grafikhardware:

Mehr

4.4 Glättung von Kanten

4.4 Glättung von Kanten 4.4 Glättung von Kanten Es wurden verschiedene Aspekte zur Beleuchtung von Modellen und Szenen vorgestellt. Es gibt zwei Arten von Licht, das Hintergrundlicht und Licht von Lichtquellen, wobei hier zu

Mehr

Speziell-Relativistischer (Flug-) Simulator

Speziell-Relativistischer (Flug-) Simulator Visualisierungsinstitut Universität Stuttgart Speziell-Relativistischer (Flug-) Simulator Wolfgang Knopki, Anton Tsoulos 09. Januar 2015 Wolfgang Knopki, Anton Tsoulos Speziell-Relativistischer (Flug-)

Mehr

Graphische Datenverarbeitung und Bildverarbeitung

Graphische Datenverarbeitung und Bildverarbeitung Graphische Datenverarbeitung und Bildverarbeitung Hochschule Niederrhein Schattenberechnung Graphische DV und BV, Regina Pohle, 23. Schattenberechnung 1 Einordnung in die Inhalte der Vorlesung Einführung

Mehr

SS08, LS12, Friedrich-Alexander-Universität Erlangen Florian Hänel, Frederic Pollmann HS Multicore Architectures and Programming GPU EVOLUTION

SS08, LS12, Friedrich-Alexander-Universität Erlangen Florian Hänel, Frederic Pollmann HS Multicore Architectures and Programming GPU EVOLUTION SS08, LS12, Friedrich-Alexander-Universität Erlangen Florian Hänel, Frederic Pollmann HS Multicore Architectures and Programming GPU EVOLUTION (until Geforce 7 Series) 1 ÜBERSICHT Grafikpipeline Verlagerung

Mehr

GPU Programmierung 6. Juli 2004 M. Christen, T. Egartner, P. Zanoni

GPU Programmierung 6. Juli 2004 M. Christen, T. Egartner, P. Zanoni GPU Programmierung 6. Juli 2004 M. Christen, T. Egartner, P. Zanoni 1 Ablauf GPU Programm Vertex und Fragment Shader 2 3 4 5 Image Processing 6 Ablauf GPU Programm Ablauf GPU Programm Vertex und Fragment

Mehr

Workshop 3 - Erstellen von Werbeunterlagen

Workshop 3 - Erstellen von Werbeunterlagen Workshop 3 - Erstellen von Werbeunterlagen Bei diesem Workshop werden Möglichkeiten und Techniken gezeigt, mit deren Hilfe ihre cadwork-projekte ansprechend präsentiert und ausgegeben werden können. Folgende

Mehr

CCD-Chip und CCD-Kamera Volker-James Münchhof

CCD-Chip und CCD-Kamera Volker-James Münchhof CCD-Chip und CCD-Kamera Volker-James Münchhof Wird ein Wassereimer in den Regen gestellt, kann darin Regenwasser gesammelt werden. Die Menge des im Eimer gesammelten Wassers richtet sich dabei nach dem

Mehr

Licht und Farben. Andreas Spillner. Computergrafik, WS 2018/2019

Licht und Farben. Andreas Spillner. Computergrafik, WS 2018/2019 Licht und Farben Andreas Spillner Computergrafik, WS 2018/2019 Farbwahrnehmung des Menschen im Auge Das Verständnis, wie Farbeindrücke entstehen, ist ein wesentlicher Bestandteil der Computergrafik. Der

Mehr

Beleuchtung Schattierung Rasterung

Beleuchtung Schattierung Rasterung Beleuchtung Schattierung Rasterung Thomas Jung t.jung@htw-berlin.de Beleuchtung, Schattierung und Rasterung in allen Echtzeit-3D-Umgebungen gleich OpenGL Direct3D 3dsmax,... Letzter Bestandteil der Grafikpipeline

Mehr

Arbeiten mit Auswahlwerkzeugen

Arbeiten mit Auswahlwerkzeugen Arbeiten mit Auswahlwerkzeugen Kennen Sie das auch: Bei der Bearbeitung eines Bildes möchten Sie nur den Himmel verändern, oder einen bestimmten Teil in Schwarz-Weiß umwandeln? Sie denken, das können nur

Mehr

RENDERING. Cobalt Xenon Argon. mit Ashlar-Vellum. www.arnold-cad.com

RENDERING. Cobalt Xenon Argon. mit Ashlar-Vellum. www.arnold-cad.com RENDERING mit Ashlar-Vellum Cobalt Xenon Argon www.arnold-cad.com Erstellen photorealistischer Darstellungen Erstellen Sie Ihre Welt! Modellier Tips für mehr Realität Hintergrund und Szene Betrachtung

Mehr

Übungsblatt 10: Klausurvorbereitung

Übungsblatt 10: Klausurvorbereitung Übungsblatt 10: Klausurvorbereitung Abgabe: Dieses spezielle Übungsblatt hat keine Abgabefrist und wird auch nicht korrigiert. Die Lösung gibt es wie immer auf der Homepage der Vorlesung oder in den Übungen

Mehr

Grundlagen der Spieleprogrammierung

Grundlagen der Spieleprogrammierung Grundlagen der Spieleprogrammierung Teil I: 3D-Graphik Kapitel 3: Das Ideal - Photorealistisch Peter Sturm Universität Trier Outline 1. Übersicht und Motivation 2. Mathematische Grundlagen 3. Das Ideal:

Mehr

3D-Modellierungsprogramme

3D-Modellierungsprogramme 06.06.06 Bastian Schildbach 3D-Modellierungsprogramme mit Gliederung 1. Grundlagen Texture Mapping, Texturkoordinaten, Vertices, Texturaddressierung 2. Mapping-Techniken Bump, Displacement, Normal, Two-Part,

Mehr

(7) Normal Mapping. Vorlesung Computergraphik II S. Müller. Dank an Stefan Rilling U N I V E R S I T Ä T KOBLENZ LANDAU

(7) Normal Mapping. Vorlesung Computergraphik II S. Müller. Dank an Stefan Rilling U N I V E R S I T Ä T KOBLENZ LANDAU (7) Normal Mapping Vorlesung Computergraphik II S. Müller Dank an Stefan Rilling Einleitung Die Welt ist voller Details Viele Details treten in Form von Oberflächendetails auf S. Müller - 3 - Darstellung

Mehr

KAPITEL Füllmethoden von Ebenen 493. Zebra.tif

KAPITEL Füllmethoden von Ebenen 493. Zebra.tif 31 Füllmethoden von Ebenen KAPITEL 31 Bisher haben Sie sich bei der Verwendung von Ebenen ganz auf die richtige Reihenfolge und auf die Ebenenmasken verlassen. Alles, was über einer Ebene liegt, verdeckt

Mehr

Spieleprogrammierung mit DirectX und C++

Spieleprogrammierung mit DirectX und C++ Ulrich Kaiser, Philipp Lensing Spieleprogrammierung mit DirectX und C++ 2D-, 3D- und Netzwerkspiele, viele Spezialeffekte Galileo Press Einleitung 11 Danksagung 13 Vorwort zur zweiten Auflage 14 1 Vorbereitung

Mehr

Aufbruch in neue Dimensionen

Aufbruch in neue Dimensionen D3kjd3Di38lk323nnm Aufbruch in neue Dimensionen 3D-Collagen in Photoshop Cyrill Harnischmacher [ 63 ] 3D liegt im Trend, ob im Kino oder in der Fotografie. Aber nicht immer möchte man den Aufwand betreiben,

Mehr

2.1. Konvexe Hülle in 2D

2.1. Konvexe Hülle in 2D Wir wollen die konvexe Hülle einer Menge von Punkten P = {p 1,..., p n } in der Ebene R 2 bestimmen. y y x x Def. 21: Eine Teilmenge S der Ebene ist konvex gdw für jedes Paar das Liniensegment pq in S

Mehr

Echtzeit Videoverarbeitung

Echtzeit Videoverarbeitung Erzeugung von 3D Darstellungen Herbert Thoma Seite 1 Gliederung 3D Transformationen Sichtbarkeit von 3D Objekten Beleuchtung Texturen Beispiele: SGI Infinite Reality 2, PC 3D Hardware Seite 2 3D Transformationen

Mehr

Wima-Praktikum 2: Bildsynthese-Phong

Wima-Praktikum 2: Bildsynthese-Phong Wima-Praktikum 2: Bildsynthese-Phong Wima-Praktikum 2: Prof. Dr. Lebiedz, M. Sc. Radic 1 Inhaltsverzeichnis 1 Einleitung 3 2 Kurze Beschreibung der Aufgabenstellung und dem Phong- Modell 3 3 Modellierung

Mehr

Grafikprozessor Grafikspeicher Taktung Kühlung Schnittstellen Ausgänge Treiber Crossfire & SLI ATI Nvidia Matrox PowerVR Technologies Inhaltsverzeichn

Grafikprozessor Grafikspeicher Taktung Kühlung Schnittstellen Ausgänge Treiber Crossfire & SLI ATI Nvidia Matrox PowerVR Technologies Inhaltsverzeichn Grafikprozessor Grafikspeicher Taktung Kühlung Schnittstellen Ausgänge Treiber Crossfire & SLI ATI Nvidia Matrox PowerVR Technologies Inhaltsverzeichnis Grafikprozessor Der Grafikprozessor dient zur Berechnung

Mehr

3D Rendering mit PHP. Die neue PEAR-Klasse Image_3D bietet die Möglichkeit nur mit PHP5 3DGrafiken zu rendern

3D Rendering mit PHP. Die neue PEAR-Klasse Image_3D bietet die Möglichkeit nur mit PHP5 3DGrafiken zu rendern 3D Rendering mit PHP Die neue PEAR-Klasse Image_3D bietet die Möglichkeit nur mit PHP5 3DGrafiken zu rendern Speaker Kore Nordmann Studiert Informatik an der Universität Dortmund Arbeitet als Software

Mehr

Computergrafik Universität Osnabrück, Henning Wenke,

Computergrafik Universität Osnabrück, Henning Wenke, Computergrafik Universität Osnabrück, Henning Wenke, 2012-05-14 Kapitel V: Modeling Transformation & Vertex Shader 5.1 Vertex Definitionen: Vertex Vertex Computergrafik Mathematischer Punkt auf einer Oberfläche

Mehr

Untersuchung und Vorstellung moderner Grafikchiparchitekturen

Untersuchung und Vorstellung moderner Grafikchiparchitekturen Fakultät Informatik, Institut für Technische Informatik, Professur für VLSI-Entwurfssysteme, Diagnostik und Architektur Untersuchung und Vorstellung moderner Grafikchiparchitekturen Hauptseminar Technische

Mehr

Arbeiten mit Transparenzen in tango Studio

Arbeiten mit Transparenzen in tango Studio Alles was Sie wissen sollten...... über den Umgang mit Transparenzen Copyright 2009 MarkStein Software Entwicklungs- und VertriebsGmbH D-64297 Darmstadt tango Studio Arbeiten mit Transparenzen Die Transparenzmöglichkeiten

Mehr

HDR-Bilder in der Naturfotografie Was ist das? Wozu ist das gut? Wonsheim, 17. November 2007

HDR-Bilder in der Naturfotografie Was ist das? Wozu ist das gut? Wonsheim, 17. November 2007 HDR-Bilder in der Naturfotografie Was ist das? Wozu ist das gut? Wonsheim, 17. November 2007 Gliederung Einführung was ist HDR? verschiedene Möglichkeiten für DRI Belichtungskombination HDR Diskussion

Mehr

4.7 Globale Beleuchtungsmodelle

4.7 Globale Beleuchtungsmodelle Erinnerung: - Ein lokales Beleuchtungsmodell berücksichtigt nur das direkt einfallende Licht einer Lichtquelle - Nur lokale Beleuchtung + konstante ambiente Beleuchtung, um reflektiertes und gebrochenes

Mehr

Visualisierung und Volumenrendering 2

Visualisierung und Volumenrendering 2 Institut für Computervisualistik Universität Koblenz 06.07.2012 Inhaltsverzeichnis 1 Literatur 2 Wiederholung 3 DVR Volumen Literatur Real-Time Volume Graphics Volumenrendering CG Shader Beispiele Volumen

Mehr

Kantengraphen und Planare Graphen. Seminararbeit

Kantengraphen und Planare Graphen. Seminararbeit Kantengraphen und Planare Graphen Seminararbeit in Mathematisches Seminar für LAK 621.378 SS 2018 vorgelegt von Anna Maria Gärtner bei: Baur, Karin, Univ.-Prof. Dr.phil. Graz, 2018 Inhaltsverzeichnis 1

Mehr

A Rechnen mit natürlichen Zahlen. Seite. B Geometrische Grundbegriffe. C Rechnen mit Größen. D Brüche und negative Zahlen.

A Rechnen mit natürlichen Zahlen. Seite. B Geometrische Grundbegriffe. C Rechnen mit Größen. D Brüche und negative Zahlen. A Rechnen mit natürlichen Zahlen Seite 1 Zahlen am Zahlenstrahl... 4 2 Große Zahlen... 5 3 Runden... 6 4 Addition... 7 5 Schriftliche Addition... 8 6 Subtraktion... 9 7 Schriftliche Subtraktion... 10 8

Mehr

3D-Rendering in virtuellen Welten

3D-Rendering in virtuellen Welten 3D-Rendering in virtuellen Welten moderne Darstellungsverfahren Jochen Rondorf Fachbereich Informatik 3. Semester Matrikelnummer: 9000768 Wintersemester 1999/2000 Sankt Augustin, Januar 2000 Inhaltsverzeichnis

Mehr

Für die Camerasettings wurden folgende Einstellungen verwendet:

Für die Camerasettings wurden folgende Einstellungen verwendet: RENDERING Beim rendern einer kompletten Szene kommt es natürlich hauptsächlich auf die Renderdauer an, die durch diverse Faktoren leicht bis ins Unendliche getrieben werden kann. Daher war es von Nöten

Mehr

Grundlagen der Bildbearbeitung

Grundlagen der Bildbearbeitung Grundlagen der Bildbearbeitung Voraussetzungen zur Bildbearbeitung Eingabegeräte Scanner Digitale Kameras Ausgabegeräte Speichermedien Index Voraussetzungen zur Bildbearbeitung Um Bilder auf elektronischem

Mehr

First Check. Referenz Testbild. Technische Beschreibung und Anwendung

First Check. Referenz Testbild. Technische Beschreibung und Anwendung First Check Referenz Testbild Technische Beschreibung und Anwendung Inhaltsverzeichnis: First Check TV Testbild 3 Presseberichte....4-5 Einführung...6 1. Overscan / Bildformat...7 2. Helligkeit. 8 3. Kontrast...9

Mehr

Physikexperiment mit Lochkamera

Physikexperiment mit Lochkamera Physikexperiment mit Lochkamera Neue Schule Zürich 15. Juni 2012 Stapferstrasse 64 Banu Cakar, Pauline Fritsch, Alexandra Schwarz Inhalt Vorwort... 2 Einleitung... 3 Material und Methoden... 4 Vorbereitung/Material...

Mehr

CAUSTICS & GODRAYS. Jacob Skuratovski

CAUSTICS & GODRAYS. Jacob Skuratovski CAUSTICS & GODRAYS Jacob Skuratovski Kaustiken Kaustik, caustic (engl.), Brennlinie, Brennfläche Bereich, in dem Lichtstrahlen gebündelt werden 3 verschiedene Arten Katakaustik Diakaustik Regenbogen Eine

Mehr

Teil 7: Beleuchtung. Einleitung. Einleitung. Beleuchtungsmodelle, Schattierungsmodelle

Teil 7: Beleuchtung. Einleitung. Einleitung. Beleuchtungsmodelle, Schattierungsmodelle Beleuchtungsmodelle, Schattierungsmodelle Einleitung Beleuchtung vs. Schattierung Beleuchtung: Modell auswerten (anschl.) global vs. lokal phsikalisch (photo-realistisch?) vs. empirisch Phong-Modell Schattierung:

Mehr

Linien- / Flächenfindung in Bildern der PMD-3D-Kamera. Hochschule für Technik und Wirtschaft Dresden

Linien- / Flächenfindung in Bildern der PMD-3D-Kamera. Hochschule für Technik und Wirtschaft Dresden Linien- / Flächenfindung in Bildern der PMD-3D-Kamera Angelos Drossos Marius Vopel Christian Lenke Hochschule für Technik und Wirtschaft Dresden Fakultät Informatik / Mathematik Fachgebiet Künstliche Intelligenz

Mehr

Photoshop 2. Frank Schlenke Diary

Photoshop 2. Frank Schlenke Diary Photoshop 2. Frank Schlenke 011202136 Diary Seminare Inhalt Seite: Thema: - Teil 1 - Seminare Themen und Ergebnisse Datum: 3-4... Arangieren... 20.03.2015 5-6... Färben... 27.03.2015 7-8... Ausschneiden...

Mehr

Cheoptics360. Brockmannstraße Offenbach T: +49 (0)

Cheoptics360. Brockmannstraße Offenbach T: +49 (0) A BRAND OF CPP STUDIOS Cheoptics360 Cheoptics360 ist ein multifunktionales holographisches Displaysystem, das 3D-Objekte mit verblüffender Plastizität innerhalb einer Glaspyramide erscheinen lässt. Die

Mehr

2015 Sebastian Wahner - Die teilweise oder vollständige Weiterverbreitung dieses Werkes ist ohne Einverständnis des Autors

2015 Sebastian Wahner -  Die teilweise oder vollständige Weiterverbreitung dieses Werkes ist ohne Einverständnis des Autors 1 Inhalt Einführung... 3 Das Raster... 4 Die Anlagen-Maps... 6 Heightmap ( H.bmp)... 8 Höhenbestimmung für beliebigen Anlagenpunkt... 9 Texturen-Datei ( T.bmp)... 11 Farbendatei ( F.bmp)... 12 Skalierungs-,

Mehr