Visualisierung II 2. Volumenvisualisierung
|
|
- Alwin Bayer
- vor 7 Jahren
- Abrufe
Transkript
1 Visualisierung II 2. Volumenvisualisierung Vorlesung: Mi, 9:15 10:45, INF Prof. Dr. Heike Jänicke
2 Inhaltsverzeichnis 1. Daten in Biologie und Medizin 2. Volumenvisualisierung 3. Daten in Umwelt- und Technikwissenschaften 4. Raumteilungsverfahren 5. Topologische Verfahren 6. Analyse von Multivariaten Daten und Zeitreihen 7. Informationstheoretische Verfahren 2
3 Inhaltsverzeichnis 2. Volumenvisualisierung 1. Beleuchtung von Volumendaten 2. Artefakte beim Volume Rendering 3. Nicht-Photorealistisches Volume Rendering 4. Verarbeitung großer Datensätze 3
4 Inhaltsverzeichnis 2. Volumenvisualisierung 1. Beleuchtung von Volumendaten 2. Artefakte beim Volume Rendering 3. Nicht-Photorealistisches Volume Rendering 4. Verarbeitung großer Datensätze 4
5 Volume Rendering mit und ohne Beleuchtung [E. Gröller, TU Wien] 5
6 Lokale Beleuchtung Theorie Lokale Beleuchtungsmodelle approximieren die Menge an Licht, die an einem bestimmten Punkt der Oberfläche reflektiert wird. Hierzu verwendet man die lokale Orientierung der Oberfläche relativ zur Lichtquelle und einige Materialeigenschaften. Im Gegensatz zur globalen Beleuchtung werden indirektes Licht, Schatten und Lichtbrechung nicht berücksichtigt, was die Berechnung wesentlich vereinfacht. Das am häufigsten verwendete Lichtmodell ist das Phongmodell, welches die Beleuchtung als Linearkombination der drei Terme, ambiente, diffuse und spiegelnde Beleuchtung, berechnet. I Phong =I ambient I diffuse I specular Die ambiente Beleuchtung wird als konstanter Term modelliert: I ambient =k a=const r v n l 6
7 Lokale Beleuchtung Theorie Die diffuse Reflektion gibt an, wieviel Licht mit gleicher Intensität in alle Richtung von der Oberfläche zurückgestrahlt wird. Man erkennt dies an matten Oberflächen, deren Helligkeit nur vom Einfallswinkel φ zwischen dem Lichtstrahl l and der Oberflächennormale n abhängt. I diffuse =I p k d cos = I p k d l n Ip ist die von der Lichtquelle emittierten Intensität, kd ist eine Materialkonstante [0; 1], die angibt, wieviel Licht reflektiert wird. Spiegelnde Reflektionen müssen bei glänzenden Oberflächen auf denen Glanzpunkte entstehen berücksichtigt werden. Für die Modellierung benötigt man den Vektor von der Oberfläche zum Betrachter v, die Richtung des reflektierten Lichts r (dazu wird der Lichtstrahl l an der Normale n gespiegelt). n I spiegelnd =I p k s cos =I p k s n r n Die Materialkonstante ks bestimmt die Stärke der Spiegelung und der Exponent n den Glanz, also die Größe der Glanzpunkte. 7
8 Lokale Beleuchtung Theorie Beim Phongmodell werden die Normalenvektoren verwendet, um die lokale Form eines Objekts zu beschreiben. Es wird überwiegend zur Beleuchtung von Polygonnetzen verwendet. Um das Phongmodell für volumetrische Daten anwenden zu können, muss die lokale Form der volumetrischen Daten durch einen geeigneten Vektor beschrieben werden. Für Skalarfelder eignet sich der Gradient, der die Normale von Isoflächen im Volumen angibt. Der Gradient des Skalarfeldes ist die Ableitung erster Ordnung: f = f x, f y, f z = f, f, f x y z Als numerische Approximation wird für gewöhnlich die zentrale Differenz verwendet. Für die x-richtung ergibt sich: f x x, y, z = f x 1, y, z f x 1, y, z mit x, y, z ℕ 8
9 Lokale Beleuchtung Theorie Für die lokale Beleuchtung betrachten wir wieder einen Sichtstrahl, der im Volumen an der Position x1 beginnt und in Richtung x des projizierten Bildpunktes x0 weist. x t = x 0 t x Für das Volume Rendering Integral mit Beleuchtung ergibt sich dann d C x 1, x = L x 0, x e 0, d R x t L l f s x t e t, d dt 0 mit Hintergrundintensität L x 0, x optischer Tiefe d 1, d 2 = d t d t d2 1 Intensität der Lichtpunktquelle l Ll von der Oberfläche reflektierte Farbe R( x(t) ) Blinn-Phong Beleuchtungsmodell für Oberflächen, ausgewertet an der Position x(t) fs( x(t) ) 9
10 Lokale Beleuchtung Vergleich 10
11 Beleuchtete VR-Isoflächen Wählt man bei der Transparenz nur Opazitätswerte von 0 und 1 ergibt das resultierende Volume Rendering eine Isofläche. Ohne Beleuchtung sieht der Betrachter jedoch lediglich eine schwarze Fläche. Durch lokale Beleuchtung kann hier der Eindruck erweckt werden, dass es sich bei der dargestellten Struktur tatsächlich um eine Oberfläche handelt. Hierzu müssen wieder die Gradienten vorberechnet werden, welche dann in einer 3D RGBA-Textur gespeichert werden. Diese enthält sowohl den Skalarwert im Volumen, (Alphawert der Farbe) als auch den Gradienten (RGB Werte) im jeweiligen Pixel. 11
12 Beleuchtete VR-Isoflächen Um als Farbe gespeichert werden zu können, müssen die Skalarwerte im Volumen auf [0, 1] bzw. [0, 255] normiert werden. Der Alphatest kann nun verwendet werden, um nur diejenigen Fragmente anzuzeigen, die zur Isofläche gehören. Oft wird nicht ein bestimmter Isowert angezeigt, sondern ein bestimmter Wertebereich. Bei exakten Werten müssten wesentlich mehr Ebenen gezeichnet werden, da ja zwischen den Ebenen nicht interpoliert wird. Gerade bei Isoflächendarstellungen erzeugt die einfach Gradientenberechnung häufig Artefakte. 12
13 Beleuchtete VR-Isoflächen Um diese Artefakte zu mindern benötigt man eine bessere Approximation des Gradienten. Diese geschieht z.b. durch die Verwendung von Faltungskernen für die Gradientenrekonstruktion. Beliebt ist der kubische B-Splinekern (Abb. 12.1). Die Faltung kann hier wieder auf der Graphikkarte durchgeführt werden und die Berechnung zu beschleunigen. Rekonstruktion mit B-Splines ermöglicht C²-stetige Ergebnisse. 13
14 Beleuchtung Erweiterte Modelle Die Approximation der Oberflächennormalen mittels des Gradienten funktioniert in vielen Fällen sehr gut, hat jedoch Probleme bei folgenden Szenarien: In homogenen Regionen ist der Gradient nahe Null und der Vektor somit oft nicht definiert. Rauschen in den Daten führt zu künstlichen Verzerrungen, die so nicht in den Daten gegeben sind. Hier kann das Oberflächenskalar mit dem der Term für die Reflektion modifiziert wird helfen: R ' t = R t 1 S t 1 S t f s t S t =1 1 f t 2 S t Durch diese Modifikation werden nur Regionen schattiert, die einen hohen Gradienten aufweisen. Bereichen mit niedrigem Gradienten wird die reflektierte Farbe zugewiesen. f t 14
15 Beleuchtung Erweiterte Modelle Für einen guten visuellen Eindruck vor allem von Tiefe sind Schatten essentiell. Diese wurden in den bisherigen Modellen nicht realisiert. Volumetrische Schatten können integriert werden, indem ein zusätzlicher Term eingeführt wird, der für jede Position das Licht berechnet, das ausgehend von den verschiedenen Lichtquellen auf diese Position trifft. d C x 1, x = L x 0, x e 0, d R x t L ' l t f s x t e t, d dt 0 light L ' l t = Ll e x dx t mit Ll der Lichtintensität der l-ten Lichtquelle L'l(t) die Lichtintensität an Position t Das Lichtintegral ist hierbei sehr ähnlich dem für die optische Tiefe, nur dass hier nicht in Richtung Betrachter sondern in Richtung Lichtquelle integriert wird. 15
16 Beleuchtung Tip Die Implementierung von Beleuchtungsmodellen bringt einiges an Mehraufwand mit sich. Es gibt jedoch einen einfachen Trick der einen ähnlichen Effekt erzielt, jedoch keine Zusätzliche Implementierung benötigt. Oben: Volume Rendering ohne Beleuchtung mit einfacher Transferfunktion, die nur den Alphakanal moduliert, also nur einen Teil der Daten anzeigt. Mitte: Modifizierte Transferfunktion, die die Farbe entsprechend des Alphawertes moduliert. Hierdurch werden Kanten der Silhouette verdeutlicht. Unten: Volume Rendering mit Schattierung 16
17 1D TF über den Skalarwert des Voxels, moduliert wird die Opazität (Bsp. 1) 1D TF über den Skalarwert des Voxels, moduliert wird die Opazität (Bsp. 2) 1D TF über den Betrag des Gradienten, moduliert wird die Opazität (Bsp. 3) 2D TF über den Skalarwert und den Betrag des Gradienten 1 Skalarwert Opazität Die Wahl der Transferfunktion hat großen Einfluss auf die dargestellte Geometrie. Hier noch drei weitere Beispiele, wie bestimmte Effekte erzielt werden können. 2 Skalarwert Opazität Opazität Transferfunktion Tip 3 Gradient Gradient 4 17 Skalarwert
18 Die Wahl der Transferfunktion hat großen Einfluss auf die dargestellte Geometrie. Hier noch drei weitere Beispiele, wie bestimmte Effekte erzielt werden können. 1D TF über den Skalarwert des Voxels, moduliert wird die Opazität (Bsp. 1) Standardanwendung, zeige alle Voxel mit einem Wert > x 1D TF über den Skalarwert des Voxels, moduliert wird die Opazität (Bsp. 2) 1 Skalarwert Opazität Opazität Transferfunktion Tip 2 Darstellung von Isoflächen 1D TF über den Betrag des Gradienten, moduliert wird die Opazität (Bsp. 3) 3D Kantendetektor 2D TF über den Skalarwert und den Betrag des Gradienten Skalarwert Opazität 3 Gleichmäßig dicke Isofläche Gradient Gradient 4 18 Skalarwert
19 Inhaltsverzeichnis 2. Volumenvisualisierung 1. Beleuchtung von Volumendaten 2. Artefakte beim Volume Rendering 3. Nicht-Photorealistisches Volume Rendering 4. Verarbeitung großer Datensätze 19
20 Artefakte Ursprung An verschiedenen Stellen bei der Erstellung eines Volumerenderingbildes kann es zu Artefakte kommen. Diese resultieren oft daher, dass für eine hohe Performanz bestimmte Kompromisse eingegangen werden müssen. Hier ist es wichtig, über die Quellen dieser Artefakte Bescheid zu wissen, um sie nicht fälschlicherweise als Strukturen in den Daten zu interpretieren. 20
21 Artefakte Abtasten Im ersten Verarbeitungsschritt muss der diskrete Datensatz abgetastet werden, um entweder interpolierte Werte für die Hilfsgeometrie (DVR) oder den Sichtstrahl (Ray Casting) zu erhalten. Die Distanz zwischen den Abtastpunkten gibt an, wie genau die Daten dargestellt werden. Eine große Distanz zwischen Datenpunkten, also eine geringe Abtastfrequenz (undersampling), erzeugt gut sichtbare Artefakte (Abb. 20.1). Dieser Effekt wird auch Holzmaserungsartefakt (wood grain artefact) genannt. Bei der Frage nach einer guten Anzahl an Abtastpunkten hilft das Nyquist-ShannonAbtasttheorem. [H. Nyquist. Certain topics in telegraph transmission theory. In Trans AIEE, 47: , 1928] [C.E. Shannon. Communication in the presence of noise. In Proc. Institute of Radio Engineers, 37(1):10-21, 1949] 21
22 Artefakte Abtasten: Das Abtasttheorem Bandbegrenzung: Ist die Funktion genügend glatt", so hat die Fouriertransformierte lokalen Support, also eine Grenzfrequenz ωf. Die Funktion ist in diesem Fall bandbegrenzt. Abtasttheorem: Eine bandbegrenzte Funktion f( t ) mit Grenzfrequenz ωf kann perfekt aus den Abtastwerten f(n Δt) rekonstruiert werden, wenn für die Abtastfrequenz ω0 gilt: 0 = 2 2 F t Die exakte Rekonstruktion gelingt nur mit unendlich großem Aufwand, jedoch erreicht man mit endlichem Aufwand eine beliebig genaue Approximation. [U. Schimpf, Uni Heidelberg] 22
23 Artefakte Abtasten Das Abtasttheorem wurde für kontinuierliche Signale definiert. Da unsere Daten in diskretisierter Form vorliegen, haben wir bereits Information unwiederbringlich verloren. Bei einem diskreten Signal, von dem angenommen wird, dass es einen kontinuierlichen Ursprung hat, ergibt sich die höchste Frequenz als abrupte Änderung zwischen benachbarten Abtastwerten. Somit ergibt sich für die höchste Frequenz: F = 1 d mit Δd ist die Distanz zwischen zwei Voxeln. Somit müssen für eine korrekte Rekonstruktion der ursprünglichen Daten mindestens zwei Messwerte pro Voxel genommen werden. Die hohe Abtastrate hat natürliche einen direkten Einfluss auf Geschwindigkeit des Volume Renderings. Es gilt in etwa: doppelt so viele Abtastpunkte halbe Framerate. Beim Raycasting kann die Struktur der Daten ausgenutzt werden, indem homogene Bereiche weniger oft abgetastet werden. Hierfür wird im Vorfeld die optimale Abtastfrequenz für jeden Voxel berechnet und in einer zusätzlichen Textur gespeichert. Bei Veränderung der Abtastdistanz muss auf eine korrekte Modulation der Alphawerte geachtet werden. 23
24 Artefakte Filtern Im zweiten Verarbeitungsschritt, dem Filtern, wird durch Interpolation aus dem diskreten Datensatz wieder das kontinuierliche Signal rekonstruiert. Wie wir bereits bei der Beleuchtung gesehen haben, hat die Art der Interpolation (linear, trilinear, B-Spline) einen großen Einfluss auf die Qualität der Darstellung. Der Optimale Filterkern für die Rekonstruktion wäre eine sinc-funktion, welche jedoch einen unendlich großen Support benötigt. Aus diesem Grund werden einfachere Filterkerne wie oben beschrieben verwendet. 24
25 Artefakte Pre- vs. Postklassifikation Während der Klassifikation werden Skalarwerten mittels der Transferfunktion Farben zugeordnet. Dies kann auf zwei Arten geschehen: Pre-Klassifikation: Die TF wird auf die Voxel angewandt. Bei der Interpolation wird (linear) zwischen den Voxelfarben interpoliert. Somit kann die TF als Vorverarbeitungsschritt angewandt werden. t Voxel x Abtastpunkt Post-Klassifikation: Zuerst wird der Skalarwert an der Abtastposition bestimmt. Diesem wird mittels der TF ein Farbwert zugewiesen. Hierbei wird im korrekten Raum interpoliert. s(t) => α(s(t)) postprocessing x x x x x preprocessing x x Sichtstrahl Skalar= Alphawert wert 25
26 Artefakte Pre- vs. Postklassifikation 26
27 Artefakte Pre- vs. Postklassifikation Pre-Klassifikation kann hohe Frequenzen in der Transferfunktion nicht reproduzieren. Dies schafft die Post-Klassifikation, benötigt jedoch für gute Resultate eine hohe Abtastfrequenz (Abtasttheorem). Engel et al. [K. Engel, M. Kraus, T. Ertl. High-Quality Pre-Integrated Volume Rendering Using Accelerated Pixel Shading. In Proc. Graphics Hardware, 2001] schlagen als Verbesserung die vorintegrierte Klassifikation (pre-integrated classification) vor. Grundidee ist eine Aufteilung des VRIntegrals in zwei Integrationen: eine für das Skalarfeld und eine für die TF um eine ungünstige Produkte der Nyquistfrequenzen zu vermeiden. [K. Engel, Uni Stuttgart] 27
28 Artefakte Schattierung Wie wir bereits gesehen haben, kann die Beleuchtung des Volumens den Tiefeneindruck immens verbessern. Hierzu werden jedoch Gradienten benötigt. Oft wird der Gradient in VR-Programmen vorberechnet und in einer RGBA-Textur zusammen mit dem Skalarwert gespeichert. Hierdurch entstehen verschiedene Probleme: Die Texturen verwenden für einen geringen Speicherbedarf oft nur 8 bit pro Wert, was bereits Quantisierungsfehler verursacht. Trotzdem wird der Speicherbedarf hierdurch vervierfacht, was bei großen Datensätzen problematisch ist. Die Gradienten werden normalisiert gespeichert, bei der Interpolation kann es zu Gradienten mit einer Norm ungleich 1 kommen, was auf einigen Graphikkarten nicht mehr korrigiert werden kann. Hier hilf es die Gradienten nicht im Vorfeld zu berechnen, sondern dies on-the-fly zu tun. Dies kann wieder auf der Grafikkarte, z.b. mittels Shadern, umgesetzt werden. Durch die interaktive Berechnung wird zwar Speicher gespart, jedoch geht dies auf Kosten zusätzlicher Rechenzeit. Auch hierfür gibt es jedoch bereits Lösungsansätze für eine effiziente Berechnung (space leaping, early ray termination, deferred shading), die interaktives VR erlaubt. 28
29 Artefakte Schattierung 29
30 Artefakte Schattierung: Shaderimplementierung struct fragin { float4 Hposition : POSITION; float3 TexCoord0 : TEXCOORD0; float3 TexCoord1 : TEXCOORD1; float3 TexCoord2 : TEXCOORD2; float3 TexCoord3 : TEXCOORD3; float3 TexCoord4 : TEXCOORD4; float3 TexCoord5 : TEXCOORD5; float3 TexCoord6 : TEXCOORD6; float3 TexCoord7 : TEXCOORD7; float3 VDir : COLOR0; }; // samples for forward differences half3 normal; half3 sample1; sample1.x = (half)tex3d( Volume, IN.TexCoord2 ).x; sample1.y = (half)tex3d( Volume, IN.TexCoord4 ).x; sample1.z = (half)tex3d( Volume, IN.TexCoord6 ).x; float4 main( fragin IN, uniform sampler3d Volume, uniform sampler2d TransferFunction, uniform half3 lightdir, uniform half3 halfway, uniform fixed ambientparam, uniform fixed diffuseparam, uniform fixed shininessparam, uniform fixed specularparam) : COLOR { fixed4 center; // compute central differences gradient normal = normalize( sample2.xyz - sample1.xyz ); // additional samples for central differences half3 sample2; sample2.x = (half)tex3d( Volume, IN.TexCoord3 ).x; sample2.y = (half)tex3d( Volume, IN.TexCoord5 ).x; sample2.z = (half)tex3d( Volume, IN.TexCoord7 ).x; // compute diffuse lighting component fixed diffuse = abs(dot( lightdir, normal.xyz )); // compute specular lighting component fixed specular = pow( dot(halfway, normal.xyz), ShininessParam); // compute output color OUT.rgb = ambientparam * classification.rgb + diffuseparam * diffuse * classification.rgb + specularparam * specular; // fetch scalar value at center center.ar = (fixed)tex3d(volume, IN.TexCoord0.xyz).x; // classification fixed4 classification = (fixed4) tex2d( TransferFunction, center.ar); // use alpha from classification as output alpha OUT.a = classification.a; return OUT; } 30
31 Artefakte Blending Beim Blending werden die die Farben der einzelnen Fragmente kombiniert und in den Framebuffer geschrieben. Die Farben werden für gewöhnlich auf 8-bit fixed-point Zahlen quantisiert und eine große Anzahl an Fragmenten wird kombiniert. Hierdurch werden sehr schnell große Fehler akkumuliert. Da neuere Graphikkarten auch Fließkommadarstellungen unterstützen, werden diese Artefakte nun teils vermieden. Eine Alternative ist die händische Implementierung von Blending mit Fließkommagenauigkeit in einem Fragmentshader. 31
32 Artefakte Artefakte entstehen also in allen Teilen der Verarbeitungskette und haben teils recht großen Einfluss auf die Bildqualität. Die meisten Artefakte können gezielt vermieden werden, jedoch wird hierzu häufig höherer Rechenaufwand benötigt. Hier muss man entscheiden, was wichtiger ist: sehr gute Performanz oder Ergebnisse mit möglichst wenig Artefakten. Bei vielen Anwendung wird ein Kompromiss irgendwo zwischen den beiden Extremen gesucht. Einige Beispiele: Schnelles Verschaffen eines Überblicks über die Daten mit viel Interaktion Medizinische Befundung an einem digitalen Radiologiearbeitsplatz Rendern schöner Bilder für eine Publikation Analyse großer Datenmengen zum Vergleich von Objekteigenschaften Wichtig ist auch, dass Fehler in stehenden Bildern viel deutlicher wahrgenommen werden, als in animierten Filmen. Dies kann zusätzlichen Einfluss auf die Wahl der Darstellungs korrektheit haben. 32
33 Inhaltsverzeichnis 2. Volumenvisualisierung 1. Beleuchtung von Volumendaten 2. Artefakte beim Volume Rendering 3. Nicht-Photorealistisches Volume Rendering 4. Verarbeitung großer Datensätze 33
34 Nicht-Photorealistisches Volumerendering Aus Illustrationen in Fachbüchern kennt man die Überzeichnung wichtiger Merkmale in einem Objekt oder einer Struktur. So werden z.b. Kanten hervorgehoben, Strukturen in verschiedenen Farben markiert, wichtige Unterstrukturen deutlicher gezeichnet als andere Bereiche. Foto [N. Woolridge, Uni. of Toronto] Illustration 34
35 Nicht-Photorealistisches Volumerendering Im Folgenden soll ein kurzer Überblick gegeben werden, welche Techniken verwendet werden können, um illustrative Effekte in Volume Rendering Bildern zu erzeugen. Im Wesentlichen geht es um die Hervorhebung folgender Merkmale Silhouette Grenzschichten Kanten / Stark gekrümmten Bereiche Tiefeninformation Hierzu werden folgende illustrative Techniken eingesetzt: Hervorhebung von Grenzschichten und der Silhouette Nachgeahmter Skizzenstil Einfärben von Kanten Toneshading / Modulation des Farbtons Tiefenfärbung Darstellung von Halos / einem Lichthof 35
36 Umrisslinien und Toneshading Wenn man den Alphakanal so manipuliert, dass nur Bereiche gezeigt werden, deren Normalvektor fast senkrecht zur Blickrichtung ist, kann man leicht Umrisslinien darstellen. Beim Toneshading werden die Farben in Abhängigkeit von der lokalen Beleuchtung verändert. Bereiche die direkt von der Lichtquelle beleuchtet werden, werden in wärmeren Farben (geld, orange, rot) gezeichnet und Bereich, die nur indirekt beleuchtet werden in kalten Farben (grün, blau). Hierfür wird das Skalarprodukt zwischen Oberflächennormale und Lichtrichtung ausgewertet. [K.-L. Ma, Uni of California] 36
37 Tiefenmodulation Durch die Veränderung des Farbtons kann nicht nur die Beleuchtung verdeutlicht werden, sondern auch der Tiefeneindruck verstärkt werden. Die Farbe naher Objekte ist häufig wärmer und intensiver, die von weiter entfernt liegenden kälter, heller und matter. Bei der Implementierung kann man auf die Tiefeninformation der Fragmente zurückgreifen und deren Farbe entsprechend modulieren. 37
38 Beispiel 38
39 Beispiel 39
40 Inhaltsverzeichnis 2. Volumenvisualisierung 1. Beleuchtung von Volumendaten 2. Artefakte beim Volume Rendering 3. Nicht-Photorealistisches Volume Rendering 4. Verarbeitung großer Datensätze 40
41 Große Datensätze 0.88 GB Daten Vergleich: Speicher in Graphikkarten GeForce GTX 590 GeForce GTX 580 (Stand SoSe 2011) 3 GB 1,5 GB 3D Aufnahme aus der Biologie 2048x2048x512 4 GB Daten 41
42 Volumenvisualisierung von Großen Datensätzen Das Problem der großen Daten ist so alt wie die rechnergestützte Analyse. Mit verbesserter Hardware werden nicht nur die Möglichkeiten für die Datenanalyse besser, sondern ermöglichen auch eine schnellere Datenaufnahme immer größerer Volumina. In vielen Anwendungsgebieten werden aktuell sehr große Datensätze (mehrere GB pro Datensatz und Zeitschritt) aufgenommen, ohne dass bereits Analysewerkzeuge vorhanden sind. Zum einen behilft man sich mit der Betrachtung von Schnittebenen oder Teilvolumina, oder verringert die Auflösung, so dass Standardsoftware eingesetzt werden kann. Um auch mit Daten arbeiten zu können, die größer sind als der Speicher der Graphikkarte, wurden in den letzten Jahren verschiedene Ansätze vorgeschlagen. Im Wesentlichen müssen dabei zwei Probleme behandelt werden: Die Daten sind zu groß um auf einmal in voller Auflösung unverarbeitet dargestellt werden zu können. Selbst wenn der Speicher groß genug wäre, bräuchte es immer noch immense Rechenleistung um diese Datenfülle auch zu verarbeiten. 42
43 Bricking Eine der einfachsten Strategien zur Darstellung großer Volumen ist das Bricking, eine Divide&Conquer Strategie. Das Volumen wird hierfür in Blöcke unterteilt, die jeweils in den Graphikspeicher passen. Jeder Block wird dann separat mit einem StandardvolumerenderingAlgorithmus gerendert. Bei der Unterteilung muss man darauf achten, dass sich die Teilvolumina noch überlappen, da es sonst zu Interpolationsfehlern am Rand kommen kann. Minimalanforderung ist ein Überlapp von einem Voxel. Bei Methoden, die einen größeren Support benötigen (z.b. Interpolation höherer Ordnung) muss der Überlapp entsprechend größer gewählt werden. 43
44 Bricking Limitierender Faktor beim Bricking ist die Geschwindigkeit mit der Daten an die Graphikkarte gesandt werden können. Gerade bei Interaktionen muss das Volumen immer wieder gesandt werden, was zu einer starken Verlangsamung führen kann. Um diese Problem zu umgehen, werden häufig während der Interaktion Volumina mit einer niedriger Auflösung gerendert und erst nach Beendigung der Interaktion wieder auf die volle Auflösung gewechselt. 44
45 Multi-Resolution Volume Rendering Bei vielen Darstellung werden oft nicht die ganzen Daten des Volumens benötigt, da z.b. der Betrachter nur einen kleinen Ausschnitt in voller Auflösung ansieht, oder aber bestimmte Bereiche sehr homogene Daten aufweisen. Dies kann genutzt werden um weniger Daten abzuspeichern. Aufgrund der Voxelstruktur der meisten Daten sind Octrees sehr beliebt. Beim Octree wird das Volumen rekursiv in 8 gleich große Würfel unterteilt. In den Knoten wird jeweils das begrenzte Teilvolumen in einer (niedrigeren) Auflösung gespeichert. Für die Konstruktion von Octrees kann entweder ein top-down Ansatz (das Volumen wird solange unterteilt, bis z.b. das Untervolumen homogene Werte enthält), oder bottom-up Ansatz (8 Teilwürfel werden zu einem größeren zusammengefügt, bis sie zu verschieden sind) angewendet werden. Beim Rendering werden dann nur die benötigten Teile an die Graphikkarte gesandt. Kriterien sind z.b.: Abstand zum Betrachter Detailgrad des Untervolumens Gewünschte Auflösung 45
46 Datenkompression Ähnlich zu Bildern können auch Kompressionsverfahren eingesetzt werden um die Datengröße zu reduzieren. Gängige Ansätze sind: Wavelet Komprimierung Packing Ansätze Vektorquantisierung Probleme werden bei diesen Ansätzen teils dadurch verursacht, dass die Daten bereits mit der CPU wieder entpackt werden müssen, da die Graphikkarte mit komprimierten Daten nicht arbeiten kann. (Es gibt bereits Texturkompression in OpenGL, wodurch jedoch starke Artefakte verursacht werden). 46
47 Literatur Randima Fernando, GPU Gems: Programming Techniques, Tips and Tricks for RealTime Graphics, Addison-Wesley Professional (April 1, 2004) K. Engel, M. Hadwiger, J. Kniss, A. Lefohn, C. Salama, D. Weiskopf. Real-time Volume Graphics. Course Notes for Course #28 at SIGGRAPH ( P. Lacroute and M. Levoy. Fast Volume Rendering Using a Shear-Warp Factorization of the Viewing Transform. In ACM Computer Graphics (SIGGRAPH '94 Proceedings), pages , M.Levoy. Display of surfaces from volume data. IEEE Computer Graphics and Applications, 8(3):29-37, N. Max. Optical models for direct volume rendering. IEEE Transactions on Visualization and Computer Graphics, 1(2):99-108, I. Viola, M. C. Sousa, D. Ebert, B. Preim, B. Gooch, B. Andrews, C. Tietjen. Eurographics Tutorial on Illustrative Visualization for Science and Medicine, ( 47
Visualisierung und Volumenrendering 2
Institut für Computervisualistik Universität Koblenz 06.07.2012 Inhaltsverzeichnis 1 Literatur 2 Wiederholung 3 DVR Volumen Literatur Real-Time Volume Graphics Volumenrendering CG Shader Beispiele Volumen
MehrBeleuchtungsmodelle und Shading
Beleuchtungsmodelle und Shading Andreas Spillner Computergrafik, WS 2018/2019 Ziel der Modellierung von Beleuchtung Baut auf dem Kapitel zu Licht und Farben auf. In die 3D-Szene werden Lichtquellen eingebracht.
MehrLokale Beleuchtungsmodelle
Lokale Beleuchtungsmodelle Oliver Deussen Lokale Modelle 1 Farbschattierung der Oberflächen abhängig von: Position, Orientierung und Charakteristik der Oberfläche Lichtquelle Vorgehensweise: 1. Modell
MehrBlendaX Grundlagen der Computergrafik
BlendaX Grundlagen der Computergrafik Beleuchtungsmodelle (Reflection Models) 16.11.2007 BlendaX Grundlagen der Computergrafik 1 Rendering von Polygonen Der Renderingprozess lässt sich grob in folgende
MehrProbelektion zum Thema. Shadow Rendering. Shadow Maps Shadow Filtering
Probelektion zum Thema Shadow Rendering Shadow Maps Shadow Filtering Renderman, 2006 CityEngine 2011 Viewport Real reconstruction in Windisch, 2013 Schatten bringen viel Realismus in eine Szene Schatten
MehrRendering: Lighting and Shading
Rendering: Lighting and Shading Hauptseminar: How to make a Pixar Movie Inhalt Einführung Was ist Rendering Was ist Reflexionsmodelle Lighting Shading Globale Beleuchtungsmodelle Zusammenfassung 2/53 Inhalt
MehrRendering. (illumination/shading) Beleuchtungsmodelle. Schattierung von Polygonen. Lokale Beleuchtungsmodelle
Beleuchtung/Schattierung (illumination/shading) Beleuchtungsmodelle Globale Beleuchtungsmodelle Lokale Beleuchtungsmodelle Schattierung von Polygonen 1. Flat shading 2. Gouraud Shading 3. Phong Shading
Mehr3.5 Methode des gleitenden Horizonts
3.5 Methode des gleitenden Horizonts Für Flächen die durch eine Gleichung F (x, y, z) = 0 gegeben sind, lässt sich die Methode des gleitenden Horizonts anwenden. Dabei werden die sichtbaren Teile der Schnitte
MehrComputergrafik Universität Osnabrück, Henning Wenke,
Computergrafik Universität Osnabrück, Henning Wenke, 2012-06-19 Die Erde ist eine Scheibe! Die Erde ist eine Kugel! 2012-06-19, H.W., Wörtlich 1992-11-02, Papst J.P. II. Sinngemäß. Kirchengeschichtlicher
MehrChristina Nell. 3D-Computergrafik
Christina Nell 3D-Computergrafik Was ist 3D-Computergrafik? 3D graphics is the art of cheating without getting caught. (unbekannte Quelle) Folie 2/52 Inhalt Beleuchtung Shading Texturierung Texturfilterung
MehrVolumenverarbeitung und Optimierung II
Volumenverarbeitung und Optimierung II Praktikum Medizinische GPU Verfahren Susanne Fischer sanne@uni-koblenz.de Institut für Computervisualistik Universität Koblenz-Landau 9. Dezember 2006 Susanne Fischer
MehrTeil 7: Beleuchtung Beleuchtungsmodelle, Schattierungsmodelle
Beleuchtungsmodelle, Schattierungsmodelle Einleitung Beleuchtung vs. Schattierung Beleuchtung: Modell auswerten (anschl.) global vs. lokal phsikalisch (photo-realistisch?) vs. empirisch Phong-Modell Schattierung:
MehrMultitexturbasierte Volumenvisualisierung in der Medizin
Multitexturbasierte Volumenvisualisierung in der Medizin Christof Rezk-Salama, Michael Scheuering Graphische Datenverarbeitung, Universität Erlangen-Nürnberg Am Weichselgarten 9, 91058 Erlangen Email:
Mehr4.4 Glättung von Kanten
4.4 Glättung von Kanten Es wurden verschiedene Aspekte zur Beleuchtung von Modellen und Szenen vorgestellt. Es gibt zwei Arten von Licht, das Hintergrundlicht und Licht von Lichtquellen, wobei hier zu
Mehr3D - Modellierung. Arne Theß. Proseminar Computergraphik TU Dresden
3D - Modellierung Arne Theß Proseminar Computergraphik TU Dresden Gliederung Darstellungsschemata direkte Constructive Solid Geometry (CSG) Generative Modellierung Voxelgitter indirekte Drahtgittermodell
MehrVolumenrendering mit CUDA
Volumenrendering mit CUDA Arbeitsgruppe Visualisierung und Computergrafik http://viscg.uni-muenster.de Überblick Volumenrendering allgemein Raycasting-Algorithmus Volumen-Raycasting mit CUDA Optimierung
Mehr4.3 Beleuchtung und Schattierung
4.3 Beleuchtung und Schattierung Die Grundbestandteile des Renderprozesses Atmosphärische Streuung Emission Reflexion/ Transmission/ Emission Oberfläche 4-38 4.3 Beleuchtung und Schattierung Beleuchtung
MehrMarching Cubes - Erstellung von Polygonmodellen aus Voxelgittern
Marching Cubes - Erstellung von Polygonmodellen aus Voxelgittern Matthias Kirschner Advanced Topics in Computer Graphics - WS06/07 Marching Cubes - Erstellung von Polygonmodellen aus Voxelgittern Matthias
MehrComputergrafik 1 Beleuchtung
Computergrafik 1 Beleuchtung Kai Köchy Sommersemester 2010 Beuth Hochschule für Technik Berlin Überblick Lokale Beleuchtungsmodelle Ambiente Beleuchtung Diffuse Beleuchtung (Lambert) Spiegelnde Beleuchtung
MehrSeminar Ausgewählte Themen der medizinischen Visualisierung
1 Ausgewählte Themen der medizinischen Visualisierung Institut für Informatik 08.07.2011 Arbeitsgruppe Visualisierung und Computergrafik (VisCG) Organisatorisches Veranstalter: Prof. Dr. Klaus Hinrichs,
MehrBeleuchtung. Matthias Nieuwenhuisen
Beleuchtung Matthias Nieuwenhuisen Überblick Warum Beleuchtung? Beleuchtungsmodelle Lichtquellen Material Reflexion Shading Warum Beleuchtung? Tiefeneindruck Realitätsnähe: Reflexionen Spiegelungen Schatten
MehrTexture Based Direct Volume Rendering
Texture Based Direct Volume Rendering Vorlesung: "Advanced Topics in Computer Graphics" cbrak@upb.de 1 Agenda 1. Einleitung Volume Rendering 1.1. Volumendatensatz 1.2. Volumenintegral 1.3. Image order
MehrGPU-basiertes Volumenrendering von multimodalen medizinischen Bilddaten in Echtzeit
GPU-basiertes Volumenrendering von multimodalen medizinischen Bilddaten in Echtzeit Ingrid Scholl 1, Nicole Schubert 1, Pascal Ziener 1, Uwe Pietrzyk 2 1 Fachbereich für Elektrotechnik und Informationstechnik,
MehrCGR I Beleuchtung und Schattierung
CGR I Beleuchtung und Schattierung SS 2004 Michael Haller Medientechnik und -design Ankündigung 25.Mai (HEUTE!!), 18:00 HS1 Hr. Riegler, Firma Sproing 03. Juni, 17:30 HS1 Prof. Dieter Schmalstieg, TU Wien
MehrBeleuchtung. in Computerspielen
Beleuchtung in Computerspielen Motivation Überblick Licht und Schattierung Lichtquellen Lokale Beleuchtungsmodelle Schattierungsverfahren Oberflächensimulation Beispiele der CryEngine Ausblick Zusammenfassung
Mehr4.7 Globale Beleuchtungsmodelle
Erinnerung: - Ein lokales Beleuchtungsmodell berücksichtigt nur das direkt einfallende Licht einer Lichtquelle - Nur lokale Beleuchtung + konstante ambiente Beleuchtung, um reflektiertes und gebrochenes
MehrBeleuchtung Schattierung Rasterung
Beleuchtung Schattierung Rasterung Thomas Jung t.jung@htw-berlin.de Beleuchtung, Schattierung und Rasterung in allen Echtzeit-3D-Umgebungen gleich OpenGL Direct3D 3dsmax,... Letzter Bestandteil der Grafikpipeline
MehrWima-Praktikum 2: Bildsynthese-Phong
Wima-Praktikum 2: Bildsynthese-Phong Wima-Praktikum 2: Prof. Dr. Lebiedz, M. Sc. Radic 1 Inhaltsverzeichnis 1 Einleitung 3 2 Kurze Beschreibung der Aufgabenstellung und dem Phong- Modell 3 3 Modellierung
MehrReal-Time High-Dynamic Range Texture Mapping
Real-Time High-Dynamic Range Texture Mapping Jonathen Cohen, Chris Tchou, Tim Hawkins and Paul Debevec Präsentiert von Daniel Wickeroth Einführung Worum geht s? Darstellung realistischer Szenen Innen -
MehrAbb. 5-5 Gegenüberstellung von Flat-Shading und Gouraud-Shading. Beleuchtungsberechnung mit nur einer Flächennormale pro Polygon
Direkte Schattierungsverfahren (Gouraud) 5.1.5 Kontinuierliche Schattierung von Polygonen (Gouraud-Shading) bisher: Zerlegung gekrümmter Flächen (Zylinder, Kugeln, B-Spline-Flächen etc.) in Polygone (meist
MehrAdvanced Topics in Computer Graphics: Transferfunktionen
Advanced Topics in Computer Graphics: Transferfunktionen Markus Happe und Tobias Kenter Universität Paderborn Markus Happe, Tobias Kenter 09.02.2007 1 / 40 Motivation (1/2) Wie stelle ich Volumendaten
MehrVolumen Visualisierung
Volumen Visualisierung Seminar Interaktive Visualisierung (WS 06/07) Fabian Spiegel und Christian Meß Fabian Spiegel und Christian Meß 1 Übersicht Anwendungsbeispiele Volumendaten Entstehung Repräsentation
MehrComputergraphik I. Das Abtasttheorem. Problem bei räumlicher Abtastung: Oliver Deussen Abtasttheorem 1
Das Abtasttheorem Problem bei räumlicher Abtastung: Oliver Deussen Abtasttheorem 1 Problem bei zeitlicher Abtastung: Oliver Deussen Abtasttheorem 2 Darstellung auf Monitor Was geschieht eigentlich, wenn
Mehrkünstliches Objekt, dargestellt durch Anzahl von Punkten in Raum und Zeit (bei bewegten, animierten Objekten).
Computergrafik / Animation künstliches Objekt, dargestellt durch Anzahl von Punkten in Raum und Zeit (bei bewegten, animierten Objekten). Punkte, werden auch "Kontrollpunkte" genannt Wesentlicher Punkt:
MehrComputergrafik 2010 Oliver Vornberger. Kapitel 18: Beleuchtung. Vorlesung vom
Computergrafik 2010 Oliver Vornberger Kapitel 18: Beleuchtung Vorlesung vom 08.06.2010 1 Korrektur α Für den Winkel zwischen den normierten Vektoren und gilt: ~v ~w A B C D sin(α) = ~v ~w 0,0 % sin(α)
MehrComputer Graphics Shader
Computer Graphics Shader Sven Janusch Inhalt Fixed Function Pipeline Programmable Pipeline Implementierung Applikation Beispiel Sven Janusch 2 Fixed Function Pipeline T&L Pipeline (Transformation and Lighting)
Mehr3.3 Beleuchtung und Schattierung
3.3 Beleuchtung und Schattierung Die Beleuchtung einer Szenerie kann lokal oder global modelliert werden Ein lokales Beleuchtungsmodell berechnet die Intensität bzw. Farbe eines Objektpunkts abhängig vom
Mehr(7) Normal Mapping. Vorlesung Computergraphik II S. Müller. Dank an Stefan Rilling U N I V E R S I T Ä T KOBLENZ LANDAU
(7) Normal Mapping Vorlesung Computergraphik II S. Müller Dank an Stefan Rilling Einleitung Die Welt ist voller Details Viele Details treten in Form von Oberflächendetails auf S. Müller - 3 - Darstellung
MehrLokale Beleuchtungsmodelle
Lokale Beleuchtungsmodelle Proseminar GDV, SS 05 Alexander Gitter Betreuer: Dirk Staneker Wilhelm-Schickard-Institut für Informatik Graphisch-Interaktive Systeme Sand 14 D-72076 Tübingen Einleitung und
MehrEntwicklung eines hardwarebeschleunigten direkten Volumenvisualisierers für große Datensätze
Entwicklung eines hardwarebeschleunigten direkten Volumenvisualisierers für große Datensätze Joachim Staib Nach: GigaVoxels: Ray-Guided Streaming for Efficient and Detailed Voxel Rendering Cyrill Crassin,
MehrIhre Punkt + Sonderp. = Summe Ihre Note:
Hochschule Darmstadt Nachname: Fachbereich Informatik Vorname: Björn Frömmer, Prof. Dr. E. Hergenröther Matr. Nr.: Ihre Punkt + Sonderp. = Summe Ihre Note: Aufgabe : RGB-Farbmodell Punkte: / 6 % Unten
MehrTeil 7: Beleuchtung. Einleitung. Einleitung. Beleuchtungsmodelle, Schattierungsmodelle
Beleuchtungsmodelle, Schattierungsmodelle Einleitung Beleuchtung vs. Schattierung Beleuchtung: Modell auswerten (anschl.) global vs. lokal phsikalisch (photo-realistisch?) vs. empirisch Phong-Modell Schattierung:
MehrGraphische Datenverarbeitung Visualisierungstechniken. Prof. Dr. Elke Hergenröther
Graphische Datenverarbeitung Visualisierungstechniken Prof. Dr. Elke Hergenröther Visualisierungstechniken Visualisierung: Visualisierung bedeutet sichtbar machen, darstellen. Die CG beschränkt sich dabei
MehrBildrekonstruktion & Multiresolution
Bildrekonstruktion & Multiresolution Verkleinern von Bildern? Was ist zu beachten? Es kann aliasing auftreten! Das Abtasttheorem sagt wie man es vermeidet? ===> Page 1 Verkleinern von Bildern (2) Vor dem
MehrPreisausschreibung/Preisverleihung Heute 17 Uhr. Heutiges Programm. Nächstes Treffen
Preisausschreibung/Preisverleihung Heute 17 Uhr Heutiges Programm Matthias Schlüter, MeVis, Diffusion Tensor, 13:55 Bernhard Preim, Illustratives Rendering, 14:10 Zein Salah, Illustratives Rendering, 14:20
MehrComputergrafik / Animation. künstliches Objekt, dargestellt durch Anzahl von Punkten in Raum und Zeit (bei bewegten, animierten Objekten).
Computergrafik / Animation künstliches Objekt, dargestellt durch Anzahl von Punkten in Raum und Zeit (bei bewegten, animierten Objekten). Punkte, werden auch «Kontrollpunkte» genannt Wesentlicher Punkt:
MehrInteraktive Visualisierung zeitabhängiger Volumendaten
Interaktive Visualisierung zeitabhängiger Volumendaten Diplomarbeit von Dario Kardas graphische datenverarbeitung, universität erlangen-nürnberg Skalare Volumendaten Volumen besteht aus Schichtbildern
Mehr2. Digitale Codierung und Übertragung
2. Digitale Codierung und Übertragung 2.1 Informationstheoretische Grundlagen 2.2 Speicherbedarf und Kompression 2.3 Digitalisierung Ludwig-Maximilians-Universität München Prof. Hußmann Digitale Medien
MehrHLSL PostProcess Shaders
HLSL Advanced 1 HLSL PostProcess Shaders Einführung PostProcess Effekte werden erst nach dem Rendern aller Objekte angewandt, nämlich auf das Render-Target (daher der Name). Das Spektrum der Möglichkeiten
MehrHow to make a PIXAR movie
How to make a PIXAR movie Non-Photorealistic Rendering Definition NPR is an area of computer graphics that focuses on enabling a wide variety of expressive styles for digital art. Alternativbezeichnungen:
MehrComputergrafik 2010 Oliver Vornberger. Kapitel 18: Beleuchtung
Computergrafik 2010 Oliver Vornberger Kapitel 18: Beleuchtung 1 Ausgangslage am Ende der Viewing Pipeline liegt vor: P A Materialeigenschaften P B P C 2 Beleuchtungmodelle lokal: Objekt, Lichtquellen,
MehrKapitel 4: Schattenberechnung
Kapitel 4: Schattenberechnung 1 Überblick: Schattenberechnung Motivation Schattenvolumen Shadow Maps Projektive Schatten 2 Motivation Wesentlich für die Wahrnehmung einer 3D-Szene Eigentlich ein globaler
MehrVisualisierung und Volumenrendering I
Institut für Computervisualistik Universität Koblenz 05.07.2012 Inhaltsverzeichnis 1 Motivation 2 Volumendaten 3 Pipeline 4 Transferfunktionen 5 Gradienten 6 Volumenvisualisierung 7 IVR 8 DVR Wissenschaftliche
Mehr2. Digitale Codierung und Übertragung
2. Digitale Codierung und Übertragung 2.1 Informationstheoretische Grundlagen 2.2 Speicherbedarf und Kompression 2.3 Digitalisierung Ludwig-Maximilians-Universität München Prof. Hußmann Digitale Medien
MehrVolume Rendering & Transferfunktionen
Kardiologie Von der Bildgebung zur Diagnose Volume Rendering & Transferfunktionen 21.12.2007 Elmar Brendel TU Darmstadt Graphisch-Interaktive Systeme Inhalt [1] Volume Rendering 1.1 Übersicht über die
MehrWichtigste Voraussetzung für die in dieser Vorlesung beschriebenen Systeme und Verfahren sind digitale Aufnahmen. Doch was ist eigentlich ein
1 Wichtigste Voraussetzung für die in dieser Vorlesung beschriebenen Systeme und Verfahren sind digitale Aufnahmen. Doch was ist eigentlich ein digitales Foto oder Video? Das folgende Kapitel soll einen
MehrÜbungsstunde 8 zu Computergrafik 1
Institut für Computervisualistik Universität Koblenz 14. und 15. Januar 2013 Inhaltsverzeichnis 1 Wiederholung - Beleuchtung Gouraud-Shading Phong-Shading Flat-Shading Vergleich 2 - Idee in OpenGL Texturfilterung
MehrDirekte Volumenvisualisierung
Universität Stuttgart Direkte Volumenvisualisierung Seminar Medizinische Visualisierung SS06 Alexander Lauser Struktur des Vortrags Motivation Grundlagen Volume Render-Algorithmen Raycasting Volume-slicing
MehrBeleuchtung Schattierung Rasterung
Thomas Jung t.jung@htw-berlin.de Beleuchtung Schattierung Rasterung 1 Beleuchtung, Schattierung und Rasterung in allen Echtzeit-3D-Umgebungen gleich OpenGL Direct3D 3dsmax,... Letzter Bestandteil der Grafikpipeline
MehrComputergrafik Universität Osnabrück, Henning Wenke,
Computergrafik Universität Osnabrück, Henning Wenke, 2012-07-09 Noch Kapitel XVI Realtime Ray Tracing KD-Tree: Surface Area Heuristic Ziele der Aufteilung in Child Nodes: 1. Möglichst gleich viele Objekte
MehrProzedurale Texturen >>Was nicht passt wird passend gemacht...<<
Prozedurale Texturen >>Was nicht passt wird passend gemacht...
MehrAdaptives Displacement Mapping unter Verwendung von Geometrieshadern
Fakultät Informatik Institut für Software- und Multimediatechnik, Professur für Computergraphik und Visualisierung Adaptives Displacement Mapping unter Verwendung von Geometrieshadern Diplomarbeit Timo
MehrGraphische Datenverarbeitung und Bildverarbeitung
Graphische Datenverarbeitung und Bildverarbeitung Hochschule Niederrhein Beleuchtungsberechnung Graphische DV und BV, Regina Pohle, 21. Beleuchtungsberechnung 1 Einordnung in die Inhalte der Vorlesung
Mehr1.3 Digitale Audiosignale
Seite 22 von 86 Abb. 1.2.12 - Wirkung der Schallverzögerung Effekte sind: Delay, Echo, Reverb, Flanger und Chorus Hört man ein akustisches Signal im Raum, dann werden die Signale von Wänden und anderen
MehrPhoton-Mapping. University of Bonn & GfaR mbh
Photon-Mapping Monte Carlo Ray Tracing diffus reflektierend spiegelnd unterschiedlich stark empfundenes Rauschen in beiden Bildern hochfrequente und niederfrequente Details der Mehrfachstreuung einige
MehrTexturkomprimierung. Philipp Klaus Krause. 6. November 2007
Texturkomprimierung Philipp Klaus Krause 6. November 2007 Gliederung 1 Einleitung 2 Verfahren Indizierte Farben S3TC ETC/iPACKMAN 3 Vergleich 4 Bibliographie Gliederung 1 Einleitung 2 Verfahren Indizierte
Mehr5 Mapping-Techniken. 5.1 Motivation
5.1 Motivation Bisher sind alle Oberflächen (polygonale Objekte, später auch parametrisierte Freiformflächen) glatt im Gegensatz zu wirklich existierenden natürlichen Oberflächen. Die explizite Wiedergabe
MehrTechniken der Effizienzsteigerung bei 2D-Texturierung:
Techniken der Effizienzsteigerung bei 2D-Texturierung: Mip-Mapping MIP = "Multum in Parvo" = vieles auf kleinem Raum spezielle Texture-Mapping-Erweiterung, häufig bei Echtzeitanwendungen, z.b. Spielen,
MehrEchtzeit Videoverarbeitung
Erzeugung von 3D Darstellungen Herbert Thoma Seite 1 Gliederung 3D Transformationen Sichtbarkeit von 3D Objekten Beleuchtung Texturen Beispiele: SGI Infinite Reality 2, PC 3D Hardware Seite 2 3D Transformationen
MehrLicht und Schatten Visualieren mit dem PC. Andreas Asperl
Licht und Schatten Visualieren mit dem PC Andreas Asperl Visualisieren Grundlagen der Visualisierung Lichteinflüsse Materialien Anwendungen Tipps und Tricks Grundlagen der Visualisierung In der Computergraphik
MehrMedizinische Visualisierung
Medizinische Visualisierung Vorlesung 8 09.01.2013, Universität Koblenz-Landau Dr. Matthias Raspe SOVAmed GmbH Themenüberblick Medizinische Grundlagen Anatomische Grundlagen Bildgebende Verfahren Datenrepräsentation,
MehrDie Welt der Shader. Fortgeschrittene Techniken III
Die Welt der Shader Fortgeschrittene Techniken III Universität zu Köln WS 14/15 Softwaretechnologie II (Teil 1) Prof. Dr. Manfred Thaller Referent: Lukas Kley Gliederung 1. Was ist ein Shader? 2. Verschiedene
MehrShader. Computer Graphics: Shader
Computer Graphics Computer Graphics Shader Computer Graphics: Shader Inhalt Pipeline Memory Resources Input-Assembler Vertex-Shader Geometry-Shader & Stream-Output Rasterizer Pixel-Shader Output-Merger
MehrGPU Programmierung 6. Juli 2004 M. Christen, T. Egartner, P. Zanoni
GPU Programmierung 6. Juli 2004 M. Christen, T. Egartner, P. Zanoni 1 Ablauf GPU Programm Vertex und Fragment Shader 2 3 4 5 Image Processing 6 Ablauf GPU Programm Ablauf GPU Programm Vertex und Fragment
MehrSchnelle Fouriertransformation (FFT)
Schnelle Fouriertransformation (FFT) Inhaltsverzeichnis 1 Schnelle Fouriertransformation (FFT)... 3 1.1 Das Realtime-Konzept der Goldammer-Messkarten... 3 1.2 Das Abtasttheorem oder Regeln für die Abtastung
MehrSoftwareprojekt Spieleentwicklung
Softwareprojekt Spieleentwicklung Prototyp I (2D) Prototyp II (3D) Softwareprojekt 12.04. 19.04. 26.04. 03.05. 31.05. Meilenstein I 28.06. Meilenstein II Prof. Holger Theisel, Tobias Günther, OvGU Magdeburg
MehrEinführung FEM 1D - Beispiel
p. 1/28 Einführung FEM 1D - Beispiel /home/lehre/vl-mhs-1/folien/vorlesung/4_fem_intro/deckblatt.tex Seite 1 von 28 p. 2/28 Inhaltsverzeichnis 1D Beispiel - Finite Elemente Methode 1. 1D Aufbau Geometrie
MehrEinführung in die medizinische Bildverarbeitung WS 12/13
Einführung in die medizinische Bildverarbeitung WS 12/13 Stephan Gimbel Kurze Wiederholung Pipeline Pipelinestufen können sich unterscheiden, beinhalten aber i.d.r. eine Stufe zur Bildvorverarbeitung zur
MehrUniversität Trier. Fachbereich IV. Wintersemester 2004/2005. Wavelets made easy. Kapitel 2 Mehrdimensionale Wavelets und Anwendungen
Universität Trier Fachbereich IV Wintersemester 2004/2005 Wavelets made easy Kapitel 2 Mehrdimensionale Wavelets und Anwendungen Thomas Queckbörner 16.11.2004 Übersicht des Kapitels: 1. Einführung 2. Zweidimensionale
Mehr"rendern" = ein abstraktes geometrisches Modell sichtbar machen
3. Grundlagen des Rendering "rendern" = ein abstraktes geometrisches Modell sichtbar machen Mehrere Schritte: Sichtbarkeitsberechnung Beleuchtungsrechnung Projektion Clipping (Abschneiden am Bildrand)
Mehrdie Planung eindrucksvoll präsentieren
Ambientes Licht die Planung eindrucksvoll präsentieren Fotorealismus Linsensystem, Blende, Schärfentiefe/Tiefenschärfe Fotorealismus Materialeigenschaften, Oberflächenstruktur, Reflektion, Absorption Fotorealismus
MehrProgrammierpraktikum 3D Computer Grafik
Prof. Andreas Butz, Dipl.Inf. Otmar Hilliges Programmierpraktikum 3D Computer Grafik Dynamische Schattenberechnung Agenda Der Stencil-Puffer Der 1-bit Stencil-Puffer Der 8-bit Stencil-Puffer Volumetrische
MehrProgrammierpraktikum 3D Computer Grafik
Dipl.Inf. Otmar Hilliges Programmierpraktikum 3D Computer Grafik Dynamische Schattenberechnung Agenda Der Stencil-Buffer Der 1-bit Stencil-Buffer Der 8-bit Stencil-Buffer Volumetrische Echtzeitschatten
Mehrcomputer graphics & visualization
Entwicklung und Implementierung echtzeitfähiger Verfahren zur Darstellung von reflektierenden Objekten auf GPUs echtzeitfähiger Verfahren zur Darstellung von reflektierenden Objekten auf GPUs Motivation
MehrModellierung. Oliver Hartmann
Modellierung Oliver Hartmann oliver.hartmann@uni-ulm.de Inhalt Boolesche Operationen Splines B-Splines Bezier-Kurven NURBS Anwendung Sculpting Volumengrafik Marching Cubes Ray Casting Texture Mapping Boolesche
MehrRendering: Lighting & Shading
Hauptseminar How to make a Pixar Movie WS 2010 / 2011 Rendering: Lighting & Shading von Manuel Schmidt Gliederung: 1 Einführung 1.1 Rendering 1.2 Reflektionsmodelle 1.2.1. Diffuse Reflektion 1.2.2. Spieglende
MehrRaytracing. Tobias Pfeiffer. 29. November Freie Universität Berlin Fachbereich Mathematik und Informatik
s G. tobias.pfeiffer@math.fu-berlin.de Freie Universität Berlin Fachbereich Mathematik und Informatik 29. November 2007 s 1 des Renderings 2 -Verfahrens 3 Schnittpunktbestimmung 4 Farbbestimmung 5 Stochastisches/
MehrSampling. 7. Vorlesung
Sampling 7. Vorlesung Photorealistische Computergrafik Thorsten Grosch Einleitung Bisher Lösung der Rendering Equation durch das Radiosity Verfahren mit den Vereinfachungen Heute Diskretisierung der Geometrie
MehrInteraktives Wasser in 3D. Jörn Loviscach Hochschule Bremen
Interaktives Wasser in 3D Jörn Loviscach Hochschule Bremen Ringwellen (Kapillar- und Schwerewellen) Kelvin-Schiffswellen Reflexionen von Himmel (Frensel-Effekt) und Sonne Kaustiken mit korrekten Schatten
MehrDarstellungsarten für 3D-Körper. Boundary Representation (BRep):
Darstellungsarten für 3D-Körper Boundary Representation (BRep): Darstellung eines (verallgemeinerten) Polyeders durch das System seiner Ecken, Kanten und Facetten Abspeichern durch (Teilgraphen des) vef-graphen
MehrProseminar über multimediale Lineare Algebra und Analytische Geometrie
Proseminar über multimediale Lineare Algebra und Analytische Geometrie Aufgabensteller: Dr. M. Kaplan Josef Lichtinger Montag, 1. Dezember 008 Proseminar WS0809 Inhaltsverzeichnis 1 Aufgabenstellung 3
MehrLaborprotokoll SSY Abtastung
Laborprotokoll SSY Abtastung Daniel Schrenk, Andreas Unterweger SSYLB WS 05/06 Abtastung Seite 1 von 12 Einleitung Ziel der Übung In dieser Laborübung sollte ein Signal abgetastet werden und anschließend
MehrMichael Bender Martin Brill. Computergrafik. Ein anwendungsorientiertes Lehrbuch. 2., überarbeitete Auflage HANSER
Michael Bender Martin Brill Computergrafik Ein anwendungsorientiertes Lehrbuch 2., überarbeitete Auflage HANSER Inhaltsverzeichnis Vorwort XI 1 Einleitung 1 1.1 Die Entwicklung der Computergrafik 1 1.2
MehrComputergrafik. Michael Bender, Manfred Brill. Ein anwendungsorientiertes Lehrbuch ISBN Inhaltsverzeichnis
Computergrafik Michael Bender, Manfred Brill Ein anwendungsorientiertes Lehrbuch ISBN 3-446-40434-1 Inhaltsverzeichnis Weitere Informationen oder Bestellungen unter http://www.hanser.de/3-446-40434-1 sowie
MehrComputergrafik Universität Osnabrück, Henning Wenke,
Computergrafik Universität Osnabrück, Henning Wenke, 2012-05-14 Kapitel V: Modeling Transformation & Vertex Shader 5.1 Vertex Definitionen: Vertex Vertex Computergrafik Mathematischer Punkt auf einer Oberfläche
MehrGraphische Datenverarbeitung und Bildverarbeitung
Graphische Datenverarbeitung und Bildverarbeitung Hochschule Niederrhein Schattenberechnung Graphische DV und BV, Regina Pohle, 23. Schattenberechnung 1 Einordnung in die Inhalte der Vorlesung Einführung
MehrSeminar. Visual Computing. Poisson Surface Reconstruction. Peter Hagemann Andreas Meyer. Peter Eisert: Visual Computing SS 11.
Poisson Surface Reconstruction Peter Hagemann Andreas Meyer Seminar 1 Peter Eisert: SS 11 Motivation Zur 3D Darstellung von Objekten werden meist Scan-Daten erstellt Erstellung eines Dreieckmodells aus
MehrComputergrafik SS 2012 Probeklausur Universität Osnabrück Henning Wenke, M. Sc. Sascha Kolodzey, B. Sc., Nico Marniok, B. Sc.
Computergrafik SS 2012 Probeklausur 1 06.07.2012 Universität Osnabrück Henning Wenke, M. Sc. Sascha Kolodzey, B. Sc., Nico Marniok, B. Sc. Aufgabe 1 (19 Punkte) Beantworten Sie die folgenden Fragen prägnant.
Mehr