Multitexturbasierte Volumenvisualisierung in der Medizin

Ähnliche Dokumente
Intra-operative Augmented Reality(AR) mit magnetischer Navigation und multitexturbasiertem Volume Rendering in der minimal-invasiven Chirurgie

Volumenverarbeitung und Optimierung II

Volume Rendering Techniques for General Purpose Graphics Hardware

Texture Based Direct Volume Rendering

Echtzeitfähige hige Verfahren in der Computergrafik. Lehrstuhl für f r Informatik Computer Grafik und Visualisierung TUM

GPU-basiertes Volumenrendering von multimodalen medizinischen Bilddaten in Echtzeit

Seminar Ausgewählte Themen der medizinischen Visualisierung

Volumen Visualisierung

Beleuchtung. in Computerspielen

Modern Volumenvisualisierung

Christina Nell. 3D-Computergrafik

Marching Cubes - Erstellung von Polygonmodellen aus Voxelgittern

Lokale Beleuchtungsmodelle

Kapitel 4: Schattenberechnung

(7) Normal Mapping. Vorlesung Computergraphik II S. Müller. Dank an Stefan Rilling U N I V E R S I T Ä T KOBLENZ LANDAU

Einführung in das Visualization ToolKit. Institut für Simulation und Graphik, Otto-von-Guericke Universität Magdeburg

Direkte Volumenvisualisierung

Volume Rendering & Transferfunktionen

Client-Server Strategien zur Visualisierung komplexer Sachverhalte in Digitalen Dokumenten der Chemie

Diplomarbeit. Neue Möglichkeiten durch programmierbare Shader. Unter der Leitung von: Prof. Dr.-Ing. Detlef Krömker

Volumenakquise. Vortrag von Benjamin Gayer

Lokale Beleuchtungsmodelle

BlendaX Grundlagen der Computergrafik

Visualisierung und Volumenrendering I

Graphische Datenverarbeitung Visualisierungstechniken. Prof. Dr. Elke Hergenröther

Probelektion zum Thema. Shadow Rendering. Shadow Maps Shadow Filtering

General Purpose Computation on GPUs

Computergrafik. Michael Bender, Manfred Brill. Ein anwendungsorientiertes Lehrbuch ISBN Inhaltsverzeichnis

Real-Time High-Dynamic Range Texture Mapping

Beleuchtung Schattierung Rasterung

Advanced Topics in Computer Graphics: Transferfunktionen

computer graphics & visualization

5. Gitter, Gradienten, Interpolation Gitter. (Rezk-Salama, o.j.)

Partikelvisualisierung

Rendering. (illumination/shading) Beleuchtungsmodelle. Schattierung von Polygonen. Lokale Beleuchtungsmodelle

3D-Visualisierung. Stefan Wesarg. Graphisch-Interaktive Systeme (GRIS) Technische Universität Darmstadt. Fraunhoferstraße Darmstadt

Workshop: Einführung in die 3D-Computergrafik. Julia Tolksdorf Thies Pfeiffer Christian Fröhlich Nikita Mattar

GPU-BASED VOLUME DEFORMATION USING MASS-SPRING-SYSTEMS. Diplomarbeit

"rendern" = ein abstraktes geometrisches Modell sichtbar machen

Interaktive Visualisierung zeitabhängiger Volumendaten

Algorithmik III Algorithmen und Modelle für kontinuierliche Datenstrukturen

Programmierpraktikum 3D Computer Grafik

Abb. 5-5 Gegenüberstellung von Flat-Shading und Gouraud-Shading. Beleuchtungsberechnung mit nur einer Flächennormale pro Polygon

Übungsstunde 8 zu Computergrafik 1

Adaptives Displacement Mapping unter Verwendung von Geometrieshadern

PhysX Evaluation. Softwarepraktikum Computergraphik. Daniel Brock, Robert Kreuzer, Simon Kufner. 5. Juli 2010

Georg Molzer 1HDD 3D-Grafikkarten GDV-Hardware

Die Welt der Shader. Fortgeschrittene Techniken III

Visualisierung II 2. Volumenvisualisierung

Computergrafik 2010 Oliver Vornberger. Kapitel 18: Beleuchtung

1 Transformationen. 1.1 Transformationsmatrizen. Seite 1

Computergrafik Universität Osnabrück, Henning Wenke,

Computergrafik. Ein anwendungsorientiertes Lehrbuch. Bearbeitet von Michael Bender, Manfred Brill

Medizinische Visualisierung

Texturkomprimierung. Philipp Klaus Krause. 6. November 2007

Simulation multipler Streuung an Haaren mit Hilfe eines Photon-Mapping-Ansatzes

PRIP-Preis. Effizientes Object Tracking durch Programmierung von Mehrkernprozessoren und Grafikkarten

Linear Workflow. Linear Workflow. Version

Computergrafik 1 Beleuchtung

CT Rekonstruktion mit Objektspezifischen Erweiterten Trajektorien

Computergrafik Universität Osnabrück, Henning Wenke,

Kapitel 5: Graphikhardware und Parallelisierung

CGR I Beleuchtung und Schattierung

Seminar: GPU-Methoden für die Visualisierung und Computergraphik

Grundlagen der Computergraphik Klausur SS08

Graphische Datenverarbeitung I WS 2017/2018

SS08, LS12, Friedrich-Alexander-Universität Erlangen Florian Hänel, Frederic Pollmann HS Multicore Architectures and Programming GPU EVOLUTION

Programmierpraktikum 3D Computer Grafik

Graphische Datenverarbeitung und Bildverarbeitung

Segmentierungsfreie Visualisierung des Gehirns für direktes Volume Rendering

5 BINÄRE ENTSCHEIDUNGS- DIAGRAMME (BDDS)

Vektorgeometrie. 1. Vektoren eingeben, Norm, Skalarprodukt. 2 In einem kartesischen Koordinatensystem sind die Vektoren. , v. und. gegeben.

Modellierung. Oliver Hartmann

Beleuchtung. Matthias Nieuwenhuisen

Grafikkarten-Architektur

3D Programmierpraktikum: Schattenberechnung in Echtzeit

Grundlagen der Spieleprogrammierung

IR Seminar SoSe 2012 Martin Leinberger

Bachelor s Thesis. An Interactive Space Simulation For Media Facades. M.Sc. Marcel Köster. Advisor Dr. Michael Schmitz.

Grundlagen der Computertomographie. Dr. Stephan Scheidegger, 2006

Fakultät für Informatik

Mesh-Visualisierung. Von Matthias Kostka. Visualisierung großer Datensätze

Teil 7: Beleuchtung Beleuchtungsmodelle, Schattierungsmodelle

White Paper Order Independent Transparency (OIT) in PTC Creo Parametric 2.0

Architektur moderner GPUs. W. Sczygiol - M. Lötsch

Prozedurale Texturen >>Was nicht passt wird passend gemacht...<<

Interaktive Visualisierung zeitabhängiger Volumendaten

VHDL - Grundlagen des Pointrenderings

Rendering: Lighting and Shading

Raytracing. Tobias Pfeiffer. 29. November Freie Universität Berlin Fachbereich Mathematik und Informatik

Computergrafik Universität Osnabrück, Henning Wenke,

Lernunterlagen Vektoren in R 2

Wima-Praktikum 2: Bildsynthese-Phong

Simulation eines Quantencomputers

PolKa. Prüfung von Verbundmaterialien und transparenten Stoffen. Technologieforum Optische Sensoren

Grundlagen der Spieleprogrammierung

2 Die ILabMed-Workstation Die Basisplattform der ILabMed-Workstation wird seit 1993 am Centrum für Medizinische Diagnosesysteme und Visualisierung auf

Medizinische Bildverarbeitung

C for Graphics Benjamin Rommel Seminar 'Paralleles Rechnen auf Grafikkarten' Sommersemester 2009 Betreuer: Julian M.

Kapitel 1 - Einführung

Transkript:

Multitexturbasierte Volumenvisualisierung in der Medizin Christof Rezk-Salama, Michael Scheuering Graphische Datenverarbeitung, Universität Erlangen-Nürnberg Am Weichselgarten 9, 91058 Erlangen Email: rezk,scheuering @cs.fau.de Zusammenfassung. Volumenvisualisierung ist mittlerweile zum festen Bestandteil zeitgemäßer medizinischer Forschung und Diagnostik geworden. Interaktivität fordert hier in der Regel teure Graphikworkstations oder spezielle Volume Rendering Hardware. Alternativ wurde bisher reduzierte Interaktivität und Bildqualität auch auf dem PC oder günstigeren Workstations angeboten. Angetrieben durch den PC Konsumermarkt werden hochwertige Graphikkarten gleichzeitig immer preiswerter und leistungsfähiger. Neueste Entwicklungen bieten extreme Polygonleistungen bei einer Füllrate im Gigapixel-Bereich. In diesem Bericht werden Verfahren vorgestellt, diese preiswerte Hardware für die wissenschaftliche Visualisierung zu verwenden. Dabei werden spezielle Fähigkeiten wie Framebuffer-Arithmetik und Single-Pass-Multi-Texturing effizient ausgenutzt, um direktes Volume Rendering mit Beleuchtung sowie Isoflächendarstellung bei interaktiver Bildrate zu ermöglichen. Das Ergebnis ist zeitgemäße Volumenvisualisierung, die in Hinblick sowohl auf Qualität als auch auf Interaktivität den Vergleich mit teuren High-End Lösungen mehr als standhält. 1 Einleitung Bei tomographischen Datensätzen liegt die volumetrische Information in der Regel als eine Menge diskreter Abtastpunkte auf uniformem Gitter vor. Der skalare Abtastwert beschreibt dabei eine bestimmte Materialeigenschaft des aufgenommenen Gewebes, beispielsweise das Absorptionsvermögen gegenüber Röntgenstrahlung bei CT. In der Volumenvisualisierung wird durch eine Transferfunktion jedem dieser Materialwerte jeweils ein Farbwert und ein Opazitätswert zugewiesen. Dadurch werden dem tatsächlichen Gewebe an diesem Punkt virtuell physikalische Fähigkeiten zur Emission und Absorption von Licht zugeordnet, die zur Generierung von Bildern genutzt werden. Die allgemein zum Rendering virtueller Szenen verwendete Strahlungstransfergleichung beschreibt das physikalische Phänomen der Ausbreitung von Licht in Materie. Streuung des Lichts wird in der Volumenvisualisierung in der Regel vernachlässigt. Der üblicherweise verwendete Raycasting-Ansatz approximiert die Strahlungstransfergleichung durch eine Neuabtastung des Datensatzes und durch Integration der interpolierten diskreten Emissions- und Absorptionswerte entlang der Sehstrahlen. Zur Interpolation können spezielle Fähigkeiten der Graphik-Hardware, wie beispielsweise Texturen ausgenutzt werden, um interaktive Bildraten zu erreichen.

Angetrieben durch den Massenmarkt für Multimedia-Anwendungen hat die Leistungsfähigkeit preiswerter PC-Graphikkarten immens zugenommen und teilweise die teuren High-End Lösungen im Hinblick sowohl auf Flexibilität als auch auf Performanz bereits überholt. Für eine Anwendung der Volumenvisualisierung in der Medizin spielt die Benutzerinteraktion eine entscheidende Rolle. Interaktive Darstellungen sind zwingend notwendig, um zielgerichtet Diagnosen durchzuführen. Daher ist es wünschenswert, kostengünstige hochperformante PC Hardware auch im medizinischen Bereich einzusetzen. 2 Texturbasierte Interpolation Im Gegensatz zum Konsumermarkt ist für die wissenschaftliche Visualisierung nicht nur die Performanz wichtig, sondern auch die Qualität der resultierenden Bilder, d.h. die Exaktheit bei der Darstellung der im Datensatz enthaltenen Information. Diese wird einerseits bestimmt durch das verwendete Interpolationsverfahren, andererseits durch die Abtastrate, d.h. die Anzahl der Abtastpunkte entlang eines Sehstrahls. Trilineare Interpolation wird hier als Standardanforderung angesehen. Der Nutzen von Interpolationsverfahren höherer Ordnung ist gerade im medizinischen Bereich fraglich, da in der Regel bei tomographischen Aufnahmeverfahren, beispielsweise beim Spiral-CT, die Rekonstruktion der Schichtbilder aus Projektionsbildern lediglich durch lineare Interpolation erfolgt. Zur artefaktfreien Darstellung kleiner Strukturen Nerven oder Blutgefäßen beispielsweise muß darüber hinaus eine Möglichkeit gegeben sein, die Abtastrate entsprechend zu erhöhen. Texturbasierte Verfahren versuchen die Fähigkeit der Textureinheit zur hardwarebeschleunigten Interpolation ausnutzen. Da Graphikkarten jedoch keine volumetrischen Rendering-Primitive unterstützen, muß das Volumen durch eine bestimmte Anzahl polygonaler Schichten approximiert werden. Je nach vorhandener Hardware gibt es verschiedene Strategien: 2.1 Verwendung von 3D-Texturen Das Standardverfahren zum texturbasierten Volume-Rendering wurde 1994 von Cabral et al. [1] vorgestellt und erfordert eine Unterstützung von 3D-Texturen mit trilinearer Interpolation durch die Graphikhardware. Dieses in der Regel auf High-End Workstations implementierte Verfahren gilt als Referenz sowohl für Bildqualität als auch für Performanz. Das Volumen wird dann wie in Abb. 1 (links) dargestellt in Texturschichten zerlegt, die abhängig von der Blickrichtung immer parallel zur Bildebene verlaufen. Da sich in diesem Szenario die Schichtpolygone bei Änderung des Augpunktes ebenfalls verändern, müssen die Texturen für jedes Bild neu interpoliert werden. Da die Hardware trilineare Interpolation unterstützt, ist dies bei interaktiver Bildrate möglich. 2.2 Verwendung von 2D-Texturen Trilinear interpolierte 3D-Texturen werden von PC-Graphikkarten nur zögerlich unterstützt. Daher will man zumindest die bilineare Interpolation der 2D-Texturen aus-

Polygone parallel zur Bildebene Polygone am Objekt ausgerichtet Abb. 1. Ausrichtung der Polygone an der Bildebene (links) und am Volumen (Mitte). Bei zu geringer Abtastrate führen beide Verfahren zu visuellen Artefakten (rechts). nutzen. Wie in Abb. 1 (Mitte) dargestellt, kann dies geschehen, indem man die Schichtpolygone anstatt an der Bildebene am Objekt selbst ausrichtet. Auf diese Weise wird trilineare durch bilineare Interpolation ersetzt. Ändert sich der Winkel zwischen Blickrichtung und Schichtnormale um mehr als 45, so wird auf einen anderen Schichtstapel umgeschaltet. Demzufolge müssen die meisten der texturbasierten Algorithmen das Volumen dreifach im Speicher halten, jeweils ein Schichtenstapel für jede Raumachse. Dies ist auch das Grundprinzip beim Shear-Warp-Algorithmus [2], der als Standardverfahren für Software-Implementierungen gilt. Im Bezug auf den ursprünglichen Raycasting-Ansatz ist diese Vorgehensweise jedoch nicht ganz korrekt. Da der Winkel zwischen Blickrichtung und Schichtnormale zwischen 0 und 45 variiert, ändert sich der Abstand der Abtastpunkte blickrichtungsabhängig mit einem Faktor zwischen 1 und 2. Die Integration der Abtastwerte wird somit inkorrekt. Der größte Schwachpunkt bisheriger 2D-texturbasierter Verfahren ist jedoch die Tatsache, daß es aufgrund der festen Texturschichten nicht möglich ist, die Abtastrate zu erhöhen. Dies wird besonders dann deutlich, wenn bei starkem Zoomen visuelle Artefakte an den Schichträndern entstehen, wie sie in Abb. 1 (rechts) dargestellt sind. Die Beseitigung dieser Artefakte ist auf sehr effiziente Weise möglich durch Verwendung von Multitexturen. 2.3 Verwendung von 2D-Multitexturen Unter Multitexturen versteht man die Möglichkeit ein einzelnes Polygon innerhalb der Rendering-Pipeline gleichzeitig mit mehreren Texturen zu versehen. In der Rasterisierung wird Farbe und Opazität eines Fragments dann als Ergebnis programmierbarer arithmetischer Operationen zwischen der Primärfarbe und mehreren Texturwerten bestimmt (Texturkombination). Wie in [3] beschrieben, kann diese flexible Framebuffer- Arithmetik effizient ausgenutzt werden, um echte trilineare Interpolation auch mit 2D- Texturen zu berechnen. Die trilineare Interpolation einer Texturschicht S i α kann beschrieben werden als Überblenden zwischen zwei aufeinanderfolgenden Schichten S i und S i 1: S i α 1 α S i α S i 1 (1) Die beiden Schichten S i und S i 1 werden als Multitexturen aktiviert. Die bilineare Interpolation innerhalb der Texturschicht wird hierbei durch die Texturumgebung berech-

A C B D Abb. 2. Intrakranielles Aneurysma in der CT Angiographie. Direktes Volume-Rendering ohne Beleuchtung (A), mit diffuser und spekularer Beleuchtung (B). Isofla che mit diffuser und spekularer Beleuchtung (C). Transparente Isofla che (D) net. Der fehlende dritte Interpolationschritt in Richtung der Schichtnormale erfolgt anschließend gema ß Gleichung 1 bei der Texturkombination. Berechnungen wie diese werden auf PC-Graphikkarten mittlerweile standardma ßig unterstu tzt, beispielsweise im neuen Standard DirectX 8 0 oder unter OpenGL durch NVidia s Register Combiners [4] Moderne Multitextur-Hardware unterstu tzt weitaus komplexere Mo glichkeiten der Texturkombination. Beispielsweise ko nnen die RGB-Kana le einer Textur als Vektoren interpretiert und ein Skalarprodukt berechnet werden. Dies kann genutzt werden, um das Phong-Beleuchtungsmodell in die texturbasierte Volumendarstellung zu integrieren (siehe Abb. 2 und 3), wie es beispielsweise in [5] zur Darstellung nichtpolygonaler Isofla chen genutzt wurde. Die Basis dieser Verfahren ist die Vorberechnung der Gradientenvektoren, deren x, y und z Komponenten in einer RGB-Textur gespeichert werden. In der Rasterisierung wird dann das fu r die Beleuchtung beno tigte Skalarprodukt zwischen Gradient und Lichtrichtung (bzw. Halfway-Vektor) bestimmt. Die Berechnung des Phong-Beleuchtungsmodells kann somit vollsta ndig durch die Rasterisierungshardware erfolgen [3]. A B C D Abb. 3. Computertomographie der Mittelhandknochen. Direktes Volume-Rendering ohne Beleuchtung (A), mit diffuser Beleuchtung (B) und mit spekularer Beleuchtung (C). Isofla che mit diffuser und spekularer Beleuchtung (D)

3 Implementierung Um medizinischem Fachpersonal den Zugriff und den Einsatz des beschriebenen Volume Rendering Systems zu ermöglichen, wurde eine Integration in die medizinische Softwareplattform syngo der Firma Siemens AG zu Evaluierungszwecken vorgenommen 1. Durch die Realisierung ähnlich einer Syngo-Komponente ist es möglich, die Applikation in den Workflow des Mediziners einzubinden. So erlaubt die Anwendung nun, direkt vom CT- oder MR-Scanner aufgenommene Tomographiedaten per DICOM- Protokoll zu transferieren und in einem Patientbrowser auszuwählen. Anschlie send können die Daten mit den in den vorigen Kapiteln beschriebenen Visualisierungstechniken dargestellt werden. 4 Zusammenfassung und Ausblick Graphik-Hardware für den PC bietet sehr flexible Multitextur-Einheiten mit programmierbaren arithmetischen Operationen. Es wurde gezeigt, daß diese Möglichkeiten effizient genutzt werden können um die für medizinische Anwendungen benötigte Interaktivität und Bildqualität auch auf Low-Cost Hardware zu realisieren. Die vorgestellten Verfahren zielen darauf ab, in naher Zukunft hochqualitatives Volume Rendering auf den Schreibtisch eines jeden praktizierenden Arztes zu bringen. Speziell für medizinische Zwecke können die Verfahren auch zur interaktiven Segmentierung erweitert werden. Dabei können die Originaldaten als eine Textur definiert und die Segmentierungs-Tags als eine zweite Textur, wodurch in Verbindung mit Texturpaletten extrem flexible Darstellungsmöglichkeiten folgen. Darüber hinaus ist es auch naheliegend die fusionierte Darstellung registrierter multimodaler Datensätze auf sehr flexible Weise mit Multitexturen zu realisieren. Literatur 1. B. Cabral, N. Cam, and J. Foran. Accelerated Volume Rendering and Tomographic Reconstruction Using Texture Mapping Hardware. ACM Symp. on Vol. Vis., 1994. 2. P. Lacroute and M. Levoy. Fast Volume Rendering Using a Shear Warp Factorization of the Viewing Transform. Comp. Graphics, 28(4), 1994. 3. C. Rezk-Salama, K. Engel, M. Bauer, G. Greiner, and T. Ertl. Interactive Volume Rendering on Standard PC Graphics Hardware Using Multi-Textures and Multi-Stage Rasterization. In Eurographics/SIGGRAPH Worksh. on Graphics Hardware. ACM, 2000. 4. J. Spitzer. GeForce 256 and RIVA TNT Combiners. http://www.nvidia.com/developer. 5. R. Westermann and T. Ertl. Efficiently Using Graphics Hardware in Volume Rendering Applications. In Proc. of SIGGRAPH, Comp. Graph. Conf. Series, 1998. 1 Die Integration liegt jedoch nicht als Produkt vor, sondern lediglich als Forschungsarbeit zu Testzwecken am Institut.