Virtual Try-On. Virtuelle Textilien in der Graphischen Datenverarbeitung HAUPTBEITRAG / VIRTUAL TRY-ON



Ähnliche Dokumente
Lineargleichungssysteme: Additions-/ Subtraktionsverfahren

Virtuelle Fotografie (CGI)

Professionelle Seminare im Bereich MS-Office

1. Sichtbarkeitsproblem beim Rendern einer dreidimensionalen Szene auf einer zweidimensionalen

Anhand des bereits hergeleiteten Models erstellen wir nun mit der Formel

Festigkeit von FDM-3D-Druckteilen

OECD Programme for International Student Assessment PISA Lösungen der Beispielaufgaben aus dem Mathematiktest. Deutschland

Die Größe von Flächen vergleichen

1 Mathematische Grundlagen

Zeichen bei Zahlen entschlüsseln

Advanced Rendering Interior Szene

QM: Prüfen -1- KN

PhoToPlan 6.0 Was ist neu?

Grundlagen der Theoretischen Informatik, SoSe 2008

Primzahlen und RSA-Verschlüsselung

Bilder Schärfen und Rauschen entfernen

Kreatives Gestalten mit Flash 5.0

W-Rechnung und Statistik für Ingenieure Übung 11

Hinweise zur Kalibrierung von Kameras mit einer AICON Kalibriertafel

Unterrichtsmaterialien in digitaler und in gedruckter Form. Auszug aus: Übungsbuch für den Grundkurs mit Tipps und Lösungen: Analysis

Reporting Services und SharePoint 2010 Teil 1

Praktikum Physik. Protokoll zum Versuch: Geometrische Optik. Durchgeführt am

Austausch- bzw. Übergangsprozesse und Gleichgewichtsverteilungen

Stellen Sie bitte den Cursor in die Spalte B2 und rufen die Funktion Sverweis auf. Es öffnet sich folgendes Dialogfenster

Würfelt man dabei je genau 10 - mal eine 1, 2, 3, 4, 5 und 6, so beträgt die Anzahl. der verschiedenen Reihenfolgen, in denen man dies tun kann, 60!.

Lizenzen auschecken. Was ist zu tun?

Step by Step Webserver unter Windows Server von Christian Bartl

Inhalt. 1. Über die Rieder Maßmanufaktur. 2. Unternehmen. 3. Produkte D- Bodyscanner und virtueller Spiegel. 5. Kontakt

Nutzung von GiS BasePac 8 im Netzwerk

Simulation LIF5000. Abbildung 1

Leichte-Sprache-Bilder

Wie wirksam wird Ihr Controlling kommuniziert?

Integration mit. Wie AristaFlow Sie in Ihrem Unternehmen unterstützen kann, zeigen wir Ihnen am nachfolgenden Beispiel einer Support-Anfrage.

Die Übereckperspektive mit zwei Fluchtpunkten

Photorealistische Echtzeit-Visualisierung geovirtueller Umgebungen

Lineare Gleichungssysteme

MetaQuotes Empfehlungen zum Gebrauch von

Design-Report Einige Beispiele aus der Medienwerkstatt. Videoproduktion. Verpackungsdesign. Mailingaktion. 3D-Illustration.

Erstellen von x-y-diagrammen in OpenOffice.calc

Der Einsatz von HDRIs in LightWave 7

Institut für Computational Engineering ICE. N ä h e r d ra n a m S ys t e m d e r Te c h n i k d e r Z u ku n f t. w w w. n t b.

Der Kalender im ipad

Windows 8.1. Grundkurs kompakt. Markus Krimm, Peter Wies 1. Ausgabe, Januar inkl. zusätzlichem Übungsanhang K-W81-G-UA

BIA-Wissensreihe Teil 4. Mind Mapping Methode. Bildungsakademie Sigmaringen

4. Jeder Knoten hat höchstens zwei Kinder, ein linkes und ein rechtes.

InterCafe Handbuch für Druckabrechnung

Fehler und Probleme bei Auswahl und Installation eines Dokumentenmanagement Systems

Anleitung über den Umgang mit Schildern

Was ist Sozial-Raum-Orientierung?

Lernwerkstatt 9 privat- Freischaltung

AGROPLUS Buchhaltung. Daten-Server und Sicherheitskopie. Version vom b

Animation ist das Erzeugen von Filmen mit Hilfe der Computergrafik. Objekte bewegen sich hierbei oder Beleuchtung, Augpunkt, Form,... ändern sich.

Fragebogen: Abschlussbefragung

KON-CAD 3D. hat mit KON-CAD 3D das ideale Instrument zur CAD-gestützten Arbeitsvorbereitung.

Buchhaltung mit WISO EÜR & Kasse 2011

Wie optimiert man die Werbungserkennung von Ad- Detective?

Elementare Bildverarbeitungsoperationen

5.12. Variable Temperaturgradienten über dem Scheibenzwischenraum

PC-Umzug: So ziehen Sie Ihre Daten von Windows XP nach Windows 8 um

Installation und Inbetriebnahme von SolidWorks

Tutorial. 1. Neue Animation erstellen 2. Kartenobjekte animieren 3. Film erstellen. Tutorial 1

Cookies Cookies -Marketing Live Chat Analytik

Beispiel Shop-Eintrag Ladenlokal & Online-Shop im Verzeichnis 1

50. Mathematik-Olympiade 2. Stufe (Regionalrunde) Klasse Lösung 10 Punkte

Professionelle Diagramme mit Excel 2010 erstellen. Peter Wies. 1. Ausgabe, 2. Aktualisierung, März Themen-Special W-EX2010DI

Version smarter mobile(zu finden unter Einstellungen, Siehe Bild) : Gerät/Typ(z.B. Panasonic Toughbook, Ipad Air, Handy Samsung S1):

Windows 8 Lizenzierung in Szenarien

6.2 Scan-Konvertierung (Scan Conversion)

Das Leitbild vom Verein WIR

Mit der Maus im Menü links auf den Menüpunkt 'Seiten' gehen und auf 'Erstellen klicken.

Windows 10 > Fragen über Fragen

Beschreibung des MAP-Tools

Stellen Sie das Projekt Druckluftmotor auf aktuell. Öffnen Sie die Baugruppe Druckluftmotor.

Zahlen auf einen Blick

Softwaretechnologie -Wintersemester 2013/ Dr. Günter Kniesel

Wellen. 3.&6. November Alexander Bornikoel, Tewje Mehner, Veronika Wahl

Physik & Musik. Stimmgabeln. 1 Auftrag

Güte von Tests. die Wahrscheinlichkeit für den Fehler 2. Art bei der Testentscheidung, nämlich. falsch ist. Darauf haben wir bereits im Kapitel über

Elektrischer Widerstand

Lichtbrechung an Linsen

Modellbildungssysteme: Pädagogische und didaktische Ziele

Hohe Kontraste zwischen Himmel und Landschaft abmildern

Theoretische Informatik SS 04 Übung 1

Alle gehören dazu. Vorwort

UMSTELLUNG DER RÖNTGEN-SCHNITTSTELLE DÜRR-DBSWIN AUF DÜRR-VDDS

Raytracing. Schlussbericht. Jonas Lauener 1995, Áedán Christie 1997 Melvin Ott 1997, Timon Stampfli 1997

Datensicherung. Beschreibung der Datensicherung

Step by Step Remotedesktopfreigabe unter Windows Server von Christian Bartl

Rekursionen. Georg Anegg 25. November Methoden und Techniken an Beispielen erklärt

Fotostammtisch-Schaumburg

Suche schlecht beschriftete Bilder mit Eigenen Abfragen

Kleines Handbuch zur Fotogalerie der Pixel AG

Ob Altbau, Neubau,»Traumhäuser«oder Gewerbeobjekte: mit 3D-Visualisierung werden Immobilien rundum emotional erlebbar...

CTI SYSTEMS S.A. CTI SYSTEMS S.A. 12, op der Sang. Fax: +352/ L Lentzweiler. G.D.

Simulation (vormals Feldversuch) Cico im Gelenkbus

1 topologisches Sortieren

PTV VISWALK TIPPS UND TRICKS PTV VISWALK TIPPS UND TRICKS: VERWENDUNG DICHTEBASIERTER TEILROUTEN

Transkript:

} HAUPTBEITRAG / VIRTUAL TRY-ON Virtual Try-On Virtuelle Textilien in der Graphischen Datenverarbeitung Markus Wacker Michael Keckeisen Stefan Kimmerle Wolfgang Straßer Volker Luckas Clemens Groß Arnulph Fuhrmann Mirko Sattler Ralf Sarlette Reinhard Klein Die physikalische Simulation von Textilien und deren realistische Visualisierung setzt sich interdisziplinär aus Bereichen der Mathematik, Physik, Materialwissenschaften und Computergraphik zusammen. Dabei wird das physikalische Verhalten von Bekleidung modelliert, die auf realen Schnittmusterdaten basiert, und es sind effiziente numerische Verfahren zur Behandlung der auftretenden Differentialgleichungen zu entwickeln. Schließlich sollen die Ergebnisse fotorealistisch dargestellt werden (Abb.1). Das Ziel des BMBF-Projekts Virtual Try-On Von der virtuellen Anprobe zum Maßschnitt ist es, die Probleme der virtuellen Anprobe in einer Boutique oder im Internet und der kostengünstigen Herstellung von Maßkleidung zu lösen. Dabei wird die vollständige Prozesskette von der Auswahl der Kleidung bis hin zur Visualisierung und individuellen Passformbeurteilung abgebildet. Im Folgenden wird diese Prozesskette für die Kleidersimulation in drei Komponenten beschrieben: Die automatische Vorpositionierung, die einen guten Ausgangszustand der einzelnen Schnittteile für die Simulation liefert und die Nahtinformationen für das Vernähen der Schnittteile zum Gesamtkleidungsstück generiert. Die physikalische Faltenwurfberechnung am virtuellen Menschmodell. Hier werden die Schnittteile am Avatar vernäht und der Faltenwurf mit realen Materialparametern berechnet. Schließlich die realistische und interaktive Visualisierung des Stoffes mit realen Reflexionseigenschaften unter natürlichen Beleuchtungsbedingungen. Abbildung 9 zeigt die einzelnen Abschnitte der Verarbeitungskette. Vorpositionierung Am Anfang der Produktionskette eines Kleidungsstücks in der Bekleidungsindustrie steht ein hoch- DOI 10.1007/s00287-004-0442-5 Springer-Verlag 2004 Abb. 1 Simulierte Kleidung mit ausgemessenen Reflexionseigenschaften unter natürlicher Beleuchtung V. Luckas C. Groß A. Fuhrmann FHG-IGD Darmstadt, M. Sattler R. Sarlette R. Klein Abteilung für Computergrafik, Universität Bonn, M.Wacker M. Keckeisen S. Kimmerle W. Straßer WSI/GRIS, Universität Tübingen, 72076 Tübingen E-Mail: mwacker@gris.uni-tuebingen.de 504 Informatik_Spektrum_13_Dezember_2004

spezialisiertes CAD-System [1,19]. Darin wird jedes Kleidungsstück durch mehrere zweidimensionale Schnittteilgeometrien beschrieben. Zusätzlich werden Informationen bereitgestellt, wie die Schnittteile miteinander zu vernähen sind. Will man mit diesen Daten einen virtuellen Menschen (kurz Avatar) bekleiden, so müssen die Schnittteile miteinander vernäht werden. Eine naive Vorgehensweise wäre die Simulation des realen Bekleidungsvorgangs nach dem Vernähen der Schnittteile. Dieser Ansatz ist jedoch viel zu aufwändig, wenn man beispielsweise an das Hineinschlüpfen in einen Pullover denkt. Bedeutend einfacher durchführbar sind die Techniken, welche bei Volino u. Magnenat- Thalmann [29,30] vorgeschlagen wurden. Dort werden die virtuellen Schnittteile zunächst interaktiv um den Avatar positioniert, um sie anschließend am Körper zu vernähen. Diese Vorgehensweise findet ihre Anwendung zum Beispiel in der Filmindustrie [28]. In zeitkritischen Anwendungen, wie beispielsweise einer vir-tuellen Boutique, wo der Kunde vor einem virtuellen Spiegel das Passverhalten der Kleidungsstücke an seinem digitalen Ebenbild betrachten will, muss dieser Vorgang automatisiert ablaufen. Aus diesem Grund werden in einem neuen Ansatz [9,12] die Schnittteile automatisch auf abwickelbaren Hüllflächen, wie Zylinder oder Kegel, um die einzelnen Körpersegmente des Avatars positioniert (Abb. 2). Da die Positionen der vorpositionierten Schnittteile als Anfangswerte für die anschließende physikalisch basierte Simulation dienen, muss darauf geachtet werden, dass die vorpositionierten Schnittteile möglichst unverzerrt um den Avatar liegen. Eine hohe Ausgangsdehnung der Schnittteile würde zu falschen Endergebnissen oder sogar zu Divergenzen in der physikalisch basierten Simulation führen. Die Abwickelbarkeit der Hüllflächen garantiert hierbei, dass die Schnittteile nicht gedehnt werden. Des Weiteren werden Kollisionen zwischen dem Körper und den Schnittteilen bzw. zwischen den einzelnen Schnittteilen vermieden. Zwar sind in den letzten Jahren Techniken [4,2,23] vorgestellt worden, die in der Lage sind, solche Durchdringungen aufzulösen, jedoch garantieren kollisionsfreie Ausgangspositionen wesentlich kürzere Berechnungszeiten. Zusätzlich sollten zwei korrespondierende Nahtkurven möglichst nahe beieinander liegen, um die zu simulierenden Wege beim Zusammenziehen der Nähte zu verkürzen. Abb. 2 Virtual-Try-On-Prozesskette. Basierend auf den Schnittteilen ( links) wird die Vorpositionierung ( rechts) durchgeführt und danach die Simulationskette gestartet Mit Hilfe unseres Ansatzes können mehrere Kleidungsstücke gleichzeitig und vollkommen automatisch vorpositioniert werden. Dazu wird eine Serie von übereinander liegenden Hüllflächen, auf denen die Schnittteile der verschiedenen Kleidungsstücke positioniert werden, berechnet. Dabei trägt jede neue Hüllfläche den bereits vorpositionierten Schnittteilen Rechnung, indem sie diese mit umschließt. Die vorpositionierten Schnittteile liegen sehr kompakt am Körper, wobei in den meisten Fällen Kollisionen vermieden werden können. Mit dieser Vorgehensweise ist es leicht möglich, eine so genannte Bekleidungsreihenfolge zu bestimmen bzw. eine vorgegebene zu ändern. Beispielsweise lässt sich einfach durch Ändern der Reihenfolge beim Auswählen der Kleidungsstücke festlegen, ob man sein Hemd in der Hose oder darüber tragen will. Faltenwurfsimulation An die automatische Vorpositionierung der Schnittteile schließt sich die physikalische Faltenwurfsimulation der Bekleidung an. Hier wird unter Berücksichtigung der Materialeigenschaften der Textilien deren dynamisches Verhalten simuliert, um eine Visualisierung am Avatar zu ermöglichen und Informationen über die Passgenauigkeit für den digitalisierten Kunden zu erhalten. Das entwickelte Modell zur physikalischen Textilsimulation basiert auf einer Diskretisierung der kontinuierlichen Elastizitätsgleichungen durch Finite Elemente [7]. Hierbei wird das viskoelastische Verhalten mit Hilfe einer linearen Verzerrungsformulierung approximiert, um eine effiziente Zeitintegration zu ermöglichen. Allerdings ist hierbei zu beachten, dass eine lineare Beschreibung der Informatik_Spektrum_13_Dezember_2004 505

} VIRTUAL TRY-ON Verzerrung nur für kleine Verschiebungen benutzt werden kann. Dies kann für Textilien nicht angenommen werden, da sie bezüglich Biegung gegenüber Zug und Scherung einen sehr geringen Widerstand besitzen und damit hohe Deformationen auftreten können. Diese Einschränkung wird in dem hier verwendeten Modell dadurch behoben, dass ein mitrotierender lokaler Referenzrahmen für jedes finite Element konstruiert wird, bezüglich dem die Berechnungen der inneren Kräfte erfolgen. Die Zeitintegration schließlich erfolgt durch ein implizites Euler-Verfahren, wobei in jedem Zeitschritt ein dünn besetztes lineares Gleichungssystem zu lösen ist. Hierzu wird das Verfahren der konjugierten Gradienten eingesetzt. Für sehr detaillierte geometrische Modelle von Textilien lässt sich die implizite Integration zudem effizient parallelisieren [15]. Mit dem beschriebenen Verfahren lassen sich gemessene Materialparameter wie Zugkräfte in Kett- und Schussrichtung, Scherkräfte, Biegekräfte in Kett- und Schussrichtung und Querkontraktion modellieren. Aus den im Kawabata-Messsystem [14] ermittelten Hysteresekurven werden dazu die entsprechenden viskoelastischen Parameter zur Beschreibung der Stoffdeformationen extrahiert. Externe Kräfte wie Luftwiderstand und Effekte von Windströmungen lassen sich ebenfalls in das Modell integrieren [16] und tragen zu einer realistischen Simulation und einem realistischen Faltenwurf bei. Da die dynamische Elastizitätsgleichung gelöst wird, können im Simulator auch bewegte Szenen verarbeitet werden. So ist es z. B. möglich, falls der Avatar mit Bewegungsdaten animiert wurde, die Kleidung auf dem bewegten Avatar zu simulieren. Der Kunde kann dadurch besser den Fall des Stoffs und die Passform der ausgewählten Kleidung beurteilen. Eine der großen Herausforderungen eines Simulationssystems ist es sicherzustellen, dass der simulierte Stoff nicht den Avatar durchdringt oder es zu Selbstdurchdringungen des Stoffs kommt. Dafür werden leistungsfähige Kollisionsdetektionsund Kollisionsantwortverfahren eingesetzt [27]. Um die intrinsische quadratische Komplexität der Kollisionsdetektion (jedes Dreieck des Stoffes kann theoretisch mit jedem Dreieck der Szene kollidieren) zu beschleunigen, wird eine Hierarchie von speziellen Hüllkörpern, so genannte k -DOPS, ver- wendet (Abb. 3). Zur Kollisionsdetektion werden die Hierarchien der Kollisionsobjekte traversiert und gegenseitig auf Kollision getestet. Kollidieren die Hüllkörper zweier Elternknoten nicht, so kann die weitere Traversierung der darunter liegenden Knoten abgebrochen werden. Anderenfalls wird auf Blattebene ein Kollisionstest der entsprechenden Facetten durchgeführt, wobei die Abstände von Kanten-Kanten, sowie Vertex-Dreiecks-Paaren bestimmt werden. Da sich bei animierten Objekten die Positionen der Vertices in jedem Zeitschritt ändern, ist auch ein Neuaufbau der Hüllkörper notwendig. Effektiv ist es, die Hierarchie von unten nach oben ( bottom-up ) zu traversieren und dabei zu aktualisieren. Zusätzlich wird die zeitliche Kohärenz zwischen mehreren Zeitschritten ausgenutzt, um diesen Aktualisierungsvorgang nicht in jedem Zeitschritt für alle Teile der Hierarchie durchführen zu müssen [23]. Abb. 3 Verschiedene Stufen der verwendeten k -DOP- Hierarchie am Beispiel des verwendeten Avatars Nachdem alle kollidierenden Primitiva der Objekte detektiert wurden, dient die Kollisionsantwort dazu, wieder einen gültigen, also kollisionsfreien Zustand herzustellen. In dem vorgestellten Simulator geschieht dies durch zwei unterschiedliche Verfahren. Zum einen kann die Bewegung einzelner Vertices in bestimmte Richtungen durch Zwangsbedingungen eingeschränkt werden, was direkt im Differentialgleichungslöser geschieht. Dadurch kann ein weiteres Eindringen der Objekte ineinander verhindert werden. Bereits eingedrungene Vertices werden wieder an die Oberfläche des entsprechenden Objekts gesetzt. Andererseits werden zur Behandlung von Selbstkollisionen absto- 506 Informatik_Spektrum_13_Dezember_2004

Abb. 4 Virtual-Try-On-Prozesskette. Verschiedene Schritte der Simulation ßende Kraftpotentiale eingesetzt, die die Kollisionspartner wieder voneinander entfernen. Die Ausgabe des Simulators besteht aus Kleidungsstücken in Form von dreidimensionalen Netzen mit entsprechenden Texturkoordinaten, welche die Grundlage der fotorealistischen Visualisierung bilden (Abb. 4). Eine ausführliche Beschreibung der Simulationskomponente mit weiteren Referenzen auf Einzelaspekte bei der Berechnung des Faltenwurfs von Kleidungsstücken finden sich bei Kimmerle sowie Meseth et al. [18,31]. Damit die Kleidersimulation auch im Internet verfügbar ist, wurde ein eigenständiger Simulator in Java entwickelt [8]. Die Eingabedaten bestehen ebenfalls aus dem Avatar und den vorpositionierten Kleidungsstücken. Damit der Faltenwurf in Echtzeit berechnet werden kann, wurde ein spezielles Simulationsmodell entworfen, welches nicht alle Materialeigenschaften, sondern nur die für eine Visualisierung wichtigsten, berücksichtigt. Die Kollisionserkennung zwischen der Kleidung und dem Avatar erfolgt hier mit Hilfe von Distanzfeldern [10]. Die vorgestellten Simulationskomponenten lassen sich außerdem dazu benutzen, um den Textildesign- und Schneiderprozess zu unterstützen. So ist die Simulationskomponente in eine Virtual-Reality-Umgebung eingebunden, in der einzelne Schnittteile geschneidert werden können und das entstehende Kleidungsstück am Avatar anprobiert werden kann [17,32]. Abb. 5 Bild des Messlabors. In der Mitte der Messroboter, der die Probe hält. Im Hintergrund ist die Lampe zu erkennen. Um den Roboter herum ist ein Schienensystem mit CCD- Kamera auf einem Laufwagen installiert. Das untere Bild illustriert den Messaufbaus an Hand eines Schemas Fotorealistische Kleidungsvisualisierung Am Ende der Simulationskette steht die fotorealistische dreidimensionale Darstellung der Kleidungsstücke des virtuellen Kunden. Besonderes Augenmerk wird dabei auf die Simulation der korrekten physikalischen Reflexionseigenschaften der Oberflächen der verwendeten Kleidungsmaterialien gelegt, so dass der Kunde durch bloßes Anschauen ein Gefühl für das Material bekommt (Look & Feel). Zudem ist für ein realistisches Aussehen das Einbeziehen möglichst natürlicher Beleuchtungssituationen, wie z. B. im Verkaufsraum oder bei natürlicher Sonneneinstrahlung, notwendig. Für die Erfassung der optischen Eigenschaften der Materialien wurde ein Labor aufgebaut (Abb. 5), in dem mit Hilfe einer CCD-Kamera und eines Roboters High-Dynamic-Range (HDR [6]) Messungen aus unterschiedlichen Richtungen durchgeführt werden. Man erhält vollständig automatisiert bidirektionale Texturfunktionen (BTF, [5,26]) verschiedener Materialien, die das Aussehen einer planaren Materialprobe unter verschiedenen Blick- und Beleuchtungsrichtungen beschreibt (Abb. 6) und die Mesostruktur der Oberfläche miterfasst. Dabei sind in der Aufnahme automatisch Selbstbeschattungs- und -verdeckungseffekte, Farbverschiebungen und Lichtstreuung an der Oberfläche enthalten. Das Messen dieser Phänomene ist entscheidend für eine überzeugende fotorealistische Reproduktion. Die Rippenstruktur des Kordes zum Beispiel und die resultierende Helligkeit sind extremen Schwankungen unterworfen. Abbildung 10 zeigt den Vergleich zwischen mit BTF-Daten und normaler Frontaltextur texturierter Geometrie, die beide mit Informatik_Spektrum_13_Dezember_2004 507

} VIRTUAL TRY-ON Abb. 6 Ansichten der Kordprobe aus unterschiedlichen Beleuchtungsrichtungen und Blickwinkeln. Links: frontale Beleuchtung, frontale Betrachtung; Mitte: seitliche Beleuchtung, frontale Betrachtung; Rechts: flacher Betrachtungswinkel Abb. 7 Aufnahmen der Beleuchtungssituation am Eingang der Universität Bonn mit verschiedenen Belichtungszeiten Abb. 8 Aufgeschnittene, würfelförmige Environment Map zur Reproduktion der Beleuchtungssituation der gleichen Beleuchtung gerendert wurden. In den Ausschnittsvergrößerungen sind die qualitativen Unterschiede und die BTF-Effekte deutlich zu erkennen. Die Messungen finden unter HMI-Beleuchtung statt, die im sichtbaren Bereich einen dem Sonnenlicht ähnlichen Spektralverlauf aufweist. Pro Material werden zurzeit jeweils für Blick und Beleuchtung 81 Hauptrichtungen verwendet. Daraus resultieren pro Material 6561 Bilder, die nur in einer Auflösung von etwa 800 800 Pixeln benutzt werden können, da durch die perspektivische Aufnahme und den Probenhalter der effektiv nutzbare Ausschnitt des Rohbildes von 14 Megapixeln verringert wird. Aus diesen Bildern werden später Texturen in einer Auflösung von bis zu 512 512 Pixeln für das Rendern erzeugt. Das Datenvolumen beträgt etwa 1.2 Gigabyte pro Material. Einige Beispiele der BTF-Datensätze sind für Forschungszwecke frei im Internet [3] verfügbar. Parallel dazu sind Verfahren entwickelt und implementiert worden, die es erlauben, die gewonnenen Daten zu komprimieren und platzsparend zu verwalten und am Schluss mit Grafikhardwareunterstützung zu visualisieren. Hierbei werden bestehende Bildkompressionsverfahren ebenso verwendet, wie statistische Ansätze, z. B. aus der Hauptkomponentenanalyse, um die Datenmenge auch auf Consumer PCs zu verwalten und dort den Algorithmus nutzbar zu machen [24,25,26,13]. Um die Beleuchtungssituation an einem beliebigen Ort festzustellen, wird mit verschiedenen Belichtungszeiten eine verchromte Messingkugel fotografiert, die das Umgebungslicht reflektiert und eine HDR-Aufnahme erzeugt. Die einzelnen Aufnahmen, projiziert auf einen aufgefalteten Würfel (Environment Maps, Abb. 7) repräsentieren die Daten, die dann zur Beleuchtung der Szene im Computer eingesetzt werden und gibt die hohen dynamischen Unterschiede bei Beleuchtungssituationen (z. B. sehr helle Sonne, im Schatten liegende Tür) wieder. Für eine realistische Darstellung von Kleidung, insbesondere vom Faltenwurf, ist die Simulation von Schatten und Selbstbeschattungseffekten besonders wichtig. Im Gegensatz zu Verfahren mit einer endlichen Anzahl von diskreten Lichtquellen wurde ein Verfahren [11] entwickelt, welches die oben erwähnten Environment Maps auswertet [26] und dazu vorberechnete Sichtbarkeitsinformationen verwendet. Diese erlauben das Handling des Schattenwurfes sowohl von Objekten auf andere Objekte, als auch Selbstbeschattungseffekte von Objekten auf sich selbst. Zur Visualisierung werden zu jedem Zeitpunkt die Kamerawinkel auf jeden Punkt der Kleidung evaluiert und der Einfluss der Umgebungsbeleuchtung (repräsentiert durch eine Environment Map) auf das Objekt ausgewertet. Durch eine weitere Analyse ist ein interaktiver Wechsel der Kameraposition und der Beleuchtungssituation möglich [26,25]. Diese Verfahren geben letztendlich dem Kunden im Geschäft mittels eines Virtual Mirrors,auf dem die Ergebnisse der Prozesskette dargestellt werden, eine genaue Vorstellung davon, wie die ausgewählte Kleidung am Körper aussehen würde. Die vorgestellten Methoden erlauben die interaktive Texturierung beliebiger polygonaler 3D-Geometrien mit BTF-Daten und lassen sich neben der hochqualitativen Kleidungsvisualisierung auch in anderen Bereichen wie z. B. in der Automobilindustrie einsetzen[21,22,20]. 508 Informatik_Spektrum_13_Dezember_2004

Abb. 9 Virtual-Try-On-Prozesskette. Basierend auf den Schnittteilen ( links oben) wird die Vorpositionierung (rechts oben) durchgeführt und danach die Simulationskette gestartet ( untere Reihe mit mehreren Simulationsschritten) Informatik_Spektrum_13_Dezember_2004 509

} VIRTUAL TRY-ON Abb. 9 Demonstration der BTF-Eigenschaften verschiedener Materialien unter natürlicher Beleuchtung mit hoher Dynamik (HDR). Links jeweils BTF-Rendering, rechts normale Texturierung mit herkömmlich aufgenommener Frontaltextur. Die Mesostruktur und das charakteristische Reflexionsverhalten fehlen vollständig, das Look & Feel geht verloren, was insbesondere in den Ausschnittsvergrößerungen zu sehen ist. In den unteren beiden Reihen wurden HDR-Aufnahmen aus [6] verwendet 510 Informatik_Spektrum_13_Dezember_2004

Zusammenfassung Durch die beschriebenen Verfahren und die Verwendung realer Eingabedaten, von CAD-Schnittteilen über physikalische Materialparameter bis hin zu gemessenen BTFs, gelingt eine realistische Darstellung von Textilien. Die im Virtual-Try-On Projekt entwickelten Techniken sollen es in naher Zukunft ermöglichen, Maßkonfektion on demand herzustellen, die dem jeweiligen Kunden exakt passt (Abb. 9, 10). Danksagung Das Projekt Virtual Try-On wird vom bmb+f gefördert. Wir danken allen Projektpartnern für die Bereitstellung der Ausgangsdaten. Nähere Informationen zu dem Projekt finden sich unter http://www.virtualtryon.de. Literatur 1. assyst Gesellschaft für Automatisierung, Software und Systeme mbh. http://www.assyst-intl.com/ 2. Baraff, D.; Witkin, A.; Kass, M.: Untangling cloth. ACM Transactions on Graphics (Proceedings of ACM SIGGRAPH 2003), 22(3):862 870, 2003. 3. BTF-Database Bonn. http://btf.cs.uni-bonn.de 4. Bridson, R.; Fedkiw, R.P.; Anderson, J.: Robust treatment of collisions, contact, and friction for cloth animation. In: Proceedings of the Conference on Computer Graphics (Siggraph2002), pp. 99 104, NY, July 21 25 2002. ACM Press. 5. Dana, K.J.; Ginneken, B. van; Nayar, S.K.; Koenderink, J.J.: Reflectance and texture of real-world surfaces. ACM Transactions on Graphics, 1999. 6. Debevec, P.: Rendering synthetic objects into real scenes: Bridging traditional and image-based graphics with global illumination and high dynamic range photography. In: Cohen, M. (ed): SIGGRAPH 98 Conference Proceedings, Annual Conference Series, pp. 189 198. ACM SIGGRAPH, Addison Wesley, July 1998. 7. Etzmuß, O.; Keckeisen, M.; Straßer,W.: A fast finite element solution for cloth modelling. Proc. Pacific Graphics, 2003. 8. Fuhrmann, A.; Gross, C.; Luckas,V.: Interactive animation of cloth including self collision detection. Journal of WSCG, 11(1):141 148, February 2003. 9. Fuhrmann, A.; Gross, C.; Luckas, V.; Weber, A.: Interaction-free dressing of virtual humans. Computer & Graphics, 27(1):71 82, January 2003. 10. Fuhrmann, A.; Sobotka, G.; Gross, C.: Distance fields for rapid collision detection in physically based modeling. In: Proceedings of GraphiCon 2003, pp. 58 65, September 2003. 11. Ganster, B.; Klein, R.; Sattler, M.; Sarlette, R.: Realtime shading of folded surfaces. In:Vince, J.; Earnshaw, R. (eds): Advances in modelling, animation and rendering. pp. 465 480. Berlin Heidelberg New York Tokio: Springer 2002 12. Gross, C.; Fuhrmann, A.; Luckas,V.: Automatic pre-positioning of virtual clothing. In: Proceedings of the Spring Conference on Computer Graphics, pp. 113 122, April 2003. 13. Hauth, M.; Etzmuss, O.; Eberhardt, B.; Klein, R.; Sarlette, R.; Sattler, M.; Daubert, K.; Kautz, J.: Cloth animation and rendering, September 2002. Eurographics Tutorial. 14. Kawabata, S.: The standardization and analysis of hand evaluation.the Textile Machinery Society of Japan, Osaka, 1980. 15. Keckeisen, M.; Blochinger, W.: Parallel implicit integration for cloth animations on distributed memory architectures. In: Eurographics Symposium on Parallel Graphics and Visualization, 2004. 16. Keckeisen, M.; Kimmerle, S.;Thomaszewski, B.;Wacker, M.: Modelling effects of wind fields in cloth animations. Journal of WSCG, 12(2):205 212, February 2004. 17. Keckeisen, M.; Stoev, S.L.; Feurer, M.; Straßer,W.: Interactive cloth simulation in virtual environments. In: Proc. IEEE Virtual Reality, 2003. 18. Kimmerle, S.; Keckeisen, M.; Mezger, J.; Wacker, M.: TüTex: A cloth modelling system for virtual humans. In: Proc. 3D Modelling, 2003. 19. Lectra. http://www.lectra.com/ 20. Meseth, J.; Müller, G.; Klein, R.: Preserving realism in real-time rendering of bidirectional texture functions. In: OpenSG Symposium 2003, pp. 89 96. Eurographics Association, Switzerland, April 2003. 21. Meseth, J.; Müller, G.; Klein, R.: Reflectance field based real-time, high-quality rendering of bidirectional texture functions. Computers and Graphics, 28(1):103 112, February 2004. 22. Meseth, J.; Müller, G.; Sattler, M.; Klein, R.: BTF rendering for virtual environments. In:Virtual Concepts 2003, pp. 356 363, November 2003. 23. Mezger, J.; Kimmerle, S.; Etzmuß, O.: Hierarchical techniques in collision detection for cloth animation. Journal of WSCG, 11(2):322 329, 2003. 24. Müller, G.; Meseth, J.; Klein, R.: Compression and real-time rendering of measured BTFs using local PCA. In: Ertl, T.; Girod, B.; Greiner, G.; Niemann, H.; Seidel, H.-P.; Steinbach, E.;Westermann, R. (eds):vision, modeling and visualisation 2003, pp. 271 280. Akademische Verlagsgesellschaft Aka GmbH, Berlin, November 2003. 25. Müller, G.; Meseth, J.; Klein, R.: Fast environmental lighting for local-pca encoded BTFs.To appear in proceedings of Computer Graphics International 2004 (CGI2004), June 2004. 26. Sattler, M.; Sarlette, R.; Klein, R.: Efficient and realistic vsualization of cloth. In: Eurographics Symposium on Rendering 2003, June 2003. 27. Teschner, M.; Kimmerle, S.; Heidelberger, B.; Zachmann, G.; Raghupathi, L.; Fuhrmann, A.; Cani, M.-P.; Faure, F.; Magnenat-Thalmann, N.; Strasser,W.;Volino, P.: Collision detection for deformable objects, 2004. State of the Art Report, Eurographics. 28. Visual Effects Society. From ivory tower to silver screen. SIGGRAPH 2001 Course Notes, 36, 2001. 29. Volino, P.; Magnenat-Thalmann, N.: Developing simulation techniques for an interactive clothing system. In: Proceedings of Virtual Systems and MultiMedia 97, pp. 109 118, 1997. 30. Volino, P.; Magnenat-Thalmann, N.: Virtual clothing, theory and practice. Berlin Heidelberg New York Tokio: Springer 2000 31. Wacker, M.; Keckeisen, M.; Kimmerle, S.; Mezger, J.: Fortschritte in der Textilsimulation für Fashion on Demand. In: Tagungsband 1. Paderborner Workshop Augmented Reality Virtual Reality in der Produktentstehung, 2002. 32. Wacker, M.; Keckeisen, M.; Stoev, S.L.; Straßer,W.: A comparative study on user performance in the virtual dressmaker application. In Proc. ACM VRST, 2003. Informatik_Spektrum_13_Dezember_2004 511