Kresse, Wolfram (2008)
Photometrisch konsistente Radiositysimulation und Bildwiedergabe in Virtual und Augmented Reality Anwendungen.
Technische Universität Darmstadt
Ph.D. Thesis, Primary publication
|
Teil 1 -
PDF
KresseThesis1.pdf Copyright Information: In Copyright. Download (5MB) | Preview |
|
|
Teil 2 -
PDF
KresseThesis2.pdf Copyright Information: In Copyright. Download (5MB) | Preview |
Item Type: | Ph.D. Thesis | ||||||
---|---|---|---|---|---|---|---|
Type of entry: | Primary publication | ||||||
Title: | Photometrisch konsistente Radiositysimulation und Bildwiedergabe in Virtual und Augmented Reality Anwendungen | ||||||
Language: | German | ||||||
Referees: | Encarnação, Prof. Dr-I José L. ; Seidel, Prof. Dr. Hans-Peter | ||||||
Advisors: | Encarnação, Prof. Dr-I José L. | ||||||
Date: | 17 October 2008 | ||||||
Place of Publication: | Darmstadt | ||||||
Date of oral examination: | 27 October 2003 | ||||||
Abstract: | In der Computergrafik ist man meist bestrebt, möglichst realistische Bilder zu erzeugen und bedient sich hierbei üblicherweise der Lichtsimulation, um Beleuchtungsverhältnisse und Schattensituationen zu berechnen. Das Ergebnis einer solchen Simulation ist jedoch oft nur ein nettes Bild ohne physikalische Aussagekraft. Eine physikalisch korrekte Simulation, und damit also photometrische und colorimetrische Konsistenz sind daher von essentieller Wichtigkeit, um auf Basis von Simulationsdaten Entscheidungen treffen zu können. Aber selbst das Vorhandensein korrekt simulierter Daten reicht noch nicht aus, um Design, Ablesbarkeit oder gar Blendung wirklich beurteilen zu können, da insbesondere bei der Bildwiedergabe auf unterschiedlichen Displaysystemen Farben und Helligkeiten jedesmal unterschiedlich sind. Das Konzept der photometrischen und colorimetrischen Konsistenz muß daher auf die Darstellung erweitert werden, indem verwendete Displays entsprechend kalibriert werden, sodaß eine 1:1-Wiedergabe der simulierten Daten ermöglicht wird – sofern das verwendete Display entsprechende Helligkeiten wiedergeben kann. Ein dritter Aspekt ist das aktuelle Gebiet der Augmented Reality, bei der in Fotos realer Szenen virtuelle Objekte eingeblendet werden. Diese Objekte wirken meist sehr künstlich, da sie unabhängig von den realen Lichtverhältnissen erzeugt und in die Szene eingefügt werden. Eine Rekonstruktion der tatsächlichen Beleuchtungsverhältnisse aus dem Foto ist daher erforderlich, um die virtuellen Objekte konsistent zur realen Beleuchtung auszuleuchten, und sie so nahtlos in ein vorliegendes Foto zu integrieren. Die offenen Problemstellungen die sich hieraus ergeben wurden in dieser Arbeit untersucht, sowie effiziente Lösungen entwickelt und realisiert: Ausgehend von den Rohdaten eines C-A-D-Modells oder der Pixelwerte in einem Foto wurden stark vereinfachte Aufbereitungs- bzw. Rekonstruktionsmethoden für Geometrie, Materialien und Lichteigenschaften realisiert. Diese dienen dem in dieser Arbeit entwickelten Lichtsimulationssystem als Eingabedaten, welches komplexe Szenen mit effizientem, strukturiertem Refinement und verläßlicher Sichtbarkeitserkennung simuliert. Die so berechneten Daten werden bei dem Schritt der Bildwiedergabe dargestellt, wobei unterschiedliche Displays anhand eines neuartigen automatischen Displaykalibrierungsverfahrens bezüglich Farbraum, Schwarzwert, Gammaverhalten und Helligkeitsausgleich kalibriert werden, wodurch unabhängig von der Art des Displays sowohl photometrisch konsistente Daten 1:1 wiedergegeben, als auch unkalibrierte Informationen wie z.B. Fotos oder Präsentationsfolien auf unterschiedlichen Displays identisch dargestellt werden können. Durch die gesamte Pipeline wurde die Erhaltung der photometrischen und colorimetrischen Konsistenz, und damit quantitative Korrektheit sichergestellt sowie die Anwendbarkeit in den einzelnen Schritten durch entsprechende Automatisierung entscheidend verbessert. Weiterer wichtige Punkte dieser Arbeit sind eine kontrollierbare, d.h. bedienbare Lichtsimulation, die flexibel auf unterschiedliche Benutzeranforderungen eingehen kann, sowie die Integration von AR-Applikationen in die konsistente Visualisierungspipeline.Hieraus ergibt sich ein umfassendes Konsistenz-Framework als geschlossene Lösung zur Simulation und Wiedergabe unterschiedlicher Eingangsdaten. |
||||||
Alternative Abstract: |
|
||||||
Uncontrolled Keywords: | photometrische Konsistenz, immersive Displays, Stereoverfahren, Projektionstechnologien, Photometry, Virtual and augmented reality (VR/AR), Stereoscopical projections, Camera calibration, Color analysis | ||||||
Alternative keywords: |
|
||||||
URN: | urn:nbn:de:tuda-tuprints-4729 | ||||||
Additional Information: | 11 MB; 232 S. |
||||||
Classification DDC: | 000 Generalities, computers, information > 004 Computer science | ||||||
Divisions: | 20 Department of Computer Science 20 Department of Computer Science > Interactive Graphics Systems |
||||||
Date Deposited: | 17 Oct 2008 09:21 | ||||||
Last Modified: | 21 Nov 2023 08:12 | ||||||
URI: | https://tuprints.ulb.tu-darmstadt.de/id/eprint/472 | ||||||
PPN: | |||||||
Export: |
View Item |