TU Darmstadt / ULB / TUprints

Bronchoskopische Navigation mittels Pose Estimation des C-Bogens aus musterkodierten Fluoroskopie-Aufnahmen

Steger, Teena (2014)
Bronchoskopische Navigation mittels Pose Estimation des C-Bogens aus musterkodierten Fluoroskopie-Aufnahmen.
Technische Universität Darmstadt
Ph.D. Thesis, Primary publication

[img]
Preview
Text
Thesis.pdf
Copyright Information: CC BY-NC-ND 2.5 Generic - Creative Commons, Attribution, NonCommercial, NoDerivs .

Download (45MB) | Preview
Item Type: Ph.D. Thesis
Type of entry: Primary publication
Title: Bronchoskopische Navigation mittels Pose Estimation des C-Bogens aus musterkodierten Fluoroskopie-Aufnahmen
Language: German
Referees: Sakas, Prof. Dr. Georgios ; Fellner, Prof. Dr. Dieter ; Wagner, Dr. Manfred
Date: 2014
Place of Publication: Darmstadt
Date of oral examination: 24 June 2014
Abstract:

Die Bronchoskopie ist die wichtigste und sicherste Untersuchungsmethode bei Verdacht auf Lungenkrebs. Sie dient sowohl der visuellen Inspektion der Atemwege als auch der Gewebeentnahme an verdächtigen Läsionen. Erst aufgrund der so gewonnenen Probe kann entschieden werden, ob es sich um bösartiges Gewebe handelt. Damit die Biopsie an der korrekten Stelle durchgeführt wird, ist es besonders wichtig, dass die bronchoskopischen Operationsinstrumente präzise innerhalb des Bronchialbaums geführt werden können. Dabei behilft sich der Arzt zum einen mit der Kamera an der Bronchoskopspitze und zum anderen mit der intraoperativen C-Bogen-Durchleuchtung. Leider liefert keine dieser Visualisierungstechniken eine 3D-Sicht des Bronchialbaums oder die aktuelle 3D-Position des Instruments. Genau diese Hilfestellung leisten bronchoskopische Navigationssysteme und tragen somit erheblich zur Genauigkeit der Instrumentenführung und Beschleunigung des Eingriffs bei.

Bronchoskopische Navigationssysteme verwenden meist EM-Sensoren, um die aktuelle Position des Instruments innerhalb der Bronchien zu verfolgen. Solche Systeme müssen nicht nur kostspielig und aufwändig installiert, sondern die jeweiligen getrackten Instrumente auch nach jedem Gebrauch teuer ersetzt werden. Um dieses Problem zu umgehen, wird auch an Systemen entwickelt, die lediglich die Bronchoskopvideobilder zur 2D/3D-Registrierung verwenden. Damit kann die Navigation aber nur so lange angeboten werden, wie die Bronchoskopspitze in die Bronchien vorgeschoben werden kann. Im Normalfall wird aber gerade in den nicht erreichbaren peripheren Verästelungen eine Navigationsstütze benötigt. Deshalb wird in dieser Arbeit ein Verfahren vorgestellt, welches unabhängig von der Bronchoskopreichweite anwendbar ist und ausschließlich auf die bereits vorhandene Ausstattung im OP-Saal zurückgreift. Somit wird eine höhere klinische Einsetzbarkeit und Akzeptanz erwartet.

Die neuartige Grundidee ist hierbei, dass bei bekannter Aufnahmeposition des C-Bogens ein virtueller Strahl von C-Bogen-Röntgenquelle durch das Patienten-CT zur Instrumentenspitzenposition auf dem Durchleuchtungsbild generiert werden kann. Dieser 3D-Strahl schneidet dann den Bronchialbaum im CT genau an der Stelle, wo sich das Instrument aktuell befindet. Die große Herausforderung ist nun die C-Bogen Pose während der Aufnahme zu bestimmen. Dafür wurde von mir eine innovative Markerplatte entwickelt, die auf dem Patiententisch befestigt wird. Bei jeder Aufnahme wird ein Teil der radioopaken Marker auf der Durchleuchtung abgebildet. Um nun eine C-Bogen Pose Estimation durchzuführen, müssen die abgebildeten 2D-Marker eindeutig ihren korrespondierenden 3D-Markern auf der Platte zugeordnet werden. Deshalb habe ich bei der Anordnung der Marker erstmals die projektive Invariante Doppelverhältnis eingesetzt. Dies ermöglicht, dass die Marker auch nach Projektion verlässlich identifiziert und zugeordnet werden. Die entworfene Markerplatte wurde zahlreichen Experimenten unterzogen, darunter auch Phantom- und Tierkadavertests. Dabei wurden sehr gute quantitative Ergebnisse für die C-Bogen Pose Estimation bezüglich Erfolgsraten und Genauigkeiten gemessen.

In dieser Arbeit stellt weitere wichtige Komponenten eines Bronchoskopie-Navigationssystems vor: Bronchialbaumsegmentierung und -skeletonisierung, Tumorsegmentierung, 2D-Instrumentenverfolgung, Patient-zu-Tisch-Registrierung, Pfadberechnung und 3D-Visualisierung. Dabei wurden vorhandene Lösungen aus der Literatur aufgegriffen bzw. erweitert aber auch neue Methoden entwickelt. Alle diese Komponenten wurden sowohl einzeln und als auch im Zusammenspiel miteinander untersucht. Bei Tests mit einem Bronchialbaumphantom erzielte sehr gute qualitative Ergebnisse.

Alternative Abstract:
Alternative AbstractLanguage

Bronchoscopy is the most important and safest examination method for suspected lung cancer. It is used for visual inspection of the airways as well as for extracting tissue at suspicious lesions. Solely based on a sample acquired in this way, the decision, whether the lesion is malignant or not, can be made. For executing the biopsy at the correct location, it is especially important to precisely guide the bronchoscopic instruments inside the bronchial tree. Therefore, the physician uses the camera at the tip of the bronchoscope and intraoperative C-arm fluoroscopy. Unfortunately, none of these visualizations provide 3D views of the bronchial tree or the current 3D location of the instrument. Bronchoscopic navigation systems provide this support, thereby contributing considerably to the accuracy of instrument guidance and to the acceleration of the intervention.

Bronchoscopic navigation systems mostly use EM sensors to track the current position of the instrument inside the bronchial tree. These systems not only need to be installed expensively and elaborately, but also the respective instruments need to be replaced costly after each use. To avoid this problem, some systems use only the bronchoscopic camera images for 2D/3D registration. Consequently, navigation support can only be provided as far as the bronchoscope can be pushed forward. However, especially these poorly reachable peripheral ramifications need navigation support. Therefore, this work presents a navigation method, which is independant of the bronchoscopic reach and uses only the already existing facilities on the operation room. Thus, a higher clinical applicability and acceptance is expected.

The innovative principal idea is that, if the C-arm pose during image acquisition is known, a virtual ray starting at the C-arm's X-ray source through the patient's CT towards the instrument's tip on the fluoroscopic image can be generated. This 3D ray intersects the bronchial tree exactly at the position where the instrument's tip currently resides. The biggest challenge is to determine the C-arm pose during image acquisition. For this, I designed an innovative marker board to be placed on the patient's table. On each fluoroscopic image, a section of the radio-opaque markers is pictured. For C-arm pose estimation, the imaged 2D markers need to be mapped unambiguously to their corresponding 3D source markers on the board. Therefore, I, for the first time, use the projective invariant cross-ratio for the arrangement of the markers on the board. This enables reliable identification and mapping of the markers even after projection. The marker board I developed was subject to numerous experiments, among them also phantom and animal cadaver experiments. In the process, very good quantitative results were measured for C-arm pose estimation regarding success rate and accuracy.

Furthermore, this work presents other important components of a bronchoscopy navigation system: bronchial tree segmentation, bronchial tree skeletonization, tumor segmentation, 2D instrument tracking, patient-to-table registration, path calculation, and 3D visualization. For this, partly existing methods were selected and extended and partly new methods were developed. All of these components were evaluated individually and also their interaction with each other was tested. Experiments on a bronchial tree model led to very promising qualitative results.

English
URN: urn:nbn:de:tuda-tuprints-40474
Classification DDC: 000 Generalities, computers, information > 004 Computer science
Divisions: 20 Department of Computer Science
20 Department of Computer Science > Bildverstehen
20 Department of Computer Science > Interactive Graphics Systems
Date Deposited: 22 Jul 2014 06:34
Last Modified: 09 Jul 2020 00:44
URI: https://tuprints.ulb.tu-darmstadt.de/id/eprint/4047
PPN: 386756414
Export:
Actions (login required)
View Item View Item