TU Darmstadt / ULB / TUprints

Statistical Signal and Image Processing Techniques in Corneal Modeling

Alkhaldi, Weaam (2010)
Statistical Signal and Image Processing Techniques in Corneal Modeling.
Technische Universität Darmstadt
Ph.D. Thesis, Primary publication

[img]
Preview
PDF
WeaamAlkhaldi_PhD_Thesis.pdf
Copyright Information: CC BY-NC-ND 2.5 Generic - Creative Commons, Attribution, NonCommercial, NoDerivs .

Download (5MB) | Preview
Item Type: Ph.D. Thesis
Type of entry: Primary publication
Title: Statistical Signal and Image Processing Techniques in Corneal Modeling
Language: English
Referees: Zoubir, Prof. Dr.- Abdelhak M. ; Iskander, Dr. D. Robert ; Kasprzak, Prof. Dr. Henryk
Date: 9 July 2010
Place of Publication: Darmstadt
Date of oral examination: 18 June 2010
Abstract:

In this thesis, we consider two interrelated problems, which are the enhancement of videokeratoscopic images for more accurate corneal topography estimation and model-order selection of corneal surfaces when expanded using orthogonal Zernike polynomials. Corneal topography estimation that is based on the Placido disk principle relies on good quality of pre-corneal tear film and sufficiently wide eyelid (palpebral) aperture to avoid reflections from eyelashes. However, in practice, these conditions are not always fulfilled resulting in missing regions, smaller corneal coverage, and subsequently poorer estimates of corneal topography. Our aim is to enhance the standard operating range of a Placido disk videokeratoscope to obtain reliable corneal topography estimates in patients with poor tear film quality, such as encountered in those diagnosed with dry eye, and with narrower palpebral apertures as in the case of Asian subjects. This is achieved by incorporating in the instrument's own topography estimation algorithm an image processing technique that comprises of linear adaptive filter (based on Wiener filtering theory) and non-linear filter (based on morphological operations). The experimental results from measurements of test surfaces and real corneas show that the incorporation of the proposed technique results in better estimates of corneal topography and, in many cases, to a significant increase in the estimated coverage area making such an enhanced videokeratoscope a better tool for clinicians. On the other hand, corneal height-data are typically modeled using a set of orthogonal Zernike polynomials. We address the estimation of the number of Zernike polynomials, which is formalized as a model-order selection problem in linear regression. Classical information theoretic criteria tend to overestimate the corneal surface due to the weakness of their penalty functions, while bootstrap-based techniques tend to underestimate the surface or require extensive processing. We propose to use the Efficient Detection Criterion (EDC), which has the same general form of information theoretic-based criteria, as an alternative to estimating the optimal number of Zernike polynomials. We first show, via simulations, that the EDC outperforms a large number of information theoretic criteria and resampling-based techniques. We then illustrate that using the EDC for real corneas results in models that are in closer agreement with clinical expectations and provides means for distinguishing normal corneal surfaces from astigmatic and keratoconic surfaces. The two problems are interrelated in the sense that appropriate modeling for corneal surfaces, regardless of the used functions, requires accurate corneal topography that can be efficiently estimated provided that the videokeratoscopic image is not degraded.

Alternative Abstract:
Alternative AbstractLanguage

In dieser Dissertation betrachten wir zwei mit einander verknüpfte Probleme: Die Verbesserung von videokeratoskopischen Bildern zur genaueren Schätzung der Hornhauttopographie, sowie die Schätzung der Modellordnung bei der Modellierung dieser mittels orthogonaler Zernike-Polynome. Die Schätzung der Hornhauttopographie mit einem Videokeratoskop beruht auf dem Placido-Scheiben-Prinzip. Vorraussetzungen für akkurate Schätzungen sind eine hohe Qualität des präokulären Tränenfilms und ein hinreichend großer Lidspalt zur Vermeidung von Augenlidreflektionen. Diese Bedingungen sind in der Praxis jedoch nicht immer erfüllt, denn einerseits leiden einige Patienten an einer Austrocknung des äuseren Auges, und andererseits haben, vor allem Patienten asiatischer Abstammung, häufig einen kleinen Lidspalt. Eine schlechte Qualität des Tränenfilms und Reflektionen der Wimpern, führen zu Datenverlusten in bestimmten Regionen und einem verminderten Erfassungsbereich durch die Placido-Scheibe. Dies resultiert in einer schlechteren Schätzung der Hornhauttopographie für diese Patienten. Unser Ziel ist, durch eine Vergrößerung des Standarderfassungsbereichs von Placido-Scheiben-Videokeratoskopen, auch in den oben genannten Fällen, eine zuverlässige Schätzung der Hornhauttopgraphie zu ermöglichen. Dies erreichen wir durch die Einbindung von linearer adaptiver Filterung (basierend auf der Theorie der Wiener-Filter), sowie nicht-linearer Filterung (basierend auf morphologischen Operationen) von Einzelbildern, in den Topographieschätzungs-Algorithmus des Instruments. Die Ergebnisse der Messungen von Referenzoberflächen und echten Hornhäuten belegen, dass die Einbeziehung der vorgeschlagenen Techniken zu einer verbesserten Schätzung der Hornhauttopographie, und in vielen Fällen zu einer deutlichen Vergrößerung des Erfassungsbereiches, und damit, zu einem verbesserten Videokeratoskop für die Fachärzte, führt. Die mathematische Modellierung der Höheninformation der Hornhauttopographie erfolgt in der Regel durch eine Reihe von orthogonalen Zernike-Polynomen. Wir betrachten hier die Schätzung der Anzahl der notwendigen Zernike-Polynome als Modell Auswahl-Problem, welches in der linearen Regression formalisiert ist. Klassische informationstheoretische Kriterien zur Modell Auswahl neigen dazu die Komplexität der Hornhautoberfläche durch einen zu schwachen Strafterm zu überschätzen, während Bootstrap-Techniken diese unterschätzen, oder einen hohen Verarbeitungsaufwand benötigen. Wir schlagen vor, das Effiziente Detektionskriterium (EDC), das die gleiche allgemeine Form wie die informationstheoretischen Kriterien hat, als alternative Methode zur Modellordnungs-Schätzung zu verwenden. Wir zeigen zunächst durch Simulationen, dass das EDC einer großen Anzahl von informationstheoretischen und resampling-basierten Kriterien überlegen ist. Wir veranschaulichen dann, anhand von echten Hornhautdaten, dass unsere mit dem EDC erzielten Ergebnisse in enger Übereinstimmung mit klinischen Erwartungen sind, und somit das EDC ein Mittel für die Unterscheidung zwischen normalen, astigmatischen und keratokonischen Hornhautoberflächen dartellt. Die beiden in dieser Dissertation behandelten Probleme sind dadurch miteinander verknüpft, dass die korrekte Modellierung der Hornhauttopographie, mit welcher Funktion auch immer, eine präzise Schätzung dieser vorraussetzt, welche wiederum auf einer ausreichenden Qualität der videokeratoskopischen Bilder basiert.

German
URN: urn:nbn:de:tuda-tuprints-22320
Classification DDC: 000 Generalities, computers, information > 004 Computer science
Divisions: 18 Department of Electrical Engineering and Information Technology > Institute for Telecommunications > Signal Processing
Date Deposited: 13 Jul 2010 06:12
Last Modified: 07 Dec 2012 11:58
URI: https://tuprints.ulb.tu-darmstadt.de/id/eprint/2232
PPN: 224977806
Export:
Actions (login required)
View Item View Item