TU Darmstadt / ULB / TUprints

Konzeption eines bildbasierten Sensorsystems zur 3D-Indoorpositionierung sowie Analyse möglicher Anwendungen

Händler, Verena (2012)
Konzeption eines bildbasierten Sensorsystems zur 3D-Indoorpositionierung sowie Analyse möglicher Anwendungen.
Book, Primary publication

[img]
Preview
Dissertation Verena Händler - PDF (DIN A4)
DissertationHaendler.pdf
Copyright Information: CC BY-NC-ND 2.5 Generic - Creative Commons, Attribution, NonCommercial, NoDerivs .

Download (39MB) | Preview
Item Type: Book
Type of entry: Primary publication
Title: Konzeption eines bildbasierten Sensorsystems zur 3D-Indoorpositionierung sowie Analyse möglicher Anwendungen
Language: German
Referees: Eichhorn, Prof. Dr.- A. ; Schwieger, Prof. Dr.- V.
Date: 31 October 2012
Series: Schriftenreihe der Fachrichtung Geodäsie
Series Volume: 36
Date of oral examination: 27 April 2012
Abstract:

Der Begriff Positionierung, d. h. die räumliche Positionsbestimmung eines Objektes anhand von Koordinaten in einem definierten Referenzsystem, spielt nicht nur für spezielle messtechnische Zwecke eine große Rolle, sondern auch für alltägliche Anwendungen. Im Außenbereich ist das Problem der Positionierung durch Global Navigation Satellite Systems (GNSS) weitestgehend gelöst. Allerdings scheitert die Lokalisierung basierend auf Satellitensignalen innerhalb von Gebäuden. Daher hat sich in den letzten Jahren ein neues Forschungsfeld aufgetan, in dem alternative Verfahren zur Positionierung innerhalb von Gebäuden untersucht werden. In dieser Arbeit wird ein mobiles, optisches Sensorsystem, auf Grundlagen von Auswerteverfahren aus dem Bereich Computer Vision und Photogrammetrie konzipiert, welches kostengünstig eine möglichst genaue und zuverlässige Positionierung in einem Gebäude ermöglichen soll. Als Sensorsystem wird eine Handykamera eingesetzt, um das System einem möglichst großen Kreis von Nutzern zugänglich zu machen. Die Positionsbestimmung erfolgt in diesem Fall anhand einer Einzelbildaufnahme, welche die Projektion eines Objektes mit vier Referenzpunkten enthält. Die Referenzpunkte besitzen dabei bekannte Objektkoordinaten. Um die Position der Kamera relativ zum Objekt zu erhalten, muss das Objekt zuerst im Bild detektiert und klassifiziert werden. Danach müssen die Bildkoordinaten extrahiert werden, um anschließend die Position bestimmen zu können. Zunächst werden bestehende Indoorpositionierungssysteme (IPS), unter anderem auch Optische Indoorpositionierungssysteme (OIPS), nach Kriterien wie Verfahren, Genauigkeitspotenzial, Abhängigkeit von der Infrastruktur und Wirtschaftlichkeit kategorisiert. Das konzipierte, bildbasierte System wird ebenfalls bezüglich dieser Kriterien eingeordnet und im Vergleich zu den übrigen IPS seine Eignung zur Indoorpositionierung herausgearbeitet. Die Genauigkeit eines OIPS wird durch die Konfiguration der Aufnahmestellung, die Stabilität der Kamera sowie die Qualität der Messdaten beeinflusst. Diese Einflussfaktoren wurden in bereits existierenden, kostengünstigen OIPS bislang nicht näher untersucht, so dass ihr Genauigkeitspotential nicht sicher angegeben werden kann. Vor der Konzeption des eigenen OIPS werden daher die Auswirkungen der genannten Einflussfaktoren auf die Positionslösung in dieser Arbeit anhand statistischer Auswertungen analysiert. Der Einfluss der Konfiguration kann durch geeignete Algorithmen verringert werden. Daher werden drei verschiedene photogrammetrische Ansätze zur Bestimmung der Position aus einer Einzelbildaufnahme (zwei 3-Punkt-Algorithmen und ein 4-Punkt-Algorithmus) auf ihre Robustheit gegenüber schlechten Konfigurationen untersucht. Der gegenüber der Konfiguration robusteste Ansatz wird weiterhin anhand statistischer Untersuchungen auf sein Verhalten sowohl gegenüber Veränderungen der inneren Orientierung der Kamera als auch gegenüber Messrauschen geprüft. Dadurch wird a priori abgeschätzt, welche Stabilität für die Handykamera gefordert ist und wie genau die Detektion georeferenzierter Objekte im Bild stattzufinden hat. Für die Systemkalibrierung werden zwei Verfahren, das Einzelbild- und das Mehrbildkalibrierverfahren, miteinander verglichen. Da mit dem Mehrbildkalibrierverfahren die Parameter der inneren Orientierung einer Kamera stabiler bestimmt werden können, wird diese Methode verwendet, um die Kameraparameter zu bestimmen und sie weiterhin auf ihre Stabilität hin zu überprüfen. Für die Bestimmung der Messdaten aus einer Einzelbildaufnahme, d. h. der Referenzpunkte im Objekt- und Bildkoordinatensystem, werden zwei neue automatisierte Verfahren zur Klassifikation der Objektpunkte von auf einen Bildsensor abgebildeten Türen (Türecken) sowie die Extraktion der Türeckpunkte im Bildkoordinatensystem entwickelt und realisiert. Die Genauigkeit der Position hängt zu einem großen Teil von diesen Messdaten ab. Daher werden die beiden Klassifikationsverfahren anhand statistischer Untersuchungen bezüglich ihrer Robustheit miteinander verglichen und die Genauigkeit der Extraktion der Bildkoordinaten analysiert. Mit einem der entwickelten Klassifikationsverfahren ist es möglich, die Türen in 68% der Fälle richtig zu klassifizieren. Die Bildpunkte können mit einer mittleren Punktabweichung von 0,02 mm bestimmt werden. Damit kann auch in ungünstigen Konfigurationen theoretisch eine Positionsgenauigkeit 1 m erreicht werden. Für den praktischen Einsatz wird die effizienteste Klassifikationsmethode zusammen mit der Extraktion der Bildkoordinaten und dem vorgestellten 4-Punkt-Algorithmus (Killian, 1955) als mobile Anwendung implementiert. Weitere Testmessungen werden mit dem System durchgeführt, um seine Praxistauglichkeit zu evaluieren und mögliche Einsatzbereiche zu analysieren. Die theoretischen Abschätzungen können in der praktischen Anwendung weitestgehend bestätigt werden. Die Ergebnisse der Testmessungen zeigen, dass die 3D-Position mit dem OIPS im Mittel mit einer Punktabweichung von 0,35 m bestimmt werden kann.

Alternative Abstract:
Alternative AbstractLanguage

The term positioning plays a major role not only for specific measurement purposes but also for everyday applications. The problem of positioning in outdoor environment is solved by Global Navigation Satellite Systems (GNSS) to the greatest possible extent. However, localization based on satellite signals fails inside buildings. Therefore, a new field of research has arisen, where alternative methods for positioning within buildings are examined. In this thesis, a mobile optical sensor system that is based on evaluation methods in the field of computer vision and photogrammetry is designed, which should allow preferably accurate and reliable positioning in a building, using low-cost devices. A cell phone camera is used as sensor system to provide the system for a broad range of users. In this case, the position is determined using a single frame, which contains the projection of an object with four reference points. The object coordinates of the reference points are known. To get the position of the camera according to the object, the object has to be detected and classified in the picture at first. Finally, the image coordinates have to be extracted to determine the position. First, existing indoor positioning systems (IPS), including optical indoor positioning systems (OIPS), are categorized according to their methods, their accuracy potential, how they depend on the infrastructure and their economy. The image-based system is also classified with respect to these criteria and its capability for indoor positioning is proved in comparison to different IPS. The accuracy of an OIPS is determined by the configuration of the constellation, the stability of the camera and the quality of the measurements. These factors have not been studied in detail in existing, low-cost OIPS, so that their accuracy potential can not be declared safely. Therefore, in this thesis, the effects of these factors on the position solution are analyzed, using statistical analysis, before designing an own OIPS. The effect of the configuration can be reduced by appropriate algorithms. Therefore, three different photogrammetric approaches for determining the position of a single image (two 3-point algorithms and a 4-point algorithm) are studied according to their robustness against bad configurations. The approach that is most robust versus configuration, is tested on its behavior to changes in the internal orientation of the camera as well as to measurement noise. So it is estimated a priori, which stability is required for the cell phone camera and how exact the detection of geo-referenced objects in the image has to be. For system calibration, two methods, single- and multi-view calibration, are compared. Since the parameters of the internal orientation of a camera can be determined more stable in case of the multi-view calibration, this method has been used to determine the parameters of the camera and to test them according to their stability. The measurement data, more precisely the points refering the image to the object coordinate system, have to be determined from one single image. Therefore, two new automated methods for classifying the object coordinates of imaged doors (door edges) and for extracting the door points in the image coordinate system are developed and implemented. The quality of the position largely depends on these measurements. Therefore, the two classification methods are compared according to their robustness by using statistical tests. Furthermore, the accuracy of the extraction of the image coordinates is analyzed. In 68% of the cases the doors are classified correctly. With a mean deviation of position in the image points of 0,02 mm, a 3D-accuracy of 1m can be achieved even in bad configurations. For practical use, the most efficient classification method along with the extraction of the image coordinates and the presented 4-point algorithm (Killian, 1955) is implemented as a mobile application. Further test measurements are performed with the system to evaluate its practicality and to analyze potential areas of application. In most of the cases, the theoretical estimations can be approved for the application in practice. The results of the test measurements show that the 3D-position can be determined with a mean deviation of position of 0,35 m.

English
Uncontrolled Keywords: 3D-Indoorpositionierung, Trilateration, Bildverarbeitung
URN: urn:nbn:de:tuda-tuprints-31474
Classification DDC: 600 Technology, medicine, applied sciences > 620 Engineering and machine engineering
Divisions: 13 Department of Civil and Environmental Engineering Sciences
Date Deposited: 30 Nov 2012 14:13
Last Modified: 09 Jul 2020 00:13
URI: https://tuprints.ulb.tu-darmstadt.de/id/eprint/3147
PPN: 386259011
Export:
Actions (login required)
View Item View Item