TU Darmstadt / ULB / TUprints

Maschinelles Sehen für mobile Roboter: Virtuell-aktive visuelle Odometrie

Willert, Volker (2021):
Maschinelles Sehen für mobile Roboter: Virtuell-aktive visuelle Odometrie. (Publisher's Version)
In: at – Automatisierungstechnik, 61 (4), pp. 269-277. De Gruyter, ISSN 0178-2312, e-ISSN 2196-677X,
DOI: 10.26083/tuprints-00019434,
[Article]

[img]
Preview
Text
U-19434-10.1524_auto.2013.0021.pdf
Available under only the rights of use according to UrhG.

Download (581kB) | Preview
Item Type: Article
Origin: Secondary publication service
Status: Publisher's Version
Title: Maschinelles Sehen für mobile Roboter: Virtuell-aktive visuelle Odometrie
Language: German
Abstract:

Der Beitrag befasst sich mit der Navigation von autonomen mobilen Robotern anhand von Videodaten. Es wird ein Ansatz zur Verbesserung visueller Odometriealgorithmen vorgestellt, der die Idee der Einflussnahme auf die Bilddaten durch ein aktives Kamerasystem aufgreift, ohne tatsächlich eine Aktorik zu benutzen. Es wird gezeigt, dass durch virtuelle Fixationen das räumliche Muster des Bildflusses so verändert werden kann, dass die daraus berechneten Kamerabewegungen genauer werden. Zur Berechnung der Kamerabewegung wird der aktive 7-Punkt-Algorithmus eingeführt. Anhand von statistischen Auswertungen wird abgeleitet, welche Fixationspunkte dazu besonders geeignet sind und ein Verfahren beschrieben, wie geeignete Fixationspunkte ausgewählt werden können. Desweiteren wird ein Vergleich zwischen dem virtuell-aktiven Ansatz und einem genauen visuellen Odometrieverfahren auf aktuellem Stand der Technik gegeben.

Alternative Abstract:
Alternative AbstractLanguage

This paper deals with vision-based navigation of autonomous mobile robots. An approach to improve visual odometry algorithms is presented that picks up the idea of actively influencing the image data by actuating elements of an active camera system without using an active camera system effectively. It is shown that via virtual fixations the spatial optical flow pattern can be influenced in such a way that the camera motion computed based on this optical flow is getting more precise. For computation of the camera motion, the active 7-point algorithm is introduced. Based on statistical evaluations it is derived which fixation points are especially suited and a strategy how to choose such suited fixation points is described. A comparison between the presented virtual-active approach and a state of the art visual odometry implementation is given.

English
Journal or Publication Title: at – Automatisierungstechnik
Journal volume: 61
Number: 4
Publisher: De Gruyter
Classification DDC: 600 Technik, Medizin, angewandte Wissenschaften > 620 Ingenieurwissenschaften
Divisions: 18 Department of Electrical Engineering and Information Technology > Institut für Automatisierungstechnik und Mechatronik > Control Methods and Robotics
Date Deposited: 16 Sep 2021 12:57
Last Modified: 16 Sep 2021 12:57
DOI: 10.26083/tuprints-00019434
Corresponding Links:
URN: urn:nbn:de:tuda-tuprints-194346
URI: https://tuprints.ulb.tu-darmstadt.de/id/eprint/19434
Export:
Actions (login required)
View Item View Item