TU Darmstadt / ULB / TUprints

Maschinelles Sehen für mobile Roboter: Virtuell-aktive visuelle Odometrie

Willert, Volker (2021)
Maschinelles Sehen für mobile Roboter: Virtuell-aktive visuelle Odometrie.
In: at – Automatisierungstechnik, 2013, 61 (4)
doi: 10.26083/tuprints-00019434
Article, Secondary publication, Publisher's Version

[img]
Preview
Text
U-19434-10.1524_auto.2013.0021.pdf
Copyright Information: In Copyright.

Download (581kB) | Preview
Item Type: Article
Type of entry: Secondary publication
Title: Maschinelles Sehen für mobile Roboter: Virtuell-aktive visuelle Odometrie
Language: German
Date: 2021
Place of Publication: Darmstadt
Year of primary publication: 2013
Publisher: De Gruyter
Journal or Publication Title: at – Automatisierungstechnik
Volume of the journal: 61
Issue Number: 4
DOI: 10.26083/tuprints-00019434
Corresponding Links:
Origin: Secondary publication service
Abstract:

Der Beitrag befasst sich mit der Navigation von autonomen mobilen Robotern anhand von Videodaten. Es wird ein Ansatz zur Verbesserung visueller Odometriealgorithmen vorgestellt, der die Idee der Einflussnahme auf die Bilddaten durch ein aktives Kamerasystem aufgreift, ohne tatsächlich eine Aktorik zu benutzen. Es wird gezeigt, dass durch virtuelle Fixationen das räumliche Muster des Bildflusses so verändert werden kann, dass die daraus berechneten Kamerabewegungen genauer werden. Zur Berechnung der Kamerabewegung wird der aktive 7-Punkt-Algorithmus eingeführt. Anhand von statistischen Auswertungen wird abgeleitet, welche Fixationspunkte dazu besonders geeignet sind und ein Verfahren beschrieben, wie geeignete Fixationspunkte ausgewählt werden können. Desweiteren wird ein Vergleich zwischen dem virtuell-aktiven Ansatz und einem genauen visuellen Odometrieverfahren auf aktuellem Stand der Technik gegeben.

Alternative Abstract:
Alternative AbstractLanguage

This paper deals with vision-based navigation of autonomous mobile robots. An approach to improve visual odometry algorithms is presented that picks up the idea of actively influencing the image data by actuating elements of an active camera system without using an active camera system effectively. It is shown that via virtual fixations the spatial optical flow pattern can be influenced in such a way that the camera motion computed based on this optical flow is getting more precise. For computation of the camera motion, the active 7-point algorithm is introduced. Based on statistical evaluations it is derived which fixation points are especially suited and a strategy how to choose such suited fixation points is described. A comparison between the presented virtual-active approach and a state of the art visual odometry implementation is given.

English
Status: Publisher's Version
URN: urn:nbn:de:tuda-tuprints-194346
Classification DDC: 600 Technology, medicine, applied sciences > 620 Engineering and machine engineering
Divisions: 18 Department of Electrical Engineering and Information Technology > Institut für Automatisierungstechnik und Mechatronik > Control Methods and Robotics (from 01.08.2022 renamed Control Methods and Intelligent Systems)
Date Deposited: 16 Sep 2021 12:57
Last Modified: 11 Aug 2023 06:13
URI: https://tuprints.ulb.tu-darmstadt.de/id/eprint/19434
PPN: 510499309
Export:
Actions (login required)
View Item View Item