TU Darmstadt / ULB / TUprints

Robust Signal Processing in Distributed Sensor Networks

Leonard, Mark Ryan :
Robust Signal Processing in Distributed Sensor Networks.
Technische Universität, Darmstadt
[Ph.D. Thesis], (2018)

[img]
Preview
Text
2019-02-15_Leonard_Mark_Ryan.pdf - Published Version
Available under CC-BY-NC-SA 4.0 International - Creative Commons, Attribution Non-commercial, Share-alike.

Download (1MB) | Preview
Item Type: Ph.D. Thesis
Title: Robust Signal Processing in Distributed Sensor Networks
Language: English
Abstract:

Statistical robustness and collaborative inference in a distributed sensor network are two challenging requirements posed on many modern signal processing applications. This dissertation aims at solving these tasks jointly by providing generic algorithms that are applicable to a wide variety of real-world problems.

The first part of the thesis is concerned with sequential detection---a branch of detection theory that is focused on decision-making based on as few measurements as possible. After reviewing some fundamental concepts of statistical hypothesis testing, a general formulation of the Consensus+Innovations Sequential Probability Ratio Test for sequential binary hypothesis testing in distributed networks is derived. In a next step, multiple robust versions of the algorithm based on two different robustification paradigms are developed. The functionality of the proposed detectors is verified in simulations, and their performance is examined under different network conditions and outlier concentrations. Subsequently, the concept is extended to multiple hypotheses by fusing it with the Matrix Sequential Probability Ratio Test, and robust versions of the resulting algorithm are developed. The performance of the proposed algorithms is verified and evaluated in simulations. Finally, the Dempster-Shafer Theory of Evidence is applied to distributed sequential hypothesis testing for the first time in the literature. After introducing a novel way of performing the Basic Probability Assignment, an evidence-based sequential detector for application in distributed sensor networks is developed and its performance is verified in simulations.

The second part of the thesis deals with multi-target tracking in distributed sensor networks. The problem of data association is discussed and the considered state-space and measurement models are introduced. Next, the concept of random finite sets as well as Probability Hypothesis Density filtering are reviewed. Subsequently, a novel distributed Particle Filter implementation of the Probability Hypothesis Density Filter is developed, which is based on a two-step communication scheme. A robust as well as a centralized version of the algorithm are derived. Furthermore, the computational complexity and communication load of the distributed as well as the centralized trackers are analyzed. Finally, simulations are performed to compare the proposed algorithms with an existing distributed tracker. To this end, a distributed version of the Posterior Cramér-Rao Lower Bound is developed, which serves as a performance bound. The results show that the proposed algorithms perform well under different environmental conditions and outperform the competition.

Alternative Abstract:
Alternative AbstractLanguage
Statistische Robustheit und kollaborative Inferenz in einem verteilten Sensornetz sind zwei anspruchsvolle Herausforderungen, die an viele moderne Signalverarbeitungsanwendungen gestellt werden. Diese Dissertation hat zum Ziel, gemeinsame Lösungen für diese Aufgaben zu entwickeln und generische Algorithmen bereitzustellen, die auf eine Vielzahl von Problemen aus der Praxis anwendbar sind. Der erste Teil der Arbeit befasst sich mit der sequentiellen Detektion -- einem Teilgebiet der Detektionstheorie, das sich auf die Entscheidungsfindung basierend auf einer möglichst geringen Anzahl von Messwerten konzentriert. Nach der Betrachtung einiger grundlegender Konzepte des statistischen Hypothesentests wird eine allgemeine Formulierung des sequentiellen Konsens+Innovationen Likelihood-Quotienten-Tests (Consensus+Innovations Sequential Probability Ratio Tests) zum sequentiellen Testen binärer Hypothesen in verteilten Netzen hergeleitet. In einem nächsten Schritt werden mehrere robuste Versionen des Algorithmus' entwickelt, die auf zwei verschiedenen Robustheitsparadigmen basieren. Die Funktionalität der vorgestellten Detektoren wird in Simulationen verifiziert und ihre Leistung wird unter verschiedenen Netzwerkbedingungen sowie Ausreißerkonzentrationen untersucht. Anschließend wird das Konzept auf mehrere Hypothesen ausgedehnt, indem es mit dem sequentiellen Matrix-Likelihood-Quotienten-Test (Matrix Sequential Probability Ratio Test) fusioniert wird. Ferner werden robuste Versionen des resultierenden Algorithmus' entwickelt. Die Leistungsfähigkeit der vorgeschlagenen Algorithmen wird in Simulationen verifiziert und evaluiert. Schließlich wird die Dempster-Shafer Evidenztheorie erstmals in der Literatur auf verteilte sequentielle Hypothesentests angewendet. Nach der Vorstellung einer neuartigen Methode für die Zuweisung von Wahrscheinlichkeitsmassen (Basic Probability Assignment) wird ein evidenzbasierter sequentieller Detektor für den Einsatz in verteilten Sensornetzen entwickelt und seine Leistungsfähigkeit in Simulationen verifiziert. Der zweite Teil der Dissertation besch\"{a}ftigt sich mit der Mehrziel-Verfolgung in verteilten Sensornetzen. Das Problem der Datenzuordnung wird diskutiert und die betrachteten Zustandsraum- und Messmodelle werden eingeführt. Als Nächstes werden das Konzept der zufälligen endlichen Mengen sowie die Wahrscheinlichkeitshypothesendichte-Filterung (Probability Hypothesis Density Filtering) beleuchtet. Anschließend wird eine neuartige verteilte Partikel-Filter Implementierung des Wahrscheinlichkeitshypothesendichte-Filters entwickelt, die auf einem zweistufigen Kommunikationsschema basiert. Es wird sowohl eine robuste als auch eine zentralisierte Version des Algorithmus' hergeleitet. Darüber hinaus werden Rechenkomplexität und Kommunikationslast des verteilten sowie des zentralen Verfolgungsalgorithmus' analysiert. Schließlich werden Simulationen durchgeführt, in denen die vorgeschlagenen Methoden mit einem existierenden verteilten Verfolgungsalgorithmus verglichen werden. Zu diesem Zweck wird eine verteilte Version der A-posteriori-Cramér-Rao-Schranke (Posterior Cramér-Rao Lower Bound) entwickelt, die als Leistungsgrenze dient. Die Ergebnisse zeigen, dass die vorgestellten Algorithmen unter verschiedenen Umgebungsbedingungen gut funktionieren und die Konkurrenz übertreffen.German
Place of Publication: Darmstadt
Classification DDC: 600 Technik, Medizin, angewandte Wissenschaften > 620 Ingenieurwissenschaften
Divisions: 18 Department of Electrical Engineering and Information Technology
18 Department of Electrical Engineering and Information Technology > Institute for Telecommunications
18 Department of Electrical Engineering and Information Technology > Institute for Telecommunications > Signal Processing
Date Deposited: 21 Feb 2019 13:24
Last Modified: 21 Feb 2019 13:24
URN: urn:nbn:de:tuda-tuprints-84896
Referees: Zoubir, Prof. Dr. Abdelhak M. and Barbarossa, Prof. Dr. Sergio
Refereed: 15 February 2019
URI: https://tuprints.ulb.tu-darmstadt.de/id/eprint/8489
Export:
Actions (login required)
View Item View Item