TU Darmstadt / ULB / TUprints

Prüfung der Datenqualität im amtlichen Liegenschaftskataster in Bezug auf ein erweitertes Anwendungsschema

Weber, Marcel:
Prüfung der Datenqualität im amtlichen Liegenschaftskataster in Bezug auf ein erweitertes Anwendungsschema.
Schriftenreihe des Instituts für Geodäsie der Technischen Universität Darmstadt (Heft 41). Darmstadt . ISBN 978-3-935631-30-3
[Book], (2013)

[img]
Preview
Text
Marcel_Weber_Dissertation.pdf
Available under Creative Commons Attribution Non-commercial No Derivatives, 2.5.

Download (15MB) | Preview
[img] Archive
Marcel_Weber_Dissertation_Inhalt_CD-ROM_zu_Anhang_1.zip
Available under Creative Commons Attribution Non-commercial No Derivatives, 2.5.

Download (7MB)
Item Type: Book
Title: Prüfung der Datenqualität im amtlichen Liegenschaftskataster in Bezug auf ein erweitertes Anwendungsschema
Language: German
Abstract:

Die Prüfung der Datenqualität stellt eine unerlässliche Voraussetzung dafür dar, den hohen volkswirtschaftlichen Wert der Daten des amtlichen Liegenschaftskatasters in einem umfassenden Datenqualitätsmanagement zu erhalten und an veränderte Anforderungen der Datennutzer anzupassen. Der Qualitätsprüfung ist dabei initiale Bedeutung beizumessen, weil sie die Grundlage für weitere Funktionen des Qualitätsmanagements wie die Qualitätslenkung und -förderung darstellt. Um dem allseits anerkannten Bedarf einer Datenqualitätsprüfung im amtlichen Liegenschaftskataster angemessen begegnen zu können, ist es erforderlich, eine geeignete Modellbildung zu entwickeln und messbare Qualitätsmerkmale zu formulieren. Das in dieser Arbeit konzipierte Qualitätsmodell geht von einer Unterscheidung zwischen Design- und Ausführungsqualität aus und gliedert die vom Nutzer wahrgenommene „Endqualität“ in sogenannte Datenqualitätskomponenten: Qualität der Modellierung, Qualität der Implementierung, Qualität der Erhebung und Führung sowie Qualität der Benutzung. Das Qualitätsmodell vereint dabei unterschiedliche Qualitätssichten, wie den anwenderbezogenen und produktbezogenen Ansatz und trennt nicht zwischen Produkt- und Dienstleistungsqualität. Mit der Einführung der Datenqualitätsprüfstufen wird zusätzlich den Anforderungen einer prozessorientierten Herangehensweise Rechnung getragen. Darauf aufbauend wird für das Datenqualitätselement der logischen Konsistenz der Daten des amtlichen Liegenschaftskatasters ein umfassender Katalog von 467 Qualitätsmerkmalen definiert, beschrieben und kategorisiert. Als Maßstab für die Analyse der logischen Konsistenz dient ein als „erweitertes Anwendungsschema“ bezeichneter Rahmen, welcher sich aus der bundesweit gültigen GeoInfoDok und zahlreichen landesspezifischen Einschränkungen und Ergänzungen zusammensetzt. Dazu zählen unter anderem Landesgesetze und -verordnungen, Vorschriften, Richtlinien etc. Der Übersichtlichkeit halber wird der Merkmalskatalog in 14 thematische Gruppen gegliedert, wie zum Beispiel „Flurstück“, „Lage“ oder „Personen- und Bestandsdaten“. Des Weiteren lassen sich die Merkmale anhand ihrer inhaltlichen Bedeutung einer von sieben semantischen Kategorien zuordnen, wie beispielsweise der Domänenintegrität, der logischen Vollständigkeit, der thematischen oder der räumlichen Integrität. Außerdem liefert die Einordnung in sechs Komplexitätsgruppen Hinweise zum Prüfaufwand beziehungsweise zur Prüftechnik und spricht somit insbesondere Entwickler an. Ebenfalls eingegangen wird auf die Vorgehensweise zur Gewinnung von Datenqualitätsmerkmalen nach dem axiomatisch-normativen Ansatz, dem induktiven Ansatz und dem deduktiven Ansatz sowie auf die Alternativen zur Formalisierung der Datenqualitätsmerkmale. Basierend auf dem damit gelegten konzeptionellen Fundament werden Vorschläge zur Optimierung der Datenmodellierung unterbreitet und eine plattform- und herstellerunabhängige Implementierung eines Prüfwerkzeuges vorgenommen. Beim „NAS-Analyse-Werkzeug (NAW)“ handelt es sich um eine JAVA-Applikation, die neben Funktionen zur Validierung und beschreibenden Statistik den Katalog der Qualitätsmerkmale im Programmmodul „NAS-Analyse“ umsetzt. Ergänzung finden diese Leistungsmerkmale in der Veränderungsanalyse und der Aktualitätsprüfung, welche insbesondere für eine Datenprüfung im Aktualisierungsprozess unverzichtbar sind. Von Beginn an wurde die Architektur des „NAS-Analyse-Werkzeuges (NAW)“ auf Massendatentauglichkeit und möglichst weitreichende Parametrisierbarkeit ausgelegt, um eine Verwendung in unterschiedlichsten Prüfszenarien, aber auch im Zusammenhang mit den verschiedenen Anwendungsschemata der Bundesländer sicherzustellen. Dem zuzurechnen sind die Optionen, Anwenderprofile auszuprägen, Datenqualitätsmerkmale zu aktivieren/deaktivieren sowie unterschiedliche GeoInfoDok-Versionen anzusprechen. Durch die Spezifikation eines Datenaustauschformates wird es ermöglicht, die Ergebnisse der Datenprüfung zu transportieren und in Metainformationssysteme zu integrieren. Abrundung findet die Beschreibung des „NAS-Analyse-Werkzeuges (NAW)“ in der Untersuchung des Laufzeitverhaltens. Als Funktion der Dateigröße lässt sich die Dauer eines Analyselaufes in Abhängigkeit von der Rechnerausstattung verlässlich schätzen, so dass im Vorfeld aufwendiger Datenprüfungen Kenngrößen für die Skalierung der Auswerteprozesse gewonnen werden können. Schließlich stellen die Ausführungen zum Prototyping in der Vermessungs- und Katasterverwaltung Rheinland-Pfalz die Reife und Praxistauglichkeit für die turnusmäßige Bestandsdatenanalyse und die Qualitätssicherungsmechanismen im Aktualisierungsprozess heraus. Der Exkurs zur Ausweitung auf die Informationssysteme AFIS und VBORIS sowie die Erprobung an der Bezirksregierung Köln belegt die Erweiterbarkeit und Übertragbarkeit des Ansatzes. Darüber hinaus vermittelt die vorliegende Arbeit die zum Verständnis erforderlichen Grundlagen des Qualitätsmanagements, der Datenqualität, der Geoinformatik sowie des amtlichen Liegenschaftskataster-Informationssystems und bezieht die bestehenden Forschungsergebnisse und Normungen mit ein.

Alternative Abstract:
Alternative AbstractLanguage
The assessment of data quality represents an essential prerequisite to maintain the high economic value of the data of the official real estate cadastre. This is achieved in a comprehensive data quality management. Moreover it helps to adapt the data to the changing requirements of its users. The quality assessment is the fundamental basis for any further functions of the quality management like quality control and quality promotion. To meet the widely recognized need for a data quality assessment of the official real estate cadastre, it is necessary to develop a suitable quality model and formulate measurable quality features. The quality model devised in this work rests upon the distinction between design quality and execution quality and subdivides the „final quality“ perceived by the user into the following so-called data quality components: the quality of modeling, the quality of implementation, the quality of the collection and updating as well as the quality of utilisation. The quality model unites different quality views, like the user-based and the product-based approach and does not distinguish between product quality and service quality. With the introduction of different steps for the data quality assessment, the requirements of a manufactering based approach are also taken into account. Based on this, a comprehensive catalog of 467 quality features is defined, described and categorized to be used for the data quality element of the logical consistency of the data of the official real estate cadastre. The so-called „extended application schema“ frame serves as a benchmark for analyzing the logical consistency, which consists of the nationwide valid GeoInfoDok and numerous federal state specific restrictions and additions. Among those are federal state laws, federal state ordinances, regulations, guidelines etc. To make the feature catalog more transparent, it is divided into 14 thematic groups, such as „parcel“, „location“ or „persons and registers“. Furthermore the features can be assigned to one of seven semantic categories, such as domain integrity, the logical completeness, thematic or spatial integrity, according to their content meaning. Moreover, the classification into six complexity groups provides indications for the analysis effort and respectively the technology needed. Therefore, it particularly appeals to a developer. Discussed is the procedure of obtaining data quality features derived from the axiomatic-normative approach, the inductive approach and the deductive approach as well as the alternatives of the formalisation of data quality features. Suggestions for the improvement of the data model are presented which are based on this conceptual foundation. Beyond that, a platform and manufacturer independent implementation of an assessment software tool was carried out. The „NAS-Analyse-Werkzeug (NAW)“ is a JAVA application, that transfers the catalog of quality features into the program module „NAS-Analyse“. Furthermore it provides functions of validation and descriptive statistics. These features are completed by an analysis of change and an analysis of timeliness, which are both indispensable in particular for the data check in the updating process. The architecture of the „NAS-Analyse-Werkzeug (NAW)“ was designed for mass data suitability and for far-reaching adaptability to ensure its usability in a variety of assessment scenarios, but also in connection with the various application schemes of the federal states. Hence it is possible to build user profiles, to activate or to deactivate data quality features as well as to refer to different GeoInfoDok versions. With the specification of a data exchange format, it becomes feasible to transport the results of the data assessment and to integrate them into meta information systems. The description of the „NAS-Analyse-Werkzeug (NAW)“ is finalised by the examination of runtime behaviour. The duration of an analysis run is a function of the file size. It can be reliably estimated depending on the computer capacity. That is why, prior to a costly quality assessment one can determine the runtime to adjust the analysis process. Finally, the elaboration on the prototyping at the administration of cadastre of Rhineland-Palatinate shows the maturity and the suitability for daily use of the periodical analysis of the cadastral data base and the quality assurance in the updating process. The excursus about the expansion on the information systems AFIS and VBORIS as well as the test runs at the district government of Cologne proves the extensibility and the portability of the approach. Moreover, the present work provides the basic requirements for the understanding of quality management, data quality, geoinformatics as well as the official real estate cadastre information system and includes the existing results of research and standardisation.English
Series Name: Schriftenreihe des Instituts für Geodäsie der Technischen Universität Darmstadt
Number: Heft 41
Place of Publication: Darmstadt
Classification DDC: 300 Sozialwissenschaften > 350 Öffentliche Verwaltung
500 Naturwissenschaften und Mathematik > 550 Geowissenschaften
600 Technik, Medizin, angewandte Wissenschaften > 620 Ingenieurwissenschaften
Divisions: 13 Fachbereich Bau- und Umweltingenieurwissenschaften
13 Fachbereich Bau- und Umweltingenieurwissenschaften > Institute of Geodesy > Land Management
Date Deposited: 06 Feb 2014 14:07
Last Modified: 06 Feb 2014 14:07
URN: urn:nbn:de:tuda-tuprints-37173
Referees: Linke, Prof. Hans Joachim and Wieser, Prof. Erich
Refereed: 3 December 2013
URI: http://tuprints.ulb.tu-darmstadt.de/id/eprint/3717
Export:
Actions (login required)
View Item View Item

Downloads

Downloads per month over past year