TU Darmstadt / ULB / TUprints

Prüfung der Datenqualität im amtlichen Liegenschaftskataster in Bezug auf ein erweitertes Anwendungsschema

Weber, Marcel (2014)
Prüfung der Datenqualität im amtlichen Liegenschaftskataster in Bezug auf ein erweitertes Anwendungsschema.
Book, Secondary publication

[img]
Preview
Text
Marcel_Weber_Dissertation.pdf
Copyright Information: CC BY-NC-ND 2.5 Generic - Creative Commons, Attribution, NonCommercial, NoDerivs .

Download (15MB) | Preview
[img] Archive
Marcel_Weber_Dissertation_Inhalt_CD-ROM_zu_Anhang_1.zip
Copyright Information: CC BY-NC-ND 2.5 Generic - Creative Commons, Attribution, NonCommercial, NoDerivs .

Download (7MB)
Item Type: Book
Type of entry: Secondary publication
Title: Prüfung der Datenqualität im amtlichen Liegenschaftskataster in Bezug auf ein erweitertes Anwendungsschema
Language: German
Referees: Linke, Prof. Hans Joachim ; Wieser, Prof. Erich
Date: 6 February 2014
Place of Publication: Darmstadt
Year of primary publication: 2013
Issue Number: Heft 41
Series: Schriftenreihe des Instituts für Geodäsie der Technischen Universität Darmstadt
Date of oral examination: 3 December 2013
Abstract:

Die Prüfung der Datenqualität stellt eine unerlässliche Voraussetzung dafür dar, den hohen volkswirtschaftlichen Wert der Daten des amtlichen Liegenschaftskatasters in einem umfassenden Datenqualitätsmanagement zu erhalten und an veränderte Anforderungen der Datennutzer anzupassen. Der Qualitätsprüfung ist dabei initiale Bedeutung beizumessen, weil sie die Grundlage für weitere Funktionen des Qualitätsmanagements wie die Qualitätslenkung und -förderung darstellt. Um dem allseits anerkannten Bedarf einer Datenqualitätsprüfung im amtlichen Liegenschaftskataster angemessen begegnen zu können, ist es erforderlich, eine geeignete Modellbildung zu entwickeln und messbare Qualitätsmerkmale zu formulieren. Das in dieser Arbeit konzipierte Qualitätsmodell geht von einer Unterscheidung zwischen Design- und Ausführungsqualität aus und gliedert die vom Nutzer wahrgenommene „Endqualität“ in sogenannte Datenqualitätskomponenten: Qualität der Modellierung, Qualität der Implementierung, Qualität der Erhebung und Führung sowie Qualität der Benutzung. Das Qualitätsmodell vereint dabei unterschiedliche Qualitätssichten, wie den anwenderbezogenen und produktbezogenen Ansatz und trennt nicht zwischen Produkt- und Dienstleistungsqualität. Mit der Einführung der Datenqualitätsprüfstufen wird zusätzlich den Anforderungen einer prozessorientierten Herangehensweise Rechnung getragen. Darauf aufbauend wird für das Datenqualitätselement der logischen Konsistenz der Daten des amtlichen Liegenschaftskatasters ein umfassender Katalog von 467 Qualitätsmerkmalen definiert, beschrieben und kategorisiert. Als Maßstab für die Analyse der logischen Konsistenz dient ein als „erweitertes Anwendungsschema“ bezeichneter Rahmen, welcher sich aus der bundesweit gültigen GeoInfoDok und zahlreichen landesspezifischen Einschränkungen und Ergänzungen zusammensetzt. Dazu zählen unter anderem Landesgesetze und -verordnungen, Vorschriften, Richtlinien etc. Der Übersichtlichkeit halber wird der Merkmalskatalog in 14 thematische Gruppen gegliedert, wie zum Beispiel „Flurstück“, „Lage“ oder „Personen- und Bestandsdaten“. Des Weiteren lassen sich die Merkmale anhand ihrer inhaltlichen Bedeutung einer von sieben semantischen Kategorien zuordnen, wie beispielsweise der Domänenintegrität, der logischen Vollständigkeit, der thematischen oder der räumlichen Integrität. Außerdem liefert die Einordnung in sechs Komplexitätsgruppen Hinweise zum Prüfaufwand beziehungsweise zur Prüftechnik und spricht somit insbesondere Entwickler an. Ebenfalls eingegangen wird auf die Vorgehensweise zur Gewinnung von Datenqualitätsmerkmalen nach dem axiomatisch-normativen Ansatz, dem induktiven Ansatz und dem deduktiven Ansatz sowie auf die Alternativen zur Formalisierung der Datenqualitätsmerkmale. Basierend auf dem damit gelegten konzeptionellen Fundament werden Vorschläge zur Optimierung der Datenmodellierung unterbreitet und eine plattform- und herstellerunabhängige Implementierung eines Prüfwerkzeuges vorgenommen. Beim „NAS-Analyse-Werkzeug (NAW)“ handelt es sich um eine JAVA-Applikation, die neben Funktionen zur Validierung und beschreibenden Statistik den Katalog der Qualitätsmerkmale im Programmmodul „NAS-Analyse“ umsetzt. Ergänzung finden diese Leistungsmerkmale in der Veränderungsanalyse und der Aktualitätsprüfung, welche insbesondere für eine Datenprüfung im Aktualisierungsprozess unverzichtbar sind. Von Beginn an wurde die Architektur des „NAS-Analyse-Werkzeuges (NAW)“ auf Massendatentauglichkeit und möglichst weitreichende Parametrisierbarkeit ausgelegt, um eine Verwendung in unterschiedlichsten Prüfszenarien, aber auch im Zusammenhang mit den verschiedenen Anwendungsschemata der Bundesländer sicherzustellen. Dem zuzurechnen sind die Optionen, Anwenderprofile auszuprägen, Datenqualitätsmerkmale zu aktivieren/deaktivieren sowie unterschiedliche GeoInfoDok-Versionen anzusprechen. Durch die Spezifikation eines Datenaustauschformates wird es ermöglicht, die Ergebnisse der Datenprüfung zu transportieren und in Metainformationssysteme zu integrieren. Abrundung findet die Beschreibung des „NAS-Analyse-Werkzeuges (NAW)“ in der Untersuchung des Laufzeitverhaltens. Als Funktion der Dateigröße lässt sich die Dauer eines Analyselaufes in Abhängigkeit von der Rechnerausstattung verlässlich schätzen, so dass im Vorfeld aufwendiger Datenprüfungen Kenngrößen für die Skalierung der Auswerteprozesse gewonnen werden können. Schließlich stellen die Ausführungen zum Prototyping in der Vermessungs- und Katasterverwaltung Rheinland-Pfalz die Reife und Praxistauglichkeit für die turnusmäßige Bestandsdatenanalyse und die Qualitätssicherungsmechanismen im Aktualisierungsprozess heraus. Der Exkurs zur Ausweitung auf die Informationssysteme AFIS und VBORIS sowie die Erprobung an der Bezirksregierung Köln belegt die Erweiterbarkeit und Übertragbarkeit des Ansatzes. Darüber hinaus vermittelt die vorliegende Arbeit die zum Verständnis erforderlichen Grundlagen des Qualitätsmanagements, der Datenqualität, der Geoinformatik sowie des amtlichen Liegenschaftskataster-Informationssystems und bezieht die bestehenden Forschungsergebnisse und Normungen mit ein.

Alternative Abstract:
Alternative AbstractLanguage

The assessment of data quality represents an essential prerequisite to maintain the high economic value of the data of the official real estate cadastre. This is achieved in a comprehensive data quality management. Moreover it helps to adapt the data to the changing requirements of its users. The quality assessment is the fundamental basis for any further functions of the quality management like quality control and quality promotion. To meet the widely recognized need for a data quality assessment of the official real estate cadastre, it is necessary to develop a suitable quality model and formulate measurable quality features. The quality model devised in this work rests upon the distinction between design quality and execution quality and subdivides the „final quality“ perceived by the user into the following so-called data quality components: the quality of modeling, the quality of implementation, the quality of the collection and updating as well as the quality of utilisation. The quality model unites different quality views, like the user-based and the product-based approach and does not distinguish between product quality and service quality. With the introduction of different steps for the data quality assessment, the requirements of a manufactering based approach are also taken into account. Based on this, a comprehensive catalog of 467 quality features is defined, described and categorized to be used for the data quality element of the logical consistency of the data of the official real estate cadastre. The so-called „extended application schema“ frame serves as a benchmark for analyzing the logical consistency, which consists of the nationwide valid GeoInfoDok and numerous federal state specific restrictions and additions. Among those are federal state laws, federal state ordinances, regulations, guidelines etc. To make the feature catalog more transparent, it is divided into 14 thematic groups, such as „parcel“, „location“ or „persons and registers“. Furthermore the features can be assigned to one of seven semantic categories, such as domain integrity, the logical completeness, thematic or spatial integrity, according to their content meaning. Moreover, the classification into six complexity groups provides indications for the analysis effort and respectively the technology needed. Therefore, it particularly appeals to a developer. Discussed is the procedure of obtaining data quality features derived from the axiomatic-normative approach, the inductive approach and the deductive approach as well as the alternatives of the formalisation of data quality features. Suggestions for the improvement of the data model are presented which are based on this conceptual foundation. Beyond that, a platform and manufacturer independent implementation of an assessment software tool was carried out. The „NAS-Analyse-Werkzeug (NAW)“ is a JAVA application, that transfers the catalog of quality features into the program module „NAS-Analyse“. Furthermore it provides functions of validation and descriptive statistics. These features are completed by an analysis of change and an analysis of timeliness, which are both indispensable in particular for the data check in the updating process. The architecture of the „NAS-Analyse-Werkzeug (NAW)“ was designed for mass data suitability and for far-reaching adaptability to ensure its usability in a variety of assessment scenarios, but also in connection with the various application schemes of the federal states. Hence it is possible to build user profiles, to activate or to deactivate data quality features as well as to refer to different GeoInfoDok versions. With the specification of a data exchange format, it becomes feasible to transport the results of the data assessment and to integrate them into meta information systems. The description of the „NAS-Analyse-Werkzeug (NAW)“ is finalised by the examination of runtime behaviour. The duration of an analysis run is a function of the file size. It can be reliably estimated depending on the computer capacity. That is why, prior to a costly quality assessment one can determine the runtime to adjust the analysis process. Finally, the elaboration on the prototyping at the administration of cadastre of Rhineland-Palatinate shows the maturity and the suitability for daily use of the periodical analysis of the cadastral data base and the quality assurance in the updating process. The excursus about the expansion on the information systems AFIS and VBORIS as well as the test runs at the district government of Cologne proves the extensibility and the portability of the approach. Moreover, the present work provides the basic requirements for the understanding of quality management, data quality, geoinformatics as well as the official real estate cadastre information system and includes the existing results of research and standardisation.

English
URN: urn:nbn:de:tuda-tuprints-37173
Additional Information:

Zugl.: Diss., Darmstadt, Techn. Univ., 2013

Classification DDC: 300 Social sciences > 350 Public administration
500 Science and mathematics > 550 Earth sciences and geology
600 Technology, medicine, applied sciences > 620 Engineering and machine engineering
Divisions: 13 Department of Civil and Environmental Engineering Sciences
13 Department of Civil and Environmental Engineering Sciences > Institute of Geodesy > Land Management
Date Deposited: 06 Feb 2014 14:07
Last Modified: 18 Oct 2023 11:10
URI: https://tuprints.ulb.tu-darmstadt.de/id/eprint/3717
PPN: 386316430
Export:
Actions (login required)
View Item View Item