TU Darmstadt / ULB / TUprints

Mining User-Generated Content for Incidents

Schulz, Axel :
Mining User-Generated Content for Incidents.
Technische Universität, Darmstadt
[Ph.D. Thesis], (2014)

[img]
Preview
Text
733_Schultz_redu.pdf - Accepted Version
Available under Creative Commons Attribution Non-commercial No Derivatives, 2.5.

Download (16MB) | Preview
Item Type: Ph.D. Thesis
Title: Mining User-Generated Content for Incidents
Language: English
Abstract:

Social media changed human interaction by allowing people to connect to each other anytime and from anywhere, resulting in many valuable information shared about a variety of different domains. Because of the large amount of data created every day, social media analytics became an important topic to make use of this source of information. Most importantly, people contribute much valuable information about crisis events such as small-scale incidents, which is currently not taken into account by decision makers in emergency management. Reasons for this are the sheer amount of information as well as the heterogeneous and unstructured nature of the data, which hinder the use of this source of information.

In this dissertation, we try to answer the question 'How can user-generated content be made a usable and valuable source of information for situational awareness of decision makers?'. To answer this question, we present a framework consisting of the necessary steps to process a large amount of social media data in such a way that incident-related information is identified and aggregated to distinct incident clusters, each one containing information about an individual real-world incident. With the contributions presented in this dissertation, previously not usable user-generated content becomes a valuable source for decision making in emergency management.

In the first part of the dissertation, we introduce the requirements of a system for small-scale incident detection, which are derived from the (1) spatial, (2) temporal, and (3) thematic dimensions defining an incident. Based on these dimensions, we develop a framework for processing a large amount of user-generated content. As a first step of the framework, we introduce how user-generated content is collected to create an initial information base, which is processed in the subsequent steps of the framework.

In the second part, we introduce several steps to preprocess unstructured social media data so it can be used in the subsequent steps of the framework. We show how named entities and temporal expressions are identified and extracted so that they can be used as additional information when creating a machine learning model that is generalizable for data that stems from a different city. We introduce a set of adaptations applied to standard techniques that allow us to extract named entities and temporal expressions from unstructured text. We also present how we make use of the temporal expressions to infer the point in time when an incident occurred.

In that part, we also deal with the problem of how to infer the spatial dimensions of user-generated content. We contribute a novel approach for the geolocalization of tweets that is capable of inferring the home location of a Twitter user, the point of origin where a tweet was sent, as well as of inferring the location focus of a tweet message. We show that the approach is able to locate 92% of all tweets with a median accuracy of below 30km, thus outperforming related approaches. Furthermore, it predicts the user's residence with a median accuracy of below 5.1km. Finally, the same approach is able to estimate the focus of incident-related tweets within a median accuracy of below 250m.

In the third part of the dissertation, we present approaches for inferring the thematic dimension. We contribute a general approach for applying crowdsourcing to manually classify and aggregate user-generated content according to the information need of the command staff in emergency management. With this approach, we are able to differentiate incident-related information from information not related to an incident. Evaluation results with end users show that this approach is indeed valuable for the command staff.

As crowdsourcing is limited when it comes to the timely filtering of a large amount of information, we further contribute an approach for automatically detecting incident-related information in user-generated content. Based on an extensive evaluation of different feature groups, we present a highly precise machine learning approach that is able to classify the incident type with an F-measure of more than 90%. We also deal with the dynamism and regional variation of user-generated content and contribute a concept that allows creating features that are not city-specific and support training a generalized model.

Based on the temporal, spatial, and thematic dimensions of each information item, we present a clustering approach that is able to detect incidents in a large amount of social media data. The approach clusters all information related to the same incident. Furthermore, it is able to cope with different organizational incident type vocabularies. Evaluation results show that the approach is able to detect more than 50% of real-world incidents published in an official emergency management system. Furthermore, 32.14% of the detected incidents are within a 500m radius and within a 10min time interval of the real-world incident, allowing precise spatial and temporal localization. With this recall, we outperform related approaches, which only detect about 5% of the real-world incidents. Also, more than 77% of the incident clusters created with our approach are indeed related to incidents, thus significantly reducing the quantity of irrelevant information. Furthermore, we underline the importance of incident-related tweets by conducting a user study of situational information shared in user-generated content, showing that valuable situational information is indeed shared in social media.

Finally, we contribute an approach for reducing labeling costs of user-generated content. The presented algorithms make use of temporal, spatial, and thematic metadata to determine the most valuable instances to label. Our evaluation shows that the approach outperforms current state-of-the-art approaches. Furthermore, we show that labeling costs can indeed be reduced.

Alternative Abstract:
Alternative AbstractLanguage
Soziale Netzwerke, wie z.B. Twitter, ermöglichen es, sich von jedem Ort und zu jeder Zeit miteinander zu verbinden. Dies führt dazu, dass eine große Menge an Informationen über vielfältige Themen erzeugt wird. Ein Teil dieser nutzergenerierten Inhalte bezieht sich auf alltägliche Ereignisse, wie Autounfälle oder Brände. Obwohl diese Informationen zu Schadensereignissen potentiell nützlich für die Entscheidungsfindung im Krisenmanagement sein können, besteht momentan keine Möglichkeit diese zu verwenden. Dies liegt zum einen daran, dass eine manuelle und zeitnahe Verarbeitung der Menge an Informationen nur schwer durchführbar ist. Zum anderen ist eine automatisierte Verarbeitung dieser größtenteils unstrukturierten Daten bisher nicht möglich. In der vorliegenden Dissertation soll die Frage behandelt werden, wie nutzergenerierte Inhalte aufbereitet werden können, um diese zu einer nützlichen und wertvollen Informationsquelle für Entscheidungsträger zu machen. Dazu wird in dieser Arbeit ein System vorgestellt, welches die notwendigen Verarbeitungsschritte durchführt, um Informationen, die sich auf Schadensereignisse beziehen, zu erkennen und zu aggregieren. Im ersten Teil der Dissertation werden zunächst die Anforderungen an ein System vorgestellt, welches Schadensereignisse auf Basis von nutzergenerierten Inhalten erkennt. Diese Anforderungen werden von drei Eigenschaften, die ein Schadensereignis definieren, abgeleitet: der räumlichen, zeitlichen und thematischen Dimension. Basierend auf diesen Dimensionen wurde ein System entwickelt, um Schadensereignisse auf Basis großer Datenmengen zu erkennen. Als erster Schritt des Systems wird beschrieben, wie eine initiale Informationsbasis aus sozialen Medien geschaffen wird. Als zweiter Schritt werden unterschiedliche Verfahren präsentiert, um nutzergenerierte Inhalte derart aufzubereiten, dass diese in den darauffolgenden Verarbeitungsschritten genutzt werden können. Dazu wird zunächst gezeigt, wie Eigennamen und zeitliche Ausdrücke erkannt und extrahiert werden können, um diese als zusätzliche Informationen für die Bestimmung der drei Dimensionen zu nutzen. Weiterhin werden zeitliche Ausdrücke dafür eingesetzt, um den genauen Zeitpunkt zu bestimmen, wann ein Schadensereignis stattgefunden hat. In diesem Teil der Dissertation wird ebenfalls das Problem adressiert, wie die räumliche Dimension eines Schadensereignisses ermittelt werden kann, d.h. wie nutzergenerierte Inhalte räumlich verortet werden können. Dafür wird ein Algorithmus vorgestellt, welcher in der Lage ist, den Heimatort eines Twitternutzers, seinen Standort zum Zeitpunkt des Sendens einer Nachricht sowie den Bezugspunkt der Nachricht zu ermitteln. Es wird gezeigt, dass dieser Ansatz in der Lage ist, 92% aller Tweets in einem Median von unter 30km zu verorten. Weiterhin ist der Ansatz in der Lage den Heimatort mit einem Median unter 5.1km sowie den Bezugspunkt einer Nachricht mit einem Median unter 250m zu bestimmen. Mit dieser Genauigkeit werden die Ergebnisse bisheriger Ansätze übertroffen. Im dritten Teil der Dissertation werden zunächst Ansätze präsentiert, um die thematische Dimension einer Information zu bestimmen. Es wird gezeigt, wie Crowdsourcing eingesetzt werden kann, um nutzergenerierte Inhalte manuell zu klassifizieren und zu aggregieren, so dass die relevanten Informationen für die Entscheidungsfindung eines Entscheidungsträgers gefiltert werden können. In einer Evaluation mit Entscheidungsträgern wurde gezeigt, dass dieser Ansatz in der tagtäglichen Entscheidungsfindung nützlich ist. Da Crowdsourcing nur begrenzt einsetzbar ist, wenn zeitnah große Datenmengen gefiltert werden müssen, wird weiterhin ein Ansatz zur automatischen Klassifikation der thematischen Dimension beschrieben. Dafür wird ein präzises Modell zum maschinellen Lernen vorgestellt, um den Typ des Schadensereignisses mit einer Genauigkeit von mehr als 90% zu klassifizieren. Weiterhin wird gezeigt, dass dieses Modell robust gegenüber regionalen Unterschieden in der Verwendung von Begriffen, wie z.B. der Verwendung von lokalen Straßennamen, ist. Basierend auf den in den einzelnen Ansätzen ermittelten räumlichen, zeitlichen und thematischen Informationen, wird ein Ansatz zum Aggregieren zusammengehöriger Informationen beschrieben. In einer Evaluation auf Basis von Daten aus einem Krisenmanagementsystem wird gezeigt, dass dieser Ansatz in der Lage ist 50% der echten Schadensereignisse zu erkennen, sowie dass mehr als 32% der erkannten Ereignisse innerhalb eines 500m Radius und innerhalb eines 10min Intervalls liegen. Mit diesem Ansatz wird daher eine präzise räumliche und zeitliche Verortung ermöglicht, die deutlich bestehende Ansätze übertrifft. Weiterhin wird gezeigt, dass 77% der erkannten Ereignisse tatsächlich Schadensereignisse sind, wodurch die Menge an irrelevanten Informationen deutlich verringert werden kann. Da die automatische Klassifikation der thematischen Dimension eine manuelle Klassifikation voraussetzt, wird abschließend ein Ansatz beschrieben, um die Kosten dieser manuellen Klassifikation zu senken. Dazu werden zwei Algorithmen zur Ereignis-basiertes Aggregation vorgestellt, welche bestmögliche Instanzen zum manuellen Klassifizieren auswählen. In einer Evaluation wird gezeigt, dass dieser Ansatz bessere Ergebnisse erzielt als bisherige Ansätze. Mit den in dieser Arbeit erbrachten Beiträgen ist es letztlich möglich, bisher nicht nutzbare Informationen aus sozialen Medien für die Entscheidungsfindung im Krisenmanagement nutzbar zu machen.German
Place of Publication: Darmstadt
Classification DDC: 000 Allgemeines, Informatik, Informationswissenschaft > 004 Informatik
600 Technik, Medizin, angewandte Wissenschaften > 620 Ingenieurwissenschaften
Divisions: 20 Department of Computer Science
20 Department of Computer Science > Knowl­edge En­gi­neer­ing
20 Department of Computer Science > Telecooperation
Date Deposited: 12 Aug 2014 09:22
Last Modified: 12 Aug 2014 09:22
URN: urn:nbn:de:tuda-tuprints-41074
Referees: Mühlhäuser, Prof. Dr. Max and Sure-Vetter, Prof. Dr. York
Refereed: 23 June 2014
URI: http://tuprints.ulb.tu-darmstadt.de/id/eprint/4107
Export:
Actions (login required)
View Item View Item

Downloads

Downloads per month over past year