TU Darmstadt / ULB / tuprints

Context-Aware Intelligent User Interfaces for Supporting System Use

Hartmann, Melanie :
Context-Aware Intelligent User Interfaces for Supporting System Use.
TU Darmstadt
[Ph.D. Thesis], (2010)

[img]
Preview
Context-Aware Intelligent User Interfaces for Supporting System Use - PDF
PHD.PDF
Available under Creative Commons Attribution Non-commercial No Derivatives.

Download (5Mb) | Preview
Item Type: Ph.D. Thesis
Title: Context-Aware Intelligent User Interfaces for Supporting System Use
Language: English
Abstract:

Two trends can be observed in current applications: the amount of functionality offered is constantly increasing and applications are more often used in mobile settings. Both trends often lead to a decrease in the usability of applications. This effect can be countered by Intelligent User Interfaces that facilitate the interaction between user and application. In order to support the user in an optimal way, the Intelligent User Interface has to be aware of the user’s needs and adapt the provided support to her current situation, i.e. her current context. The relevant context information can thereby be gathered from the environment (e.g. her current location) or from sophisticated user models that reflect the user’s behavior. In this thesis, we present a novel approach of combining user and environmental context information for supporting the system use. As context information is often very error-prone and the user‘s workflow should not be disrupted by erroneous interaction support, we adapt the presentation of the support to the reliability of the context information. Therefore, we use different levels of proactivity from unobtrusive highlighting to automatically performing tasks. The presented approach -called AUGUR- is application independent and is able to support the interaction for arbitrary existing applications, even across application boundaries. For that purpose, we developed a novel application modeling language that is able to model applications and their relationships to context. The application models can thereby be defined by the application developer, learned by AUGUR, and augmented by the end-user. The interaction can be facilitated by an Intelligent User Interface in two different ways: on the one hand by supporting the entering of data and on the other hand by simplifying the navigation within and between applications. For supporting the user in entering data, we contribute three approaches based on (i) the user’s previous interactions, (ii) the information represented in the application models, and (iii) the semantics of the data required by the user interface and the context information currently relevant for the user. For the latter, we developed a novel algorithm that combines string-based and semantic similarity measures. AUGUR supports the user’s navigation in three different ways: It can (i) guide the user through an application, (ii) provide navigation shortcuts to other applications, and (iii) reduce the user interface to the most relevant functionality for mobile use. For guiding the user, we developed a novel algorithm called FxL that is able to predict the next relevant interaction element. For the interface adaptation, we introduce a novel approach based on FxL to determine the elements that should be presented to the user for mobile use according to her current situation. We realized the developed concepts of AUGUR in a working prototype. Further, we evaluated the usability of the context-aware support provided by AUGUR in a user study, and showed that it can significantly increase the usability of an application.

Alternative Abstract:
Alternative AbstractLanguage
Heutige Anwendungen werden zum einen immer komplexer und zum anderen zunehmend auf mobilen Endgeräten verwendet. Beide Faktoren beeinträchtigen häufig die Gebrauchstauglichkeit der Anwendungen. Intelligente Benutzungsschnittstellen wirken dem entgegen indem sie den Benutzer bei der Interaktion mit einer Anwendung unterstützen. Um die optimale Unterstützung bieten zu können, muss sich die intelligente Benutzungsschnittstelle an die Bedürfnisse des Benutzers und an seine aktuelle Situation, d.h. seinen Kontext, anpassen. Kontextinformationen können dabei aus der Umgebung des Benutzers gewonnen werden (z.B. sein aktueller Aufenthaltsort) oder aus Benutzermodellen, die das Verhalten des Benutzers widerspiegeln. In dieser Arbeit präsentieren wir einen neuen Ansatz zur kontextsensitiven Interaktionsunterstützung, der sowohl den Umgebungs- als auch den Benutzerkontext berücksichtigt. Da Kontextinformationen häufig fehlerbehaftet sind und der Arbeitsfluss des Benutzers nicht mit fehlerhafter Unterstützung gestört werden soll, müssen wir die Zuverlässigkeit der genutzten Kontextdaten bei der Interaktionsunterstützung berücksichtigen. Daher passen wir die Darstellung der Interaktionsunterstützung an die Zuverlässigkeit der zugrunde liegenden Daten an. Die Darstellung reicht von unaufdringlichem Hervorheben relevanter Elemente bis zur automatischen Ausführung von Anwendungsschritten. Der vorgestellte Ansatz zur kontextabhängigem Interaktionsunterstützung, genannt AUGUR, ist anwendungsunabhängig und kann den Benutzer auch über Anwendungsgrenzen hinweg unterstützen. Dies wird durch eine neue Anwendungsmodelierungssprache ermöglicht, die uns erlaubt, Anwendungen und ihren Zusammenhang zu Kontextinformationen zu modellieren. Die Anwendungsmodelle können dabei vom Anwendungsentwickler erstellt werden oder von AUGUR erlernt werden. Zusätzlich können sie jederzeit vom Endbenutzer überprüft und erweitert werden. Wir konzentrieren uns in der vorliegenden Arbeit auf die Unterstützung des Benutzers bei der Dateneingabe und bei der Navigation in und zwischen Anwendungen. Zur Unterstützung bei der Dateneingabe verwenden wir folgende Informationsquellen: (i) die bisherigen Interaktionen des Benutzers, (ii) das zugehörige Anwendungsmodell und (iii) die Semantik der von der Anwendung benötigten Daten und des aktuellen Kontexts des Benutzers. Für Letzteres haben wir einen neuen Algorithmus entwickelt, der zeichenfolgenbasierte und semantische Ähnlichkeitsmasse kombiniert und neue Zusammenhänge erlernt. Die Navigation des Benutzers wird von AUGUR auf drei verschiedene Arten unterstützt: AUGUR kann (i) den Benutzer durch eine Anwendung führen, (ii) Navigationsshortcuts zu anderen Anwendungen vorschlagen und (iii) automatisch eine reduzierte Version der Anwendungsoberfläche für mobile Benutzung generieren. Um den Benutzer durch eine Anwendung zu führen, haben wir einen neuen Algorithmus namens FxL entwickelt, der in der Lage ist, das nächste relevante Interaktionselement auf Basis der bisherigen Interaktionen vorherzusagen. Für die Generierung der reduzierten Benutzungsoberfläche stellen wir einen neuen Algorithmus basierend auf FxL vor, der die Interaktionselemente bestimmen kann, die idealerweise dem Benutzer angezeigt werden sollten. Die entwickelten Konzepte wurden in einem Prototyp umgesetzt und getestet. Darüberhinaus haben wir die Gebrauchstauglichkeit der kontextabhängigen Interaktionsunterstützung in AUGUR in einer Benutzerstudie überprüft. Wir konnten zeigen, dass eine solche Unterstützung die Gebrauchstauglichkeit einer Anwendung signifikant erhöhen kann.German
Uncontrolled Keywords: Context, Intelligent User Interfaces, AUGUR, Prediction Algorithm, FxL, Semantic Matching, Web Applications, User Interface Adaptation
Alternative keywords:
Alternative keywordsLanguage
Context, Intelligent User Interfaces, AUGUR, Prediction Algorithm, FxL, Semantic Matching, Web Applications, User Interface AdaptationEnglish
Classification DDC: 000 Allgemeines, Informatik, Informationswissenschaft > 004 Informatik
Divisions: Fachbereich Informatik
Fachbereich Informatik > Telekooperation
Date Deposited: 25 May 2010 08:57
Last Modified: 07 Dec 2012 11:57
URN: urn:nbn:de:tuda-tuprints-21650
License: Creative Commons: Attribution-Noncommercial-No Derivative Works 3.0
Referees: Mühlhäuser, Prof. Dr. Max and Malaka, Prof. Dr. Rainer
Refereed: 18 January 2010
URI: http://tuprints.ulb.tu-darmstadt.de/id/eprint/2165
Export:

Actions (login required)

View Item View Item