Im Ubiquitous-Computing-Umfeld ist Audio eine wesentliche Komponente bei der Gestaltung der Mensch-Maschine-Schnittstelle. Die Eigenschaften des Mediums ermöglichen eine Interaktion ohne Zuhilfenahme der Hände (hands-free) und ohne den Blick von der Haupttätigkeit abzuwenden (eyes-free). Daneben müssen auch die grafischen Möglichkeiten der tragbaren Geräte nicht ausgelotet werden, um die aktuelle Ausgabe an diese Fähigkeiten anzupassen. Da der Mensch jedoch hauptsächlich visuell ausgerichtet ist, bringt die Gestaltung von audiobasierten Schnittstellen eine Reihe von Herausforderungen mit sich. Dennoch werden die Vorteile des Audiokanals in den meisten Arbeiten im Bereich Ubiquitous Computing als solche erkannt. Die damit einher gehenden Einschränkungen werden jedoch häufig gänzlich ignoriert. Autoren, die die technischen Beschränkungen audiobasierter Schnittstellen erkennen, suchen oft eine Lösung durch das Hinzuziehen weiterer Modalitäten, vorzugsweise visueller Art. In dieser Arbeit werden die Herausforderungen unter Berücksichtigung kognitiven Fähigkeiten von Benutzern rein audiobasierter Anwendungen systematisch analysiert und Möglichkeiten zu ihrer Bewältigung mit Hilfe von Design Patterns aufgezeigt. Für die mobile Benutzerin ergibt sich zudem die Problematik, dass mobile Geräte nicht über das Leistungspotenzial, insbesondere in Bezug auf Rechenleistung und Speicherkapazität, wie Desktop PCs verfügen, die die Verwendung von Standardsoftware zur Spracherkennung und Sprachsynthese erst ermöglicht. Sprachsoftware, die auf den tragbaren Geräten läuft, verfügt deswegen nicht über die Leistungsfähigkeit der Standardsoftware. Streamingtechnologien hingegen nutzen höherwertige Sprachsoftware auf dem Server auf Kosten von Netzabhängigkeiten. In dieser Arbeit wird ein neuer Ansatz vorgestellt, der beide Welten miteinander verbindet. Um die Benutzerin effizient unterstützen zu können, werden Kontextinformationen, insbesondere der Aufenthaltsort der Benutzerin, genutzt. Diese werden zum einen aus der aktuellen Umgebung der Benutzerin gewonnen und zum anderen aus dem Kontext der zu erledigenden Aufgabe. Eine standardisierte Form zur Speicherung und zur Ablaufsteuerung dieser Aufgaben ist in Form von Prozessen einer Workflow Engine gegeben. Zudem haben Workflow Engines den Vorteil, dass sie auf einen durchgängigen Datenfluss, der immer zu einem Prozess gehört, Wert legen. Erste Ansätze zur Nutzung von Kontextinformationen in Workflow Engines existieren, es fehlt jedoch ein wiederverwertbares Konzept. In dieser Arbeit wird ein solches Konzept vorgestellt. Die Beschreibung des Prozesses in der Workflow Engine wird Modalitäten unabhängig gehalten, um so Widerverwendbarkeit zu erreichen. Eine Modalitäten abhängige Konkretisierung des aktuellen Prozessschrittes wird außerhalb der Workflow Engine in einem Metaformat gespeichert. Mit Hilfe eines Codegenerators wird hieraus die verwendete Benutzungsschnittstelle zur Laufzeit erzeugt. Bisherige Konzepte haben hier weder eine solche Trennung vorgesehen, noch den Datenfluss aktiv unterstützt. Arbeitet eine Benutzerin an mehreren Prozessen gleichzeitig, so muss sie bei der Wiederaufnahme eines Prozesses aktiv unterstützt werden, um effizient weiter arbeiten zu können, was durch die speziellen Eigenschaften des auditiven Mediums erschwert wird. In dieser Arbeit wird erstmalig ein Konzept zur aktiven Unterstützung dieser Wiedereinführung in den Aufgabenkontext präsentiert. | German |