Motivation: In der Vision des allgegenwärtigen Rechnens (engl. ubiquitous computing) wird der Mensch bei nahezu allen Tätigkeiten durch eine Vielzahl von Computern unterstützt. Hierfür ist eine nahtlose Zusammenarbeit aller Geräte der intelligenten Rechenumgebung nötig, welche auch neue Mechanismen zur Auswahl vertrauenswürdiger Interaktionspartner erfordert. Ziel: In dieser Arbeit wird ein neuer Ansatz vorgestellt, um Entitäten, bspw. Nutzer oder deren Endgeräte, bei der Auswahl vertrauenswürdiger Interaktionspartner zu unterstützen. Das Ziel dieses Ansatzes ist es, die Vertrauenswürdigkeit potentieller Interaktionspartner möglichst gut zu schätzen. Durch die Auswahl vertrauenswürdiger Interaktionspartner soll die Zahl zufriedenstellender Interaktionen einer Entität erhöht werden. Ansatz: In dieser Arbeit wird das Vertrauen in einen Interaktionspartner vor allem aus den bisherigen Erfahrungen aus vorangegangen Interaktionen, bzw. genauer gesagt, aus den davon abgeleiteten Hinweisen, ermittelt. Hierzu wird auf sogenannten Bayes'schen Vertrauensmodellen aufgebaut, die aus der Literatur bekannt sind. Diese werden in mehrerlei Hinsicht erweitert: (i) um die Charakteristika des Anwendungskontextes, d.h. der Interaktionsdomäne, besser im Modell abzubilden; (ii) um den Nutzern einen intuitiveren Zugang zum Modell zu ermöglichen; und (iii) um Wissen Dritter besser einzubeziehen. Der letztgenannte Punkt ist wesentlich, da in vielen Situationen kein oder nur unzureichendes Wissen über potentielle Interaktionspartner vorliegt, welches direkt aus den Erfahrungen aus vorangegangenen Interaktionen abgleitet werden kann. Im vorgestellten Ansatz werden neue Mechanismen entwickelt, um Wissen Dritter – sogenannte Empfehlungen - robust, d.h. unter Berücksichtigung möglicher Angriffe, zu integrieren. Wissenschaftlicher Beitrag: Der wissenschaftliche Beitrag dieser Arbeit kann wie folgt zusammengefasst werden: Der entwickelte Ansatz erweitert Bayes'sche Vertrauensmodelle, um anwendungskontextabhängige Parameter wie bspw. das Grundvertrauen und das Altern von Hinweisen besser zu berücksichtigen. Insbesondere erlaubt es der Parameter maximale Anzahl erwarteter Hinweise festzulegen, wie viele Hinweise erwartet werden, um sie als repräsentativ für das Verhalten eines Interaktionspartners innerhalb des vorher festgelegten Anwendungskontextes anzusehen. Dies ist ermöglicht das Berücksichtigen von Nutzerpräferenzen, wie auch eine Wahl dieses Parameters in Abhängigkeit vom Altern von Hinweisen. Darüberhinaus kann im entwickelten Modell das Grundvertrauen in Abhängigkeit von den Präferenzen des Nutzers gewählt oder aus dem Verhalten früherer Interaktionspartner innerhalb des betrachteten Anwendungskontextes abgeleitet werden. Im Rahmen dieser Arbeit wird zudem gezeigt, dass mit dem vorgestellten Ansatz Beschränkungen gegenwärtiger Vertrauensmodelle überwunden werden können, die sich bei der Berücksichtigung des Alters der gesammelten Hinweise ergeben. Es wird u.a. gezeigt, dass in bisherigen Arbeiten die Berücksichtigung des Alters von Hinweisen dazu führt, dass entweder der Vertrauenswert einer Entität bei Nichtaufkommen weiterer Hinweise unverändert bleibt oder der tatsächlich erreichbare Wertebereich des Vertrauenswertes eingeschränkt wird. Eine zweite, vereinfachte Repräsentation wird eingeführt, um die wesentlichen Modellparameter dem Nutzer intuitiver darzustellen, als dies im Rahmen bekannter Bayes'scher Vertrauensmodelle möglich ist. Diese Repräsentation ist auch die Grundlage für eine neue graphisch Darstellung, welche dem Nutzer die Interpretation der Vertrauenswerte und die Anpassung einstellbarer Parameter erleichtert. Da das entwickelte Modell zwei Repräsentationen der Vertrauenswürdigkeit einer Entität besitzt, wird eine Abbildung zwischen beiden definiert. Erst diese Abbildung macht es möglich, dass Nutzer und Entwickler von Vertrauensmodellen die Vorzüge beider Darstellungen simultan nutzen können. Für die Aggregation von direkten Hinweisen sowie Empfehlungen wird ein neuer Ansatz vorgeschlagen, welcher insbesondere die Robustheit gegenüber sogenannten Sybil-Angriffen (engl. Sybil attacks) verbessert. Dabei versucht der Angreifer, durch Aufbieten einer Vielzahl scheinbar unabhängiger Entitäten, gezielt die Auswahl eines Interaktionspartners zu beeinflussen. Die Verbesserung wird erreicht, indem bei der Gewichtung von Empfehlungen nicht nur die Richtigkeit früherer Empfehlungen, sondern auch der sogenannte Rang des Empfehlenden, d.h. dessen Einordnung in der Gruppe der Empfehlenden, berücksichtigt wird. Dies ermöglicht es unter bestimmten Bedingungen, den maximalen Einfluss einer potentiell unendlich großen Gruppe von Empfehlenden zu beschränken. Evaluation: Das entwickelte Vertrauensmodell wurde einerseits in zwei Nutzerstudien evaluiert, welche die Hypothese unterstützen, dass Nutzer intuitiv mit der entwickelten graphischen Darstellung umgehen können. Andererseits zeigt die Evaluation des Vertrauensmodelles in einer Simulation, dass sich mit dem Vertrauensmodell gute Ergebnisse hinsichtlich der Schätzung der Vertrauenswürdigkeit einer Entität und hinsichtlich der erreichten durchschnittlichen Qualität der Interaktionen erzielen lassen. Dies ergibt sich aus dem Vergleich zu konkurrierenden Ansätzen wie auch im Vergleich zum einem künstlichen Modell, welches die Systemvariablen der Simulationsumgebung kennt, und deshalb als sogenanntes perfektes Modell dient. Die Simulation zeigt die Ergebnisse der verschiedenen Ansätze für 15 Populationen, welche kanonisch aus dem Systemmodel abgeleitet wurden und sich hinsichtlich des typischen Verhaltens ihrer Entitäten unterscheiden. | German |