Logo des Repositoriums
  • English
  • Deutsch
Anmelden
Keine TU-ID? Klicken Sie hier für mehr Informationen.
  1. Startseite
  2. Publikationen
  3. Publikationen der Technischen Universität Darmstadt
  4. Erstveröffentlichungen
  5. Task Recommendation in Crowdsourcing Platforms
 
  • Details
2019
Erstveröffentlichung
Dissertation

Task Recommendation in Crowdsourcing Platforms

File(s)
Download
Hauptpublikation
Dissertation_SteffenSchnitzer_published_20190312.pdf
CC BY-NC-ND 4.0 International
Description: Dissertation Steffen Schnitzer
Format: Adobe PDF
Size: 2.43 MB
TUDa URI
tuda/4437
URN
urn:nbn:de:tuda-tuprints-85496
DOI
10.26083/tuprints-00008549
Autor:innen
Schnitzer, Steffen
Kurzbeschreibung (Abstract)

Task distribution platforms, such as micro-task markets, project assignment portals, and job search engines, support the assignment of tasks to workers. Public crowdsourcing platforms support the assignment of tasks in micro-task markets to help task requesters to complete their tasks and allow workers to earn money. Enterprise crowdsourcing platforms provide a marketplace within enterprises for the internal placement of tasks from employers to employees. Most of both types of task distribution platforms rely on the workers' selection capabilities or provide simple filtering steps to reduce the number of tasks a worker can choose from. This self-selection mechanism unfortunately allows for tasks to be performed by under- or over-qualified workers. Supporting the workers by introducing a task recommender system helps to solve such deficits of existing task distributions.

In this thesis, the requirements towards task recommendation in task distribution platforms are gathered with a focus on the worker's perspective, the design of appropriate assignment strategies is described, and innovative methods to recommend tasks based on their textual descriptions are provided. Different viewpoints are taken into account by analyzing the domains of micro-tasks, project assignments, and job postings. The requirements of enterprise crowdsourcing platforms are compiled based on the literature and a qualitative study, providing a conceptual design of task assignment strategies. The demands of workers and their perception of task similarity on public crowdsourcing platforms are identified, leading to the design and implementation of additional methods to determine the similarity of micro-tasks. The textual descriptions of micro-tasks, projects, and job postings are analyzed in order to provide innovative methods for task recommendation in these domains.

Sprache
Englisch
Alternativtitel
Aufgabenempfehlung in Crowdsourcingplattformen
Alternatives Abstract

Aufgabenverteilungsplattformen im Internet, wie Jobsuchmaschinen, Projektzuordnungsportale und Marktplätze für Mikroaufgaben, bieten Dienste zur Zuweisung von Aufgaben an Personen. Viele öffentliche Crowdsourcing-Plattformen unterstützen die Vergabe von Mikroaufgaben, um Anfragestellern bei der Erledigung ihrer Aufgaben zu helfen und Arbeitern die Möglichkeit zu geben Geld zu verdienen. Enterprise Crowdsourcing-Plattformen bieten Marktplätze für eine unternehmensinterne Übertragung von Aufgaben vom Arbeitgeber an den Arbeitnehmer. Die meisten Aufgabenverteilungsplattformen verwenden eine manuelle Auswahl der Aufgaben durch den Arbeiter. Sie bieten oftmals einfache Filtermöglichkeiten, um die Anzahl der Aufgaben zu reduzieren, aus denen ein Arbeiter auswählen kann. Diese Form der manuellen Selbstauswahl von Aufgaben führt dazu, dass viele Aufgaben von unter- oder überqualifizierten Arbeitern ausgeführt werden. Die Einführung eines Aufgabenempfehlungssystems kann solche Defizite der Aufgabenverteilung reduzieren.

In dieser Arbeit werden die Anforderungen an die Aufgabenempfehlung in Aufgabenverteilungsplattformen mit einem Fokus auf die Perspektive des Arbeitnehmers gesammelt, das Design geeigneter Zuordnungsstrategien beschrieben, und innovative Methoden zur Empfehlung von Aufgaben auf der Grundlage ihrer textlichen Beschreibungen vorgestellt. Verschiedene Aspekte werden durch die Analyse dreier Formen von Aufgabenverteilungsplattformen berücksichtigt, nämlich Plattformen für Mikroaufgaben, Projektaufträge und Stellenausschreibungen. Die Anforderungen an Enterprise Crowdsourcing-Plattformen werden auf Basis der Literatur und einer qualitativen Studie gesammelt. Auf dieser Sammlung als Grundlage werden verschiedene Aufgabenzuordnungsstrategien konzipiert. Außerdem werden die Anforderungen der Arbeiter und ihr Verständnis einer Aufgabenähnlichkeit auf öffentlichen Crowdsourcing-Plattformen ermittelt, was die Entwicklung und Implementierung zusätzlicher Methoden zur Bestimmung der Ähnlichkeit von Mikroaufgaben motiviert. Die textlichen Beschreibungen von Mikroaufgaben, Projektaufträgen und Stellenausschreibungen werden analysiert, um innovative Methoden zur Aufgabenempfehlung in allen drei Formen von Aufgabenverteilungsplattformen realisieren zu können.

Fachbereich/-gebiet
20 Fachbereich Informatik
DDC
000 Allgemeines, Informatik, Informationswissenschaft > 004 Informatik
Institution
Technische Universität Darmstadt
Ort
Darmstadt
Datum der mündlichen Prüfung
12.02.2019
Gutachter:innen
Steinmetz, RalfORCID 0000-0002-6839-9359
Rensing, Christoph
Handelt es sich um eine kumulative Dissertation?
Nein
Name der Gradverleihenden Institution
Technische Universität Darmstadt
Ort der Gradverleihenden Institution
Darmstadt
PPN
447391259

  • TUprints Leitlinien
  • Cookie-Einstellungen
  • Impressum
  • Datenschutzbestimmungen
  • Webseitenanalyse
Diese Webseite wird von der Universitäts- und Landesbibliothek Darmstadt (ULB) betrieben.