TU Darmstadt / ULB / TUprints

Task Recommendation in Crowdsourcing Platforms

Schnitzer, Steffen (2019)
Task Recommendation in Crowdsourcing Platforms.
Technische Universität Darmstadt
Ph.D. Thesis, Primary publication

[img]
Preview
Dissertation Steffen Schnitzer - Text
Dissertation_SteffenSchnitzer_published_20190312.pdf - Published Version
Copyright Information: CC BY-NC-ND 4.0 International - Creative Commons, Attribution NonCommercial, NoDerivs.

Download (2MB) | Preview
Item Type: Ph.D. Thesis
Type of entry: Primary publication
Title: Task Recommendation in Crowdsourcing Platforms
Language: English
Referees: Steinmetz, Prof. Dr. Ralf ; Rensing, PD Dr. Christoph
Date: 2019
Place of Publication: Darmstadt
Date of oral examination: 12 February 2019
Abstract:

Task distribution platforms, such as micro-task markets, project assignment portals, and job search engines, support the assignment of tasks to workers. Public crowdsourcing platforms support the assignment of tasks in micro-task markets to help task requesters to complete their tasks and allow workers to earn money. Enterprise crowdsourcing platforms provide a marketplace within enterprises for the internal placement of tasks from employers to employees. Most of both types of task distribution platforms rely on the workers' selection capabilities or provide simple filtering steps to reduce the number of tasks a worker can choose from. This self-selection mechanism unfortunately allows for tasks to be performed by under- or over-qualified workers. Supporting the workers by introducing a task recommender system helps to solve such deficits of existing task distributions.

In this thesis, the requirements towards task recommendation in task distribution platforms are gathered with a focus on the worker's perspective, the design of appropriate assignment strategies is described, and innovative methods to recommend tasks based on their textual descriptions are provided. Different viewpoints are taken into account by analyzing the domains of micro-tasks, project assignments, and job postings. The requirements of enterprise crowdsourcing platforms are compiled based on the literature and a qualitative study, providing a conceptual design of task assignment strategies. The demands of workers and their perception of task similarity on public crowdsourcing platforms are identified, leading to the design and implementation of additional methods to determine the similarity of micro-tasks. The textual descriptions of micro-tasks, projects, and job postings are analyzed in order to provide innovative methods for task recommendation in these domains.

Alternative Abstract:
Alternative AbstractLanguage

Aufgabenverteilungsplattformen im Internet, wie Jobsuchmaschinen, Projektzuordnungsportale und Marktplätze für Mikroaufgaben, bieten Dienste zur Zuweisung von Aufgaben an Personen. Viele öffentliche Crowdsourcing-Plattformen unterstützen die Vergabe von Mikroaufgaben, um Anfragestellern bei der Erledigung ihrer Aufgaben zu helfen und Arbeitern die Möglichkeit zu geben Geld zu verdienen. Enterprise Crowdsourcing-Plattformen bieten Marktplätze für eine unternehmensinterne Übertragung von Aufgaben vom Arbeitgeber an den Arbeitnehmer. Die meisten Aufgabenverteilungsplattformen verwenden eine manuelle Auswahl der Aufgaben durch den Arbeiter. Sie bieten oftmals einfache Filtermöglichkeiten, um die Anzahl der Aufgaben zu reduzieren, aus denen ein Arbeiter auswählen kann. Diese Form der manuellen Selbstauswahl von Aufgaben führt dazu, dass viele Aufgaben von unter- oder überqualifizierten Arbeitern ausgeführt werden. Die Einführung eines Aufgabenempfehlungssystems kann solche Defizite der Aufgabenverteilung reduzieren.

In dieser Arbeit werden die Anforderungen an die Aufgabenempfehlung in Aufgabenverteilungsplattformen mit einem Fokus auf die Perspektive des Arbeitnehmers gesammelt, das Design geeigneter Zuordnungsstrategien beschrieben, und innovative Methoden zur Empfehlung von Aufgaben auf der Grundlage ihrer textlichen Beschreibungen vorgestellt. Verschiedene Aspekte werden durch die Analyse dreier Formen von Aufgabenverteilungsplattformen berücksichtigt, nämlich Plattformen für Mikroaufgaben, Projektaufträge und Stellenausschreibungen. Die Anforderungen an Enterprise Crowdsourcing-Plattformen werden auf Basis der Literatur und einer qualitativen Studie gesammelt. Auf dieser Sammlung als Grundlage werden verschiedene Aufgabenzuordnungsstrategien konzipiert. Außerdem werden die Anforderungen der Arbeiter und ihr Verständnis einer Aufgabenähnlichkeit auf öffentlichen Crowdsourcing-Plattformen ermittelt, was die Entwicklung und Implementierung zusätzlicher Methoden zur Bestimmung der Ähnlichkeit von Mikroaufgaben motiviert. Die textlichen Beschreibungen von Mikroaufgaben, Projektaufträgen und Stellenausschreibungen werden analysiert, um innovative Methoden zur Aufgabenempfehlung in allen drei Formen von Aufgabenverteilungsplattformen realisieren zu können.

German
URN: urn:nbn:de:tuda-tuprints-85496
Classification DDC: 000 Generalities, computers, information > 004 Computer science
Divisions: 20 Department of Computer Science
Date Deposited: 08 Apr 2019 09:15
Last Modified: 09 Jul 2020 02:33
URI: https://tuprints.ulb.tu-darmstadt.de/id/eprint/8549
PPN: 447391259
Export:
Actions (login required)
View Item View Item