TU Darmstadt / ULB / TUprints

Quality-aware Content Adaptation in Digital Video Streaming

Wilk, Stefan :
Quality-aware Content Adaptation in Digital Video Streaming.
Technische Universität, Darmstadt
[Ph.D. Thesis], (2016)

[img]
Preview
Text
main.pdf - Accepted Version
Available under Only rights of use according to UrhG.

Download (26MB) | Preview
Item Type: Ph.D. Thesis
Title: Quality-aware Content Adaptation in Digital Video Streaming
Language: English
Abstract:

User-generated video has attracted a lot of attention due to the success of Video Sharing Sites such as YouTube and Online Social Networks. Recently, a shift towards live consumption of these videos is observable. The content is captured and instantly shared over the Internet using smart mobile devices such as smartphones. Large-scale platforms arise such as YouTube.Live, YouNow or Facebook.Live which enable the smartphones of users to livestream to the public. These platforms achieve the distribution of tens of thousands of low resolution videos to remote viewers in parallel. Nonetheless, the providers are not capable to guarantee an efficient collection and distribution of high-quality video streams. As a result, the user experience is often degraded, and the needed infrastructure installments are huge. Efficient methods are required to cope with the increasing demand for these video streams; and an understanding is needed how to capture, process and distribute the videos to guarantee a high-quality experience for viewers. This thesis addresses the quality awareness of user-generated videos by leveraging the concept of content adaptation. Two types of content adaptation, the adaptive video streaming and the video composition, are discussed in this thesis. Then, a novel approach for the given scenario of a live upload from mobile devices, the processing of video streams and their distribution is presented. This thesis demonstrates that content adaptation applied to each step of this scenario, ranging from the upload to the consumption, can significantly improve the quality for the viewer. At the same time, if content adaptation is planned wisely, the data traffic can be reduced while keeping the quality for the viewers high. The first contribution of this thesis is a better understanding of the perceived quality in user-generated video and its influencing factors. Subjective studies are performed to understand what affects the human perception, leading to the first of their kind quality models. Developed quality models are used for the second contribution of this work: novel quality assessment algorithms. A unique attribute of these algorithms is the usage of multiple features from different sensors. Whereas classical video quality assessment algorithms focus on the visual information, the proposed algorithms reduce the runtime by an order of magnitude when using data from other sensors in video capturing devices. Still, the scalability for quality assessment is limited by executing algorithms on a single server. This is solved with the proposed placement and selection component. It allows the distribution of quality assessment tasks to mobile devices and thus increases the scalability of existing approaches by up to 33.71% when using the resources of only 15 mobile devices. These three contributions are required to provide a real-time understanding of the perceived quality of the video streams produced on mobile devices. The upload of video streams is the fourth contribution of this work. It relies on content and mechanism adaptation. The thesis introduces the first prototypically evaluated adaptive video upload protocol (LiViU) which transcodes multiple video representations in real-time and copes with changing network conditions. In addition, a mechanism adaptation is integrated into LiViU to react to changing application scenarios such as streaming high-quality videos to remote viewers or distributing video with a minimal delay to close-by recipients. A second type of content adaptation is discussed in the fifth contribution of this work. An automatic video composition application is presented which enables live composition from multiple user-generated video streams. The proposed application is the first of its kind, allowing the in-time composition of high-quality video streams by inspecting the quality of individual video streams, recording locations and cinematographic rules. As a last contribution, the content-aware adaptive distribution of video streams to mobile devices is introduced by the Video Adaptation Service (VAS). The VAS analyzes the video content streamed to understand which adaptations are most beneficial for a viewer. It maximizes the perceived quality for each video stream individually and at the same time tries to produce as little data traffic as possible - achieving data traffic reduction of more than 80%.

Alternative Abstract:
Alternative AbstractLanguage
Videoportale wie YouTube oder soziale Netzwerke wie Facebook verhalfen nutzergenerierten Videos zu einem enormen Erfolg. Zuletzt veränderte sich jedoch das Produktionsverhalten hin zu einer echtzeitnahen Verbreitung als Live-Videostrom. Dies ist möglich, da Mobilgeräte in der Lage sind aufgenommene Inhalte instantan an entfernte Betrachter zu verteilen. Heute müssen große Anbieter wie YouTube.Live, YouNow oder Facebook.Live jene Videoströme an zehntausende Betrachter gleichzeitig verteilen. Dies erreichen sie nur für geringe Bitraten und Auflösungen. Jene Anbieter sind noch nicht in der Lage die Videoströme hochqualitativ und effizient zu sammeln, zu verarbeiten und zu verteilen. Ein Ergebnis hiervon ist eine vergleichsweise geringe, wahrgenommene Qualität. Effiziente Methoden werden erforderlich, da die aktuellen Kommunikationsnetze mit zunehmender Nutzung der Dienste überlastet sind. In dieser Thesis wird das Konzept der Inhaltsadaption als eine Lösung zur effizienten und qualitätssensitiven Sammlung, Verarbeitung und Verteilung nutzergenerierter Videoströme diskutiert. Zwei Formen der Inhaltsadaption sind hierbei im Fokus der Arbeit: adaptives Videostreaming und Videokomposition. Beide Konzepte werden an verschiedenen Stellen des Videoproduktions- und Videoverteilungsprozesses angesiedelt um die wahrgenommene Qualität der Videoströme zu verbessern und den verursachten Datenverkehr zu verringern. Dabei werden die Adaptionen stets wohlüberlegt und geleitet durch die für den Betrachter eines Videostroms wahrnehmbare Qualität gesteuert. Der erste Beitrag dieser Thesis ist ein besseres Verständnis was wahrgenommene Qualität bei nutzergenerierten Videos bedeutet und welche Faktoren diese beeinflussen. Hierfür werden in Nutzerstudien Qualitätsmodelle erstellt, die in dieser Form einzigartig sind. Jene Qualitätsmodelle erlauben den Entwurf neuartiger Qualitätsberechnungsalgorithmen. Gleichzeitig nutzen jene Algorithmen nicht ausschließlich visuelle Daten zur Berechnung, sondern vor allem Kontextinformationen. Dies ermöglicht eine signifikante Beschleunigung der Verarbeitung und damit eine für Live-Videoströme notwendige echtzeitnahe Berechnung der Qualität ermöglicht. Der dritte Beitrag dieser Thesis ist eine Komponente zur Erhöhung der Skalierbarkeit der Qualitätsberechnung durch die Nutzung von stationären und mobilen Rechenkapazitäten. Jene Selektions- und Platzierungskomponente erlaubt die Bestimmung des besten Qualitätsberechnungsalgorithmus und dessen Ausführungslokation. Hierbei wird eine Erhöhung der Skalierbarkeit um bis zu einem Drittel erreicht, wenn die Ressourcen von 15 mobilen Endgeräten genutzt werden. Jene drei Beiträge erlauben die für die restliche Arbeit so wichtige echtzeitnahe Qualitätsberechnung. Die Bereitstellung der Videoströme ist der vierte Beitrag dieser Arbeit. Jene Bereitstellung nutzt Inhaltsadaption um sich an verändernde Netzwerkbedingungen anzupassen und ferner Applikationsanforderungen oder Szenarienwechsel zu ermöglichen. Hierbei wird eine Form der Inhaltsadaption gewählt, die es auf Mobilgeräten ermöglicht verschiedene Repräsentationen desselben Videos zu enkodieren und in Echtzeit zwischen diesen zu wechseln. Hiermit kann zum einen eine echtzeitnahe Bereitstellung von Videoinhalten ermöglicht werden, aber auch ein hochqualitativer Videostrom mit größerer Latenz an entfernte Nutzer verteilt werden. Die zweite Form und damit der fünfte Beitrag dieser Thesis ist die Videokomposition. Hierzu wird ein neuartiger, automatischer Videokompositionsalgorithmus für nutzergenerierte Live-Videoströme vorgeschlagen, der Kompositionsregeln von manueller Komposition lernt. Der vorgeschlagene Algorithmus ist der erste seiner Art, der echtzeitnahen Komposition einer Vielzahl an Videoströmen erlaubt und dabei Kriterien wie Videoqualität, -inhalt und kinematographische Regeln beachtet. Der letzte Beitrag dieser Arbeit adressiert die Verteilung von Videoströmen durch den Einsatz einer inhaltsabhängigen, adaptiven Videoverteilung. Das vorgeschlagene System untersucht die zu verteilenden Videoinhalte hinsichtlich ihrer verschiedenen Repräsentationen und schlägt Adaptionen vor, die vorteilhaft für den Nutzer sind. Dabei zielt das System auf eine hohe, wahrgenommene Qualität bei gleichzeitiger Datenverkehrsreduktion ab. Das System erlaubt eine Datenverkehrsreduktion von über 80%.German
Place of Publication: Darmstadt
Classification DDC: 000 Allgemeines, Informatik, Informationswissenschaft > 004 Informatik
Divisions: 20 Department of Computer Science
20 Department of Computer Science > Distributed Multimedia Systems
DFG-Collaborative Research Centres (incl. Transregio) > Collaborative Research Centres > CRC 1053: MAKI – Multi-Mechanisms Adaptation for the Future Internet > C: Communication Mechanisms > Subproject C03: Content-centred perspective
Date Deposited: 12 Dec 2016 13:47
Last Modified: 12 Dec 2016 13:47
URN: urn:nbn:de:tuda-tuprints-58190
Referees: Effelsberg, Prof. Dr. Wolfgang and Mühlhäuser, Prof. Dr. Max and Zimmermann, Prof. Dr. Roger
Refereed: 7 December 2016
URI: http://tuprints.ulb.tu-darmstadt.de/id/eprint/5819
Export:
Actions (login required)
View Item View Item

Downloads

Downloads per month over past year