Efficient Stream Analysis and its Application to Big Data Processing

L analyse de flux de données est utilisée dans beaucoup de contexte où la masse des données et/ou le débit auquel elles sont générées, excluent d autres approches (par exemple le traitement par lots). Le modèle flux fourni des solutions aléatoires et/ou fondées sur des approximations pour calculer d...

Description complète

Enregistré dans:
Détails bibliographiques
Auteurs principaux : Rivetti di Val Cervo Nicolo (Auteur), Mostefaoui Achour (Directeur de thèse), Busnel Yann (Directeur de thèse), Querzoni Leonardo (Directeur de thèse), Baldoni Roberto (Président du jury de soutenance), Cormode Graham (Rapporteur de la thèse), Steen Maarten van (Rapporteur de la thèse), Maabout Sofian (Membre du jury), Magnien Clémence (Membre du jury)
Collectivités auteurs : Université de Nantes 1962-2021 (Organisme de soutenance), Università degli studi La Sapienza Rome (Organisme de cotutelle), École doctorale Sciences et technologies de l'information et mathématiques Nantes (Ecole doctorale associée à la thèse), Laboratoire d Informatique de Nantes Atlantique (UMR 6241) Nantes (Laboratoire associé à la thèse), Université Bretagne Loire 2016-2019 (Autre partenaire associé à la thèse)
Format : Thèse ou mémoire
Langue : anglais
Titre complet : Efficient Stream Analysis and its Application to Big Data Processing / Nicolo Rivetti di Val Cervo; sous la direction de Achour Mostefaoui et de Yann Busnel et de Leonardo Querzoni
Publié : 2016
Accès en ligne : Accès Nantes Université
Note sur l'URL : Accès au texte intégral
Note de thèse : Thèse de doctorat : Informatique et applications : Nantes : 2016
Thèse de doctorat : Informatique et applications : Università degli studi La Sapienza (Rome) : 2016
Sujets :
Description
Résumé : L analyse de flux de données est utilisée dans beaucoup de contexte où la masse des données et/ou le débit auquel elles sont générées, excluent d autres approches (par exemple le traitement par lots). Le modèle flux fourni des solutions aléatoires et/ou fondées sur des approximations pour calculer des fonctions d intérêt sur des flux (repartis) de n-uplets, en considérant le pire cas, et en essayant de minimiser l utilisation des ressources. En particulier, nous nous intéressons à deux problèmes classiques : l estimation de fréquence et les poids lourds. Un champ d application moins courant est le traitement de flux qui est d une certaine façon un champ complémentaire aux modèle flux. Celui-ci fournis des systèmes pour effectuer des calculs génériques sur les flux en temps réel souple, qui passent à l échèle. Cette dualité nous permet d appliquer des solutions du modèle flux pour optimiser des systèmes de traitement de flux. Dans cette thèse, nous proposons un nouvel algorithme pour la détection d éléments surabondants dans des flux repartis, ainsi que deux extensions d un algorithme classique pour l estimation des fréquences des items. Nous nous intéressons également à deux problèmes : construire un partitionnement équitable de l univers des n-uplets par rapport à leurs poids et l estimation des valeurs de ces n-uplets. Nous utilisons ces algorithmes pour équilibrer et/ou délester la charge dans les systèmes de traitement de flux.
Nowadays stream analysis is used in many context where the amount of data and/or the rate at which it is generated rules out other approaches (e.g., batch processing). The data streaming model provides randomized and/or approximated solutions to compute specific functions over (distributed) stream(s) of data-items in worst case scenarios, while striving for small resources usage. In particular, we look into two classical and related data streaming problems: frequency estimation and (distributed) heavy hitters. A less common field of application is stream processing which is somehow complementary and more practical, providing efficient and highly scalable frameworks to perform soft real-time generic computation on streams, relying on cloud computing. This duality allows us to apply data streaming solutions to optimize stream processing systems. In this thesis, we provide a novel algorithm to track heavy hitters in distributed streams and two extensions of a well-known algorithm to estimate the frequencies of data items. We also tackle two related problems and their solution: provide even partitioning of the item universe based on their weights and provide an estimation of the values carried by the items of the stream. We then apply these results to both network monitoring and stream processing. In particular, we leverage these solutions to perform load shedding as well as to load balance parallelized operators in stream processing systems.
Variantes de titre : Analyse efficace de flux de données et applications au traitement des grandes masses de données
Notes : Thèse soutenue en co-tutelle
Titre provenant de l'écran-titre
Ecole(s) Doctorale(s) : École doctorale Sciences et technologies de l'information et mathématiques (Nantes)
Partenaire(s) de recherche : Laboratoire d Informatique de Nantes Atlantique (UMR 6241) (Nantes) (Laboratoire), Université Bretagne Loire (COMUE)
Autre(s) contribution(s) : Roberto Baldoni (Président du jury) ; Sofian Maabout, Clémence Magnien (Membre(s) du jury) ; Graham Cormode, Maarten van Steen (Rapporteur(s))
Configuration requise : Configuration requise : un logiciel capable de lire un fichier au format : PDF