Difference between revisions of "VT2019 Hadoop MapReduce"

From air
Jump to navigation Jump to search
Line 6: Line 6:
   
 
=Le Framework Hadoop=
 
=Le Framework Hadoop=
A ses débuts, le framework hadoop a été conçu pour remplacer les algorithmes d'indexage de google. Aujourd'hui il est devenu un véritable outil pour traiter une grande quantité de donnée non structurée de manière distribuée. Voici une figure qui montre les modules de base [[File:hadoop.jpg]]
+
A ses débuts, le framework hadoop a été conçu pour remplacer les algorithmes d'indexage de google. Aujourd'hui il est devenu un véritable outil pour traiter une grande quantité de donnée non structurée de manière distribuée. Voici une figure qui montre les modules de base [[File:Hadoop.png]]
   
 
=Fonctionnement=
 
=Fonctionnement=

Revision as of 16:34, 8 December 2019

Hadoop, dont la première version est apparue en 2006, est une technologie très utilisée aujourd'hui dans le domaine du big data. C'est un framework qui regroupe plusieurs modules qui sont : Hadoop Common, Hadoop Distributed File System, Hadoop Yarn, et Hadoop MapReduce. Pour cet VT2019, nous allons surtout nous intéresser à ce dernier module qui est MapReduce. Cependant il reste dependant d'autres module d'hadoop (en l'occurence HDFS), par conséquent nous allons toutefois faire une brève description d'hadoop en général

Logo.jpg


Abstract

Hadoop, whose first version appeared in 2006, is a technology widely used today in the field of big data. It is a framework that groups several modules that are: Hadoop Common, Hadoop Distributed File System, Hadoop Yarn, and Hadoop MapReduce. For this VT2019, we will focus on this last module which is MapReduce

Le Framework Hadoop

A ses débuts, le framework hadoop a été conçu pour remplacer les algorithmes d'indexage de google. Aujourd'hui il est devenu un véritable outil pour traiter une grande quantité de donnée non structurée de manière distribuée. Voici une figure qui montre les modules de base Hadoop.png

Fonctionnement

Les rôles

Voici les principaux acteurs que nous pouvons retrouver dans les algorithmes de MapReduce:

  • User: qui s’exécute sur une machine client, est responsable d’initialiser le job puis de le soumettre pour exécution.
  • Master : est responsable de mapreduce, il affecte les travaux.
  • Worker: est la machine qui fait les tâche map et reduce.

L'exécution

L'execution d'un algorithme de MapReduce


Cas d'utilisations

La réalité augmentée est utilisée aujourd'hui dans de nombreux domaines, notamment à des fins professionnelles.