Accueil
Hadoop - Quel est ce Framework de stockage de données ?

Hadoop - Quel est ce Framework de stockage de données ?

Intéressé par les formations de Jedha ?
Voir le syllabus de Jedha
Nos derniers articles !

Hadoop est un framework Java open source utilisé pour le stockage et le traitement de gros volumes de données ou Big Data. Il vient en remplacement des bases de données relationnelles utilisées par les entreprises pour la sauvegarde de leurs données. Celles-ci se sont en effet révélées inadaptées pour le stockage des données non structurées. De plus, on assiste actuellement à une véritable explosion du volume des données du Big Data que les bases de données relationnelles ne peuvent malheureusement pas gérer, à l'inverse de NoSQL par exemple. Les ingénieurs s'évertuent alors à développer des systèmes de plus en plus efficaces pour gérer des masses de données qui peuvent atteindre plusieurs Petabytes voire exabytes. Hadoop, le framework Java est une solution taillée sur mesure pour répondre à ces contraintes.

Qu'est-ce que Hadoop ?

Hadoop est un framework logiciel open source dédié au stockage et au traitement de grands volumes de données. Ce projet qui fait partie du projet Apache sponsorisé par l'Apache Software Foundation permet de procéder à une forme de taylorisation du travail. Autrement dit, il assure le déploiement des traitements sur l'intégralité des nœuds d'un cluster. Le framework Hadoop regroupe les instructions pour le stockage et le traitement des données distribuées. De nombreux produits de gestion Big Data ont été créés à partir d'Hadoop par des éditeurs de logiciels.

Le projet open source Hadoop a été créé par le développeur Doug Cutting en 2006. Il se base sur l'algorithme MapReduce de Google. L'idée lui est venue deux ans plus tôt en 2004 lorsqu'il s'est rendu compte du potentiel de MapReduce. Google annonçait en effet que cet algorithme était en mesure d'assurer le traitement en parallèle de larges volumes de données par différents clusters d'ordinateurs. En 2008, Hadoop est devenu le projet principal de l'Apache Software Foundation, une communauté mondiale de contributeurs et de développeurs de logiciels. Le projet Hadoop est largement utilisé même par de grands noms de l'univers Tech. C'est notamment le cas de Microsoft dont le service Azur basé sur le Cloud est intégré dans Hadoop. IBM n'est pas non plus en reste puisque InfoSphere Biginsights se base également sur le projet d'Apache.

Comment fonctionne Hadoop ?

Hadoop, la solution Big Data par excellence est considérée comme un entrepôt de données disponibles pour le traitement d'importants volumes de données. Les frameworks d'Hadoop sont également nommés NoSQL pour Not Only SQL. Le traitement du Big Data proposé par Hadoop se base sur l'utilisation de la capacité de stockage et de traitement distribué des clusters. Cela permet la création d'applications Big Data. Celles-ci peuvent se charger de la collecte de données de différents formats et de les stocker dans le cluster Hadoop via une API qui se connecte au NameNode.

Pour une meilleure compréhension du fonctionnement d'Hadoop, il est important de s'attarder sur sa structure. On distingue tout d'abord le noyau ou Core Hadoop puis les multiples extensions qui représentent différents outils de l'écosystème Hadoop. Elles permettent au framework Hadoop d'être efficace dans le traitement d'importants volumes de données.

Le noyau ou Core Hadoop

Le noyau ou Core Hadoop représente la base de l'écosystème de Hadoop. Il renferme ses principales fonctionnalités pour le traitement des données. On y retrouve quatre principaux modules à savoir le Hadoop Common, le Hadoop Distributed File System (HDFS), le MapReduce Engine et le YARN (Yet Another Resource Negotiator).

Hadoop Common

Hadoop Common est un module qui dispose d'une large palette de fonctions de base. Cela inclut notamment les données d'archives Java (JAR) qui sont nécessaires pour démarrer Hadoop. Les composants Hadoop Common permettent de gérer des systèmes de fichiers distribués. Bon nombre de modules se basent sur Hadoop Common qui se sert des bibliothèques Java standards entre chaque module.

Hadoop Distributed File System

Hadoop Distributed File System (HDFS) est utilisé pour le stockage d'importantes quantités de données ou data dans un cluster d'ordinateurs en charge de la maintenance des données. Il est comparable à un système de fichier local sur un ordinateur classique. Cependant, ses performances sont largement supérieures. Le HDFS fait montre d'une excellente élasticité. De ce fait, le passage d'une machine à plusieurs milliers se fait facilement. Avec le traitement des données de HDFS, la longueur des blocs de données et leur degré de redondance sont configurables.

Le MapReduce Engine

Le module Hadoop MapReduce Engine implémenté dans la version 1 du framework Hadoop est l'algorithme de Google. Son rôle est de gérer les ressources et de guider le processus de calcul. La tâche Map se charge de convertir les données en paires clés valeurs. La tâche Reduce, quant à elle, consomme les données d'entrée, les agrège puis produit le résultat. Le fonctionnement combiné des phases Map et Reduce permet aux fichiers de données d'être travaillés directement sur leur lieu de stockage. De quoi réduire le temps de calcul et minimiser la consommation excessive de la bande passante du réseau.

YARN

Le YARN ou MapReduce 2.0 est un négociateur de ressources qui permettent de panifier les tâches, de surveiller les nœuds de clusters et de gérer les ressources. Le module YARN joue le rôle d'un système opérationnel réparti afin de gérer les ressources pour les applications Hadoop Big Data. Il possède trois nouvelles entités à savoir : le ResourceManager, le NodeManager et l'ApplicationMaster.

Les composants optionnels d'Hadoop

L'écosystème Hadoop en plus de ses éléments de base regroupe également un grand nombre d'outils Big Data. Ces outils permettent d'améliorer la capacité de traitement Big Data. Parmi ces composants d'extension optionnels, on peut notamment citer Apache Hive, Apache Pig, Apache Flume, HBase, Apache Ambari, Apache Avro…

Pig Hadoop

Pig Hadoop est un outil d'analyse et de traitement des données stockées qui se base sur des scripts. Cet environnement d'exécution de flux interactifs Pig se compose de deux éléments : un langage d'expression de flux de données connu sous le nom de Pig Latin et un environnement interactif d'exécution de ces mêmes flux.

Les utilisateurs d'Apache Pig peuvent se servir du langage de programmation élaboré Pig Latin qui permet de décrire de manière abstraite le flux de données des jobs MapReduce. Il partage de grandes similarités aux langages de scripting comme Perl et Ruby. Il est toutefois bien plus spécifique que ceux-ci et permet notamment d'écrire des requêtes sous forme de flux séquentiels. Pig latin à l'origine a été développé par Yahoo. À l'instar des cochons qui sont omnivores, Apache Pig a été programmé de façon à travailler avec tous les types de données.

Apache Hive

Apache Hive permet à Hadoop de proposer une base de données centrale qui a été optimisée pour les analyses. Développé par Facebook, ce logiciel se base sur le framework MapReduce. Avec HiveQL, la syntaxe proposée par Hive s'apparente à celle de SQL avec laquelle on consulte les données sauvegardées en HDFS. C'est d'ailleurs pour cela qu'Apache Hive se charge de la traduction automatique des requêtes semblables à SQL dans les jobs MapReduce.

Quelle est son utilité ?

Hadoop offre de nombreux cas d'utilisation. Le plus évident est le traitement de grands volumes de données. Ce framework peut en effet gérer des volumes de données de plusieurs petabytes. Un autre cas d'utilisation de Hadoop est le stockage d'une grande diversité de données. Cela inclut des images, des vidéos, des textes… Enfin, Hadoop a également fait ses preuves dans le traitement parallèle des données. Cela est rendu possible par l'algorithme MapReduce qui permet le traitement parallèle des données stockées.

Hadoop est utilisé par les entreprises de tous les secteurs. Ce framework leur permet par exemple de mieux cerner les besoins et les attentes de leurs clients. Elles peuvent alors proposer à partir de ses données des offres personnalisées. Dans le domaine de la santé, les institutions se servent également d'Hadoop pour la surveillance des larges volumes de données générées. Les chercheurs les analysent ensuite pour identifier et sélectionner des traitements adéquats à leurs patients.

Avantages et inconvénients

Hadoop est sans doute le framework le plus populaire utilisé pour le stockage et le traitement des gros volumes de données. Cela s'explique par ses nombreux avantages. Il n'est toutefois pas non plus sans inconvénient.

Les avantages de Hadoop

Hadoop offre de nombreux avantages pour l'analytique et le traitement Big Data. Tout d'abord, le plus impressionnant avec Hadoop est sa grande aisance à gérer de gros volumes de données. Les données qu'il peut stocker sont également très diversifiées grâce à sa grande flexibilité : des données structurées aux données non structurées en passant par les données semi-structurées. De même, Hadoop se montre très véloce dans le stockage et le traitement des données. En cette ère de l'internet des Objets et des réseaux sociaux, il s'agit là d'un véritable atout. Avec Hadoop, les données peuvent être stockées sans être traitées au préalable contrairement à une base de données relationnelles.

De plus, Hadoop dispose d'un excellent potentiel évolutif. Et pour cause, il fonctionne dans un environnement distribué. Au besoin, sa configuration peut être facilement étendue avec l'installation d'autres serveurs. Un autre avantage de Hadoop est son coût modéré. Il est en effet un framework open source qui n'exige aucune licence. De ce fait, son coût est bien inférieur à ceux des bases de données relationnelles classiques. Hadoop est également très résilient. Les données stockées dans un nœud du cluster sont en effet répliquées dans d'autres nœuds. Cela permet à Hadoop d'être tolérant aux incidents. Lorsqu'un nœud tombe en panne par exemple, les autres serveurs ont toujours une sauvegarde à leur disposition.

Les inconvénients de Hadoop

En dépit de ses multiples atouts, Hadoop présente également certains inconvénients. L'algorithme MapReduce par exemple qui convient bien pour les requêtes simples n'est pas adapté pour les tâches itératives. Il ne brille pas non plus dans le calcul analytique avancé. De plus, Hadoop n'offre pas les outils adaptés et compréhensibles pour les métadonnées, le Data Management et la gouvernance des données. Il en va de même pour son manque d'outils pour la standardisation des données.

Un autre inconvénient d'Hadoop est sa maîtrise difficile. Peu de développeurs disposent en effet des compétences pour utiliser MapReduce à son plein potentiel. C'est d'ailleurs pour cette raison que la plupart des fournisseurs ajoutent une surcouche SQL à Hadoop.

Se former à Hadoop

L'utilité d'Hadoop dans le traitement Big Data n'est plus à démontrer. La maîtrise de cet outil peut se faire dans le cadre d'une formation Data comme celle proposée par Jedha. Les formations Data de Jedha sont en pole position des meilleures formations en France. Très flexibles, elles peuvent être suivies à distance, en présentiel, à temps plein ou à temps partiel. Les professeurs Jedha sont triés sur le volet et permettent aux étudiants de profiter de la meilleure expérience pédagogique possible.

Conclusion

Hadoop est donc un framework Java open source utilisé afin de stocker et de traiter de gros volumes de données. Ce dernier se base sur l'algorithme MapReduce de Google. Vous pouvez vous former à maîtriser cet outil notamment via la formation Data proposée par Jedha, entre autres.

Myriam Emilion
Écrit par
Myriam Emilion
 - 
Directrice Marketing
 @
Jedha