Outil de Big Data open source

Hadoop Outil gratuit de Big Data

Analyser des ensembles de données complexes avec un logiciel d'analyse Big Data

Traitement plus rapide des données complexes avec des outils de Big Data gratuits et open source. Gérer un volume massif, une variété d'ensembles de données et améliorer la prise de décision commerciale.

Aperçu

Hadoop est un outil Big Data gratuit et open source. Il est robuste, fiable et évolutif du logiciel d’analyse de Big Data. HDFS (Système de fichiers distribué élevé), MapReduce et YARN sont les trois composants clés de Hadoop. HDFS est une couche de stockage qui est composée de deux types de nœuds: namenodes et datanodes. Les métadonnées autour de l’emplacement d’un bloc sont stockées dans Namenode. Dans une période prédéterminée, Datanodes stocke le bloc et envoie des rapports de bloc à NameNode. La couche de traitement MapReduce est divisée en deux phases: la phase de carte et la phase de réduction. Il est destiné au traitement simultané des données distribuées sur plusieurs nœuds. Dans Hadoop Big Data, le fil est la planification des travaux et la couche de gestion des ressources. Hadoop est l’un des meilleurs logiciels de Big Data pour traiter les grandes données. Le cluster Hadoop est très évolutif, il permet donc une mise à l’échelle horizontale et verticale du cadre Hadoop. Il a une fonction de tolérance aux défauts qui repose sur un mécanisme de réplication pour assurer la tolérance aux défauts. Hadoop garantit que les données sont toujours disponibles, même lorsque les choses ne vont pas bien. Si l’un des Datanodes échoue, l’utilisateur peut accéder aux données à partir d’autres datanodes qui ont une copie des mêmes données. Hadoop est un système de stockage de données distribué qui permet de traiter les données via un groupe de nœuds. En conséquence, il donne aux capacités de traitement ultra-rapide du framework Hadoop.

Configuration requise

Pour installer Hadoop, vous devez avoir les logiciels suivants:

  • Java
  • Utilisateur avec privilèges sudo

Caractéristiques

Voici les principales caractéristiques de Hadoop:

  • gratuit et open source
  • Traitement des données plus rapide
  • Traitement distribué
  • Tolérance aux défauts
  • fiable et évolutif
  • Facile à utiliser et rentable
  • localité de données
  • Haute disponibilité des données

Installation

Installer Hadoop sur Ubuntu

Tout d’abord, exécutez la commande ci-dessous pour installer OpenSSH Server et Client.

sudo apt install openssh-server openssh-client -y

Exécutez la commande pour télécharger Hadoop.

wget https://downloads.apache.org/hadoop/common/hadoop-3.2.1/hadoop-3.2.1.tar.gz

Extraire les fichiers pour initier l’installation de Hadoop.

tar xzf hadoop-3.2.1.tar.gz

Explorer

Vous pouvez trouver les liens suivants pertinents:

 Français