Open Source Big Data Tool

Hadoop Kostenloses Big Data -Tool

Analysieren Sie komplexe Datensätze mit Big Data Analytics -Software

Schnelle Verarbeitung komplexer Daten mit kostenlosen und Open -Source -Big -Data -Tools. Bewältigen Sie mit massivem Volumen, einer Vielzahl von Datensätzen und verbessern Sie die Entscheidungsfindung der Geschäftstätigkeit.

Überblick

Hadoop ist ein kostenloses und Open -Source -Big -Data -Tool. Es ist robust, zuverlässig und skalierbare Big Data Analytics -Software. HDFs (hohe verteilte Dateisystem), MapReduce und Garn sind die drei Schlüsselkomponenten von Hadoop. HDFS ist eine Speicherschicht, die aus zwei Arten von Knoten besteht: Namenoden und Datanodes. Die Metadaten über den Standort eines Blocks werden in Namenode gespeichert. In einem vorgegebenen Zeitraum speichert Datanodes den Block und sendet Blockberichte an namenode. Die MapReduce -Verarbeitungsschicht ist in zwei Phasen unterteilt: die Kartenphase und die Reduzierungsphase. Es ist für die gleichzeitige Verarbeitung von Daten gedacht, die über mehrere Knoten verteilt sind. In Hadoop Big Data ist Garn die Schicht zur Planung und Ressourcenverwaltung. Hadoop ist eine der besten Big -Data -Software für die Verarbeitung großer Daten. Hadoop -Cluster ist sehr skalierbar und ermöglicht das horizontale und vertikale Skalieren dem Hadoop -Gerüst. Es hat eine Fehlertoleranzfunktion, die sich auf einen Replikationsmechanismus stützt, um eine Fehlertoleranz zu gewährleisten. Hadoop stellt sicher, dass Daten noch verfügbar sind, auch wenn die Dinge nicht gut laufen. Wenn einer der Datanodes fehlschlägt, kann der Benutzer von anderen DataNodes mit einer Kopie derselben Daten auf Daten zugreifen. Hadoop ist ein verteiltes Datenspeichersystem, mit dem Daten über eine Gruppe von Knoten verarbeitet werden können. Infolgedessen gibt es den Hadoop-Framework-Lightning-Schnittverarbeitungsfunktionen.

System Anforderungen

Um Hadoop zu installieren, müssen Sie die folgenden Software haben:

  • Java
  • Benutzer mit sudo -Privilegien

Merkmale

Im Folgenden finden Sie die Hauptmerkmale von Hadoop:

  • Frei und Open Source
  • schnellere Datenverarbeitung
  • Verteilte Verarbeitung
  • Fehlertoleranz
  • zuverlässig und skalierbar
  • einfach zu bedienen und kostengünstig
  • Datenlokalität
  • hohe Verfügbarkeit von Daten

Installation

Installieren Sie Hadoop auf Ubuntu

Führen Sie zunächst den Befehl unten aus, um OpenSSH Server und Client zu installieren.

sudo apt install openssh-server openssh-client -y

Befehl ausführen, um Hadoop herunterzuladen.

wget https://downloads.apache.org/hadoop/common/hadoop-3.2.1/hadoop-3.2.1.tar.gz

Extrahieren Sie die Dateien, um die Hadoop -Installation zu initiieren.

tar xzf hadoop-3.2.1.tar.gz

Erkunden

Möglicherweise finden Sie die folgenden Links relevant:

 Deutsch