Hadoop Strumento Big Data gratuito
Analizza set di dati complessi con il software di analisi dei big data
Elaborazione più rapida di dati complessi con strumenti di big data liberi e open source. Affronta un volume enorme, una varietà di set di dati e migliorano il processo decisionale aziendale.
Panoramica ### ** ** Hadoop è uno strumento Big Data gratuito e open source. È un software di analisi dei big data robusto, affidabile e scalabile. HDFS (file system distribuito), mapReduce e filato sono i tre componenti chiave di Hadoop. HDFS è un livello di archiviazione composto da due tipi di nodi: namenodes e DataNodes. I metadati sulla posizione di un blocco sono conservati a Namenode. In un periodo predeterminato, DataNodes memorizza il blocco e invia report di blocco a Namenode. Lo strato di elaborazione MapReduce è diviso in due fasi: la fase della mappa e la fase di riduzione. È destinato all’elaborazione simultanea di dati distribuiti su più nodi. In Hadoop Big Data, il filo è la pianificazione dei lavori e il livello di gestione delle risorse. Hadoop è uno dei migliori software di big data per l’elaborazione di dati di grandi dimensioni. Il cluster Hadoop è altamente scalabile, quindi consente il ridimensionamento orizzontale e verticale nel framework Hadoop. Ha una funzione di tolleranza ai guasti che si basa su un meccanismo di replica per garantire la tolleranza ai guasti. Hadoop assicura che i dati siano ancora disponibili, anche quando le cose non vanno bene. Se uno dei DataNodes non riesce, l’utente può accedere ai dati da altri DataNodes che hanno una copia degli stessi dati. Hadoop è un sistema di archiviazione dati distribuito che consente di elaborare i dati attraverso un cluster di nodi. Di conseguenza, fornisce le capacità di elaborazione dei fulmini FAMEWORK Framework.
Requisiti di sistema
Per installare Hadoop, è necessario disporre dei seguenti software:
- Java
- Utente con privilegi sudo
Caratteristiche
Di seguito sono riportate le caratteristiche chiave di Hadoop:
- gratuito e open source
- Elaborazione dei dati più rapida
- Elaborazione distribuita
- tolleranza agli errori
- affidabile e scalabile
- facile da usare ed economico
- Località dei dati
- Alta disponibilità di dati
Installazione
Installa Hadoop su Ubuntu
Innanzitutto, eseguire il comando sotto per installare OpenSSH Server e client.
sudo apt install openssh-server openssh-client -y
Esegui il comando per scaricare Hadoop.
wget https://downloads.apache.org/hadoop/common/hadoop-3.2.1/hadoop-3.2.1.tar.gz
Estrai i file per avviare l’installazione di Hadoop.
tar xzf hadoop-3.2.1.tar.gz