Alat Data Besar Sumber Terbuka

Hadoop Alat Data Besar Gratis

Menganalisis set data yang kompleks dengan perangkat lunak analisis data besar

Pemrosesan data kompleks yang lebih cepat dengan alat data besar bebas dan open source. Menangani volume besar -besaran, berbagai set data dan meningkatkan pengambilan keputusan bisnis.

Ringkasan

Hadoop adalah alat data besar sumber terbuka dan terbuka. Ini adalah perangkat lunak analitik data besar yang kuat, andal, dan dapat diskalakan. HDFS (Sistem File Terdistribusi Tinggi), MapReduce, dan Benang adalah tiga komponen utama Hadoop. HDFS adalah lapisan penyimpanan yang terdiri dari dua jenis node: namenodes dan data. Metadata tentang lokasi blok disimpan dalam namenode. Dalam periode yang telah ditentukan, Datanodes menyimpan blok dan mengirim laporan blok ke namenode. Lapisan pemrosesan MapReduce dibagi menjadi dua fase: fase peta dan fase pengurangan. Ini dimaksudkan untuk pemrosesan data secara bersamaan yang didistribusikan di beberapa node. Di Hadoop Big Data, benang adalah penjadwalan pekerjaan dan lapisan manajemen sumber daya. Hadoop adalah salah satu perangkat lunak data besar terbaik untuk memproses data besar. Hadoop Cluster sangat terukur, sehingga memungkinkan penskalaan horizontal dan vertikal ke kerangka Hadoop. Ini memiliki fungsi toleransi kesalahan yang bergantung pada mekanisme replikasi untuk memastikan toleransi kesalahan. Hadoop memastikan bahwa data masih tersedia, bahkan ketika semuanya tidak berjalan dengan baik. Jika salah satu data gagal, pengguna dapat mengakses data dari data lain yang memiliki salinan data yang sama. Hadoop adalah sistem penyimpanan data terdistribusi yang memungkinkan data diproses melalui sekelompok node. Akibatnya, ini memberikan kemampuan pemrosesan Hadoop Framework Lightning-Fast.

Persyaratan sistem

Untuk menginstal Hadoop, Anda harus memiliki perangkat lunak berikut:

  • Java
  • Pengguna dengan hak istimewa sudo

Fitur

Berikut ini adalah fitur utama Hadoop:

  • Sumber Gratis dan Terbuka
  • Pemrosesan data yang lebih cepat
  • Pemrosesan terdistribusi
  • Toleransi kesalahan
  • Dapat diandalkan dan dapat diskalakan
  • Mudah digunakan dan hemat biaya
  • Lokalitas data
  • Ketersediaan data yang tinggi

Instalasi

Instal Hadoop di Ubuntu

Pertama, jalankan perintah di bawah ini untuk menginstal OpenSSH Server dan Klien.

sudo apt install openssh-server openssh-client -y

Jalankan perintah untuk mengunduh Hadoop.

wget https://downloads.apache.org/hadoop/common/hadoop-3.2.1/hadoop-3.2.1.tar.gz

Ekstrak file untuk memulai instalasi Hadoop.

tar xzf hadoop-3.2.1.tar.gz

Mengeksplorasi

Anda mungkin menemukan tautan berikut yang relevan:

 Indonesia