Narzędzie Big Data Open Source

Hadoop Bezpłatne narzędzie Big Data

Przeanalizuj złożone zestawy danych za pomocą oprogramowania do analizy dużych danych

Szybsze przetwarzanie złożonych danych z bezpłatnymi i open source Big Data Tools. Zajmij się ogromnym wolumenem, różnorodnością zestawów danych i poprawiaj podejmowanie decyzji biznesowych.

Przegląd

Hadoop jest bezpłatnym i open source narzędzie dużych zbiorów danych. Jest to solidne, niezawodne i skalowalne oprogramowanie do analizy dużych danych. HDFS (High rozproszony system plików), MapReduce i przędze to trzy kluczowe elementy Hadoop. HDFS to warstwa pamięci, która składa się z dwóch rodzajów węzłów: nazwy i danych. Metadane o lokalizacji bloku są przechowywane w Namenode. W z góry określonym okresie Datanodes przechowuje blok i wysyła raporty blokowe do Namenode. Warstwa przetwarzania MapReduce jest podzielona na dwie fazy: fazę mapy i fazę zmniejszania. Jest przeznaczony do jednoczesnego przetwarzania danych, które są rozmieszczone w kilku węzłach. W Hadoop Big Data Yarn to warstwa planowania pracy i zarządzania zasobami. Hadoop jest jednym z najlepszych oprogramowania Big Data do przetwarzania dużych danych. Klaster Hadoop jest wysoce skalowalny, więc umożliwia skalowanie poziome i pionowe do frameworka Hadoop. Ma funkcję tolerancji usterki, która opiera się na mechanizmie replikacji w celu zapewnienia tolerancji błędów. Hadoop zapewnia, że ​​dane są nadal dostępne, nawet jeśli wszystko nie idzie dobrze. Jeśli jeden z danych nie powiedzie się, użytkownik może uzyskać dostęp do danych z innych danych, które mają kopię tych samych danych. Hadoop to rozproszony system przechowywania danych, który umożliwia przetwarzanie danych przez klaster węzłów. W rezultacie daje to Framework Framework Forning Fast Processation.

Wymagania systemowe

Aby zainstalować Hadoop, musisz mieć następujące oprogramowanie:

  • Java
  • Użytkownik z uprawnieniami sudo

Cechy

Poniżej znajdują się kluczowe cechy Hadoop:

  • Bezpłatne i open source
  • Szybsze przetwarzanie danych
  • Przetwarzanie rozproszone
  • Tolerancja błędów
  • niezawodne i skalowalne
  • łatwe w użyciu i opłacalne
  • Lokalizacja danych
  • Wysoka dostępność danych

Instalacja

Instaluj Hadoop na Ubuntu

Najpierw uruchom poniżej polecenie, aby zainstalować serwer OpenSsh i klient.

sudo apt install openssh-server openssh-client -y

Wykonaj polecenie, aby pobrać Hadoop.

wget https://downloads.apache.org/hadoop/common/hadoop-3.2.1/hadoop-3.2.1.tar.gz

Wyodrębnij pliki, aby zainicjować instalację Hadoop.

tar xzf hadoop-3.2.1.tar.gz

Badać

Możesz znaleźć istotne następujące linki:

 Polski