O que é o Apache Hadoop?

Apache Hadoop é o nome de um conjunto de algoritmos de big data, armazenamento distribuído e software de processamento distribuído criado pela Apache Software Foundation. Ele é projetado para suportar aplicativos de serviço de dados de alto volume; lidar automaticamente com falhas de hardware sem perda de serviço.

O Hadoop usa um sistema de arquivos distribuído conhecido como HDFS e software para processar conjuntos de big data conhecidos como MapReduce. Arquivos extremamente grandes são divididos em partes, geralmente 64 ou 128 MB cada. O software é principalmente escrito em Java, com algum código de nível inferior escrito em C.

Servidor Apache, Big Data, Serviço, Termos de Software