O Hadoop usa um sistema de arquivos distribuído conhecido como HDFS e software para processar conjuntos de big data conhecidos como MapReduce. Arquivos extremamente grandes são divididos em partes, geralmente 64 ou 128 MB cada. O software é principalmente escrito em Java, com algum código de nível inferior escrito em C.
Servidor Apache, Big Data, Serviço, Termos de Software