Hadoop folosește un sistem de fișiere distribuit, cunoscut sub numele de HDFS, și software pentru procesarea seturilor mari de date cunoscute sub numele de MapReduce. Fisierele extrem de mari sunt impartite in bucati, de obicei 64 sau 128 MB fiecare. Software-ul este scris cel mai mult în Java, cu un cod inferior scris în C.
Apache server, date mari, service, termeni de software