Hadoop używa rozproszonego systemu plików znanego jako HDFS i oprogramowania do przetwarzania dużych zbiorów danych znanych jako MapReduce. Niezwykle duże pliki są dzielone na części, zwykle po 64 lub 128 MB każdy. Oprogramowanie jest w większości napisane w Javie, z kodem niższego poziomu napisanym w C.
Serwer Apache, Big Data, serwis, warunki oprogramowania