Czym jest Apache Hadoop?

Apache Hadoop to nazwa zestawu algorytmów big data, rozproszonej pamięci masowej i oprogramowania do przetwarzania rozproszonego stworzonego przez Apache Software Foundation. Został zaprojektowany do obsługi aplikacji do obsługi dużych ilości danych; automatyczna obsługa awarii sprzętu bez utraty usługi.

Hadoop używa rozproszonego systemu plików znanego jako HDFS i oprogramowania do przetwarzania dużych zbiorów danych znanych jako MapReduce. Niezwykle duże pliki są dzielone na części, zwykle po 64 lub 128 MB każdy. Oprogramowanie jest w większości napisane w Javie, z kodem niższego poziomu napisanym w C.

Serwer Apache, Big Data, serwis, warunki oprogramowania