Hadoop verwendet ein verteiltes Dateisystem (HDFS) und eine Software zur Verarbeitung großer Datenmengen (MapReduce). Extrem große Dateien werden in Teile aufgeteilt, in der Regel 64 oder 128 MB. Die Software ist größtenteils in Java geschrieben, während in C etwas niedrigerer Code geschrieben wurde.
Apache-Server, Big Data, Service, Softwarebedingungen