Was ist Apache Hadoop?

Apache Hadoop ist der Name für eine Reihe von Big-Data-Algorithmen, verteiltem Speicher und verteilter Verarbeitungssoftware, die von der Apache Software Foundation erstellt wurde. Es ist für die Unterstützung von Datendienstanwendungen mit hohem Datenträger konzipiert. Hardwareausfälle ohne Dienstverlust automatisch behandeln.

Hadoop verwendet ein verteiltes Dateisystem (HDFS) und eine Software zur Verarbeitung großer Datenmengen (MapReduce). Extrem große Dateien werden in Teile aufgeteilt, in der Regel 64 oder 128 MB. Die Software ist größtenteils in Java geschrieben, während in C etwas niedrigerer Code geschrieben wurde.

Apache-Server, Big Data, Service, Softwarebedingungen