Der Kern von Hadoop ist das verteilte Dateisystem HDFS und MapReduce. HDFS bietet Speicher für große Datenmengen, während MapReduce die Berechnung großer Datenmengen ermöglicht.
Hadoop ist eine verteilte Systeminfrastruktur, die von der Apache Foundation entwickelt wurde. Benutzer können verteilte Programme entwickeln, ohne die zugrunde liegenden Details der Verteilung zu verstehen. Nutzen Sie die Leistungsfähigkeit von Clustern für Hochgeschwindigkeits-Computing und -Speicherung voll aus.
Hadoop implementiert ein verteiltes Dateisystem (Hadoop Distributed File System), eine seiner Komponenten ist HDFS. HDFS ist äußerst fehlertolerant und für den Einsatz auf kostengünstiger Hardware konzipiert. Es bietet einen hohen Durchsatz für den Zugriff auf Anwendungsdaten und eignet sich daher für Anwendungen mit großen Datensätzen.
HDFS lockert die POSIX-Anforderungen und kann in Form eines Streaming-Zugriffs auf Daten im Dateisystem zugreifen.
Das Kerndesign des Hadoop-Frameworks ist: HDFS und MapReduce. HDFS bietet Speicher für große Datenmengen, während MapReduce die Berechnung großer Datenmengen ermöglicht.
Hadoop besteht aus vielen Elementen. Unten befindet sich das Hadoop Distributed File System (HDFS), das Dateien auf allen Speicherknoten im Hadoop-Cluster speichert. Die obere Schicht von HDFS ist die MapReduce-Engine, die aus JobTrackern und TaskTrackern besteht. Durch die Einführung des verteilten Kerndateisystems HDFS und der MapReduce-Verarbeitung der verteilten Hadoop-Computing-Plattform sowie des Data-Warehouse-Tools Hive und der verteilten Datenbank Hbase deckt es im Wesentlichen den gesamten technischen Kern der verteilten Hadoop-Plattform ab.
Weitere Informationen zu diesem Thema finden Sie auf: Chinesische PHP-Website!
Das obige ist der detaillierte Inhalt vonDer Kern von Hadoop ist das verteilte Dateisystem HDFS und was?. Für weitere Informationen folgen Sie bitte anderen verwandten Artikeln auf der PHP chinesischen Website!