Artikel-Archiv iX 12/2010, Seite 128
-
Elefantenbiene
Analyse großer Datenmengen mit Hive
Hadoop eignet sich zwar gut zur Auswertung großer Datenbestände mit dem Map-Reduce-Verfahren. Das manuelle Schreiben der dafür nötigen Java-Klassen kostet jedoch viel Zeit. Das im Facebook-Umfeld entstandene Apache-Projekt Hive erzeugt sie aus klassischen SQL-Statements und erhöht so den Hadoop-Nutzen.
Umfang: ca. 4 redaktionelle Seiten
BibTeX anzeigenErwerben Sie das Heft
iX 12/2010,
um Zugriff auf diesen Artikel zu erhalten.