Artikel-Archiv iX 12/2010, Seite 128

  • Thumbnail, iX 12/2010, Seite 128

    Elefantenbiene

    Analyse großer Datenmengen mit Hive

    Hadoop eignet sich zwar gut zur Auswertung großer Datenbestände mit dem Map-Reduce-Verfahren. Das manuelle Schreiben der dafür nötigen Java-Klassen kostet jedoch viel Zeit. Das im Facebook-Umfeld entstandene Apache-Projekt Hive erzeugt sie aus klassischen SQL-Statements und erhöht so den Hadoop-Nutzen.

    Umfang: ca. 4 redaktionelle Seiten
    BibTeX anzeigen