Skalierbare Anwendungen mit Hadoop

This site uses cookies. By continuing to browse this site, you are agreeing to our Cookie Policy.

  • In diesem Beispiel entwickeln wir eine skalierbare Anwendung mit Hadoop.
    Von der Datenaggregation auf den Nodes, über die Auswertung in Hadoop und den Transfer zurück soll ein kompletter Kreislauf entstehen.
    Dieser Artikel ist noch nicht fertig gestellt.
    Wir bauen die Architektur Schritt für Schritt auf.

    == Setup ==
    • [wiki]Apache Hadoop Installation[/wiki]

    == Format ==
    • [wiki]Thrift, Protocol Buffers, Avro. Welches Datenformat?[/wiki]
    • [wiki]Apache Thrift Installation[/wiki]
    • [wiki]Thrift PHP Extension installieren[/wiki]
    == Transport zu Hadoop ==
    • [wiki]Scribe & Flume. Datentransport in die Cloud[/wiki]
    • [wiki]Cloudera Flume Installation[/wiki]
    • [wiki]Flume mit PHP[/wiki]
    • [wiki]Hadoop mit LZO[/wiki]
    • [wiki]Flume mit LZO[/wiki]
    == Auswertung ==
    • [wiki]Elephant Bird Installation[/wiki]
    • Datenanalyse mit Pig
    == Speichern ==
    • Speichern in Hbase/Cassandra/Redis
    == Zugriff ==
    • Zugriff auf Hbase/Cassandra/Redis

    4,501 times viewed