Verständnisfrage zum Thema Cluster

Diese Seite verwendet Cookies. Durch die Nutzung unserer Seite erklären Sie sich damit einverstanden, dass wir Cookies setzen. Weitere Informationen

  • Verständnisfrage zum Thema Cluster

    Hallo Community,

    ich beschäftige mich derzeit mit Clustering um diese Materie ein wenig besser verstehen zu können. Idealerweise möchte ich auch als ein kleines Projekt aus ein paar alten PCs einen Cluster bauen. Das Betriebssystem sollte natürlich Linux (CentOS) sein, da ich mich da besser auskenne.

    Ich habe mir derzeit verschiedene Modelle angeschaut. HA-Cluster für Datenbanken oder Webservices verstehe ich ohne Probleme (eine Anfrage wird einem Server zugewiesen).

    Ich habe bis jetzt eigentlich immer gedacht, ich kann Rechenleistung auch für jede beliebige Software teilen, die nicht direkt für Cluster ausgelegt ist. Aus Sicht der Software würde alles innerhalb eines Betriebssystems laufen. Das Betriebssystem würde dann die zu berechnenden Aufgaben in dem Cluster an seine Nodes verteilen. Nach außen würde das komplette System als "ein Server" angesprochen werden können.

    Ist es möglich einen Cluster so aufzubauen? Gibt es Beschreibungen für solch ein Konzept? Wer kann mir da die richtige Richtung zeigen?

    Es ist natürlich schwer nach etwas zu googeln was man nicht kennt... Deshalb frage ich hier nach :)

    Grüße,
    Dominic
    My lovely mister singing club...
  • Dominic schrieb:

    Das Betriebssystem würde dann die zu berechnenden Aufgaben in dem Cluster an seine Nodes verteilen

    Aber wo liegen die Daten? Die sollen ja nicht für jede Berechnung hin- und herkopiert werden.
    Die Daten sollten ja bereits vorher dort liegen, wo die Berechnung stattfindet, oder?

    Betriebssystem Cluster nutzt man eigentlich relativ wenig. Weil man i.d.R. keine generischen Probleme löst.

    Deswegen gibt es für unterschiedliche Aufgaben unterschiedliche Software:
    Für Datenbanken empfiehlt sich zum Beispiel Apache Cassandra.
    Für Batch Berechnungen empfiehlt sich Apache Hadoop.
    Für Stream Verarbeitung empfiehlt sich Storm.