Einführung in Big-Data-Systeme und -Technologien
Große Datenmengen speichern und verarbeiten
Einsatz zahlreicher Tools wie Hadoop, Apache Cassandra, Apache Storm uvm.
Daten müssen mittlerweile von den meisten Unternehmen in irgendeiner Form verarbeitet werden. Dabei können sehr schnell so große Datenmengen entstehen, dass herkömmliche Datenbanksysteme nicht mehr ausreichen. Big-Data-Systeme erfordern Architekturen, die in der Lage sind, Datenmengen nahezu beliebigen Umfangs zu speichern und zu verarbeiten. Dies bringt grundlegende Anforderungen mit sich, mit denen viele Entwickler noch nicht vertraut sind.
Die Autoren erläutern die Einrichtung solcher Datenhaltungssysteme anhand eines speziell für große Datenmengen ausgelegten Frameworks: der Lambda-Architektur. Hierbei handelt es sich um einen skalierbaren, leicht verständlichen Ansatz, der auch von kleinen Teams implementiert und langfristig betrieben werden kann.
Die Grundlagen von Big-Data-Systemen werden anhand eines realistischen Beispiels praktisch umgesetzt. In diesem Kontext lernen Sie neben einem allgemeinen Framework zur Verarbeitung großer Datenmengen auch Technologien wie Hadoop, Storm und NoSQL-Datenbanken kennen.
Dieses Buch setzt keinerlei Vorkenntnisse über Tools zur Datenanalyse oder NoSQL voraus, grundlegende Erfahrungen im Umgang mit herkömmlichen Datenbanken sind aber durchaus hilfreich.
Aus dem Inhalt:
Big-Data-Systeme und -Technologien
Echtzeitverarbeitung sehr großer Datenmengen
Lambda-Architektur
Batch-Layer: Datenmodell, Datenspeicherung, Skalierbarkeit
Stapelverarbeitungsprozesse
Modellierung von Stammdatensätzen
Implementierung eines Graphenschemas mit Apache Thrift
Einsatz von MapReduce
JCascalog zur Implementierung von Pipe-Diagrammen
Serving-Layer: Konzepte und Einsatz von ElephantDB
Speed-Layer: Berechnung und Speicherung von Echtzeit-Views
Einsatz von Hadoop, Apache Cassandra, Apache Kafka und Apache Storm
Streamverarbeitung mit Trident
»Die Stärke des Buches liegt darin, dass es tatsächlich einen tieferen Einblick in Struktur und Funktion von Big-Data-Systemen bietet. Einzelmechanismen wie HDFS, MapReduce, Streaming und anderes werden im Detail dargestellt. Damit hilft die Lektüre zu verstehen, wann, wo und wie solche Systeme eingesetzt werden müssen oder sollten.« (Bigdata-Insider, 02/2019)