oder
Loggen Sie sich ein, um 1-Click® einzuschalten.
oder
Mit kostenloser Probeteilnahme bei Amazon Prime. Melden Sie sich während des Bestellvorgangs an.
Jetzt eintauschen
und EUR 6,25 Gutschein erhalten
Eintausch
Alle Angebote
Möchten Sie verkaufen? Hier verkaufen
Den Verlag informieren!
Ich möchte dieses Buch auf dem Kindle lesen.

Sie haben keinen Kindle? Hier kaufen oder eine gratis Kindle Lese-App herunterladen.

Hadoop: Zuverlässige, verteilte und skalierbare Big-Data-Anwendungen [Broschiert]

Ramon Wartala
4.3 von 5 Sternen  Alle Rezensionen anzeigen (3 Kundenrezensionen)
Preis: EUR 29,90 kostenlose Lieferung. Siehe Details.
  Alle Preisangaben inkl. MwSt.
o o o o o o o o o o o o o o o o o o o o o o o o o o o o o o o o o o o o o o o o o o o o o o o o o o o o o o o o o o o o o o o o
Nur noch 4 auf Lager (mehr ist unterwegs).
Verkauf und Versand durch Amazon. Geschenkverpackung verfügbar.
Lieferung bis Montag, 22. September: Wählen Sie an der Kasse Morning-Express. Siehe Details.
‹  Zurück zur Artikelübersicht

Inhaltsverzeichnis

Vorwort

1 Einleitung
1.1 Big Data und NoSQL
1.2 MapReduce
1.3 Seltene Eintracht

2 Was ist Hadoop?
2.1 Entstehungsgeschichte
2.2 Was ist Hadoop?
2.2.1 HDFS – das verteilte Dateisystem von Hadoop
2.2.2 Map Reduce Framework
2.3 Was ist Hadoop nicht?
2.3.1 Abgrenzung zu Relationalen Datenbanken
2.3.2 Abgrenzung zu Complex Event Processing
2.3.3 Abgrenzung zu Grid Computing
2.3.4 Microsofts Geschmacksrichtung: Dryad
2.4 Andere MapReduce Frameworks

3 Installation
3.1 Vorbereitungen
3.1.1 Java-Installation
3.1.2 Hadoop-Nutzer
3.1.3 SSH-Installation
3.2 Ein-Rechner-Installation
3.2.1 Konfiguration
3.3 Cluster-Installation
3.3.1 Planung
3.3.2 Netzwerkeinstellungen
3.3.3 Cluster-Hadoop
3.4 Clouderas Hadoop-Distribution
3.4.1 Pseudo-Distributed Mode
3.4.2 Cluster Mode
3.4.3 Komponenten installieren
3.5 Amazons Webservice
3.5.1 Account einrichten
3.5.2 Hadoop EC2 Skript
3.6 Benchmarking
3.6.1 TestDFSIO
3.6.2 MRBench
3.6.3 NameNode Benchmark
3.6.4 Sort
3.6.5 Gridmix 1,2,3

4 Erste Schritte
4.1 HDFS nutzen
4.1.1 Dateisystem-Shell
4.1.2 Admin-Shell
4.1.3 Rechtemanagement
4.1.4 Quotas
4.1.5 Dateisystem-Schnittstellen
4.2 MapReduce nutzen
4.2.1 Beispiel 1 – Schiffe zählen
4.2.2 Beispiel 2 – Verknüpfung mehrerer Jobs
4.2.3 Beispiel 3 – URLs zählen
4.2.4 Hadoop Streaming

5 Das Hadoop-Ökosystem
5.1 Datenfluss-Sprachen
5.1.1 Hive
5.1.2 Pig
5.1.3 CloudBase
5.2 Spaltenorientierte Datenbanken
5.2.1 HBase
5.2.2 Hypertable
5.3 Daten-Serialisierung
5.3.1 Avro
5.3.2 Thrift
5.3.3 Google Protocol Buffer
5.3.4 Sqoop
5.4 Workflow-Systeme
5.4.1 Azkaban
5.4.2 Oozie
5.4.3 Cascading
5.4.4 Hue
5.5 Sonstige
5.5.1 ZooKeeper
5.5.2 Mahout
5.5.3 Whirr

6 Integrierte Entwicklungsumgebungen
6.1 Eclipse
6.2 Karmasphere Studio
6.2.1 Hadoop Service View
6.2.2 Hadoop Job Deployment
6.2.3 Java-Projekt konfigurieren
6.2.4 Workflow View
6.3 Karmasphere Analyst

7 Fortgeschrittene Themen
7.1 Logdatei-Analyse
7.1.1 Freie Systeme zur Logdatei-Analyse
7.1.2 Aggregation mit Flume
7.2 Fehlersuche
7.3 Optimierung von MapReduce-Jobs

8 Management und Überwachung
8.1 Hadoop überwachen
8.1.1 Logdateien
8.1.2 Laufzeit-Metriken
8.1.3 Einbindung in bestehende Monitoring-Infrastruktur
8.2 NameNode-Absicherung
8.3 Dateisystem-Wartung
8.3.1 Dateisystem-Check
8.3.2 Dateisystem-Balancer
8.4 Nutzerrechte

9 Beispiele aus der Praxis
9.1 Hadoop bei der Adyard GmbH
9.1.1 Motivation zum Einsatz von Hadoop
9.1.2 Hadoop in Produktion
9.2 Hadoop bei der Nugg.ad AG
9.2.1 Motivation zum Einsatz von Hadoop
9.2.2 Hadoop in Produktion
9.3 Hadoop bei der optivo GmbH
9.3.1 Motivation zum Einsatz von Hadoop
9.3.2 Hadoop in Produktion
9.4 Hadoop bei der Performance Media Deutschland GmbH
9.4.1 Motivation zum Einsatz von Hadoop
9.4.2 Hadoop in Produktion

Anhang
A Hardware
B Hive-Konfiguration
C Whirr-Konfiguration

‹  Zurück zur Artikelübersicht