oder
Loggen Sie sich ein, um 1-Click® einzuschalten.
Jetzt eintauschen
und EUR 7,00 Gutschein erhalten
Eintausch
Alle Angebote
Möchten Sie verkaufen? Hier verkaufen
Jeder kann Kindle Bücher lesen  selbst ohne ein Kindle-Gerät  mit der KOSTENFREIEN Kindle App für Smartphones, Tablets und Computer.
Den Verlag informieren!
Ich möchte dieses Buch auf dem Kindle lesen.

Sie haben keinen Kindle? Hier kaufen oder eine gratis Kindle Lese-App herunterladen.

Hadoop: Zuverlässige, verteilte und skalierbare Big-Data-Anwendungen [Broschiert]

Ramon Wartala
4.3 von 5 Sternen  Alle Rezensionen anzeigen (3 Kundenrezensionen)
Preis: EUR 29,90 kostenlose Lieferung Siehe Details.
  Alle Preisangaben inkl. MwSt.
o o o o o o o o o o o o o o o o o o o o o o o o o o o o o o o o o o o o o o o o o o o o o o o o o o o o o o o o o o o o o o o o
Gewöhnlich versandfertig in 2 bis 3 Tagen.
Verkauf und Versand durch Amazon. Geschenkverpackung verfügbar.
‹  Zurück zur Artikelübersicht

Inhaltsverzeichnis

Vorwort

1 Einleitung
1.1 Big Data und NoSQL
1.2 MapReduce
1.3 Seltene Eintracht

2 Was ist Hadoop?
2.1 Entstehungsgeschichte
2.2 Was ist Hadoop?
2.2.1 HDFS – das verteilte Dateisystem von Hadoop
2.2.2 Map Reduce Framework
2.3 Was ist Hadoop nicht?
2.3.1 Abgrenzung zu Relationalen Datenbanken
2.3.2 Abgrenzung zu Complex Event Processing
2.3.3 Abgrenzung zu Grid Computing
2.3.4 Microsofts Geschmacksrichtung: Dryad
2.4 Andere MapReduce Frameworks

3 Installation
3.1 Vorbereitungen
3.1.1 Java-Installation
3.1.2 Hadoop-Nutzer
3.1.3 SSH-Installation
3.2 Ein-Rechner-Installation
3.2.1 Konfiguration
3.3 Cluster-Installation
3.3.1 Planung
3.3.2 Netzwerkeinstellungen
3.3.3 Cluster-Hadoop
3.4 Clouderas Hadoop-Distribution
3.4.1 Pseudo-Distributed Mode
3.4.2 Cluster Mode
3.4.3 Komponenten installieren
3.5 Amazons Webservice
3.5.1 Account einrichten
3.5.2 Hadoop EC2 Skript
3.6 Benchmarking
3.6.1 TestDFSIO
3.6.2 MRBench
3.6.3 NameNode Benchmark
3.6.4 Sort
3.6.5 Gridmix 1,2,3

4 Erste Schritte
4.1 HDFS nutzen
4.1.1 Dateisystem-Shell
4.1.2 Admin-Shell
4.1.3 Rechtemanagement
4.1.4 Quotas
4.1.5 Dateisystem-Schnittstellen
4.2 MapReduce nutzen
4.2.1 Beispiel 1 – Schiffe zählen
4.2.2 Beispiel 2 – Verknüpfung mehrerer Jobs
4.2.3 Beispiel 3 – URLs zählen
4.2.4 Hadoop Streaming

5 Das Hadoop-Ökosystem
5.1 Datenfluss-Sprachen
5.1.1 Hive
5.1.2 Pig
5.1.3 CloudBase
5.2 Spaltenorientierte Datenbanken
5.2.1 HBase
5.2.2 Hypertable
5.3 Daten-Serialisierung
5.3.1 Avro
5.3.2 Thrift
5.3.3 Google Protocol Buffer
5.3.4 Sqoop
5.4 Workflow-Systeme
5.4.1 Azkaban
5.4.2 Oozie
5.4.3 Cascading
5.4.4 Hue
5.5 Sonstige
5.5.1 ZooKeeper
5.5.2 Mahout
5.5.3 Whirr

6 Integrierte Entwicklungsumgebungen
6.1 Eclipse
6.2 Karmasphere Studio
6.2.1 Hadoop Service View
6.2.2 Hadoop Job Deployment
6.2.3 Java-Projekt konfigurieren
6.2.4 Workflow View
6.3 Karmasphere Analyst

7 Fortgeschrittene Themen
7.1 Logdatei-Analyse
7.1.1 Freie Systeme zur Logdatei-Analyse
7.1.2 Aggregation mit Flume
7.2 Fehlersuche
7.3 Optimierung von MapReduce-Jobs

8 Management und Überwachung
8.1 Hadoop überwachen
8.1.1 Logdateien
8.1.2 Laufzeit-Metriken
8.1.3 Einbindung in bestehende Monitoring-Infrastruktur
8.2 NameNode-Absicherung
8.3 Dateisystem-Wartung
8.3.1 Dateisystem-Check
8.3.2 Dateisystem-Balancer
8.4 Nutzerrechte

9 Beispiele aus der Praxis
9.1 Hadoop bei der Adyard GmbH
9.1.1 Motivation zum Einsatz von Hadoop
9.1.2 Hadoop in Produktion
9.2 Hadoop bei der Nugg.ad AG
9.2.1 Motivation zum Einsatz von Hadoop
9.2.2 Hadoop in Produktion
9.3 Hadoop bei der optivo GmbH
9.3.1 Motivation zum Einsatz von Hadoop
9.3.2 Hadoop in Produktion
9.4 Hadoop bei der Performance Media Deutschland GmbH
9.4.1 Motivation zum Einsatz von Hadoop
9.4.2 Hadoop in Produktion

Anhang
A Hardware
B Hive-Konfiguration
C Whirr-Konfiguration

‹  Zurück zur Artikelübersicht