Shop now Shop now Shop now Shop now Shop now Hier klicken Jetzt informieren PR CR0917 Cloud Drive Photos UHD TVs Learn More Mehr dazu HI_PROJECT Mehr dazu Hier Klicken Shop Kindle AmazonMusicUnlimited AmazonMusicUnlimited BundesligaLive longSSs17

Kundenrezension

am 24. Oktober 2013
Fazit für Schnell-Leser: kurzweilige Einführung in das Thema "Big Data" mit ziemlich viel Hype und inhaltlichen Schwächen im letzten Drittel des Buchs.

Festplatten haben mittlerweile gigantische Kapazitäten, der Preis für Speichermedien verfällt rapide. Dies macht die Speicherung extrem großer Datenmengen sehr günstig. Das nutzen insbesondere die Major Player des Internets, zuvorderst Google, Facebook und amazon, die in Ihren Rechenzentren gigantische Mengen an Daten speichern.

Die beiden Autoren Viktor Mayer-Schönberger und Kenneth Cukier geben in Ihrem Buch "Big Data" nun eine Einführung in das Thema. Sie schildern, welche Möglichkeiten und Potenziale sich aus der Gewinnung und der Analyse solch großer Datenmengen ergeben. Nicht, so erfahren wir, aus der primären Nutzung der Daten (d. h. für den Zweck, für den sie eigentlich erhoben wurden). Sondern aus der späteren Zweit- oder Drittnutzung von extrahierten Informationen, die sich aus zusätzlichen Analysen ergeben.

Die aus ihrer Sicht revolutionäre Andersartigkeit dieses neuen Ansatz erläutern die Autoren zunächst. Hierzu arbeiten sie sich an drei beschränkenden Paradigmen altmodischer Datenerfassung und -verarbeitung aus den Zeiten vor "Big Data" argumentativ ab.

"N=all"
Dies beschreibt den Umstand, dass in früheren Zeiten nur jeweils ein beschränktes "Sample", d. h. ein Teil einer Datengesamtheit erfasst und verarbeitet werden konnte. Im Big Data nun gibt es diese Einschränkung nicht mehr, wird doch die komplette Datengesamtheit erfasst und auch gespeichert, eben "N=all".

"Ungenauigkeiten akzeptieren"
Ebenso in alter Zeit versuchte man, möglichst genaue Daten zu erfassen und etwaige Fehlmessungen oder auch fehlende Messungen auszumerzen bzw. aus der Datenanalyse auszuschließen. Im "Big Data"-Szenario nun kann man diese Ungenauigkeit der Daten durchaus akzeptieren. Denn diese "Messiness" spielt durch die schiere Menge an erhobenen Daten statistisch gesehen keine große Rolle mehr.

"Korrelationen anstatt Kausalität"
Zu guter Letzt fällt der alte Ansatz, kausale Zusammenhänge aus Daten zu ermitteln. Im "Big Data"-Szenario reicht es aus, für die Beurteilung von Datengesamtheiten nur Korrelationen zu betrachten. Deren Ursache, so die Autoren, muss man in diesem Szenario nicht notwendigerweise verstehen.

Im Nachfolgenden erläutern die Autoren die Chancen, die "Big Data" für Unternehmen bietet. Immer wieder garniert durch anschauliche Beispiele, z. B. die Vorhersage lokaler Grippe-Epidemien mithilfe der Analyse von Google-Suchen. Mögliche Epidemien lassen sich damit sehr viel zeitnaher ermitteln als durch das (in den USA) etablierte Meldewesen der Ärzte an das CDC (Center for Disease Control). Oder die zahlreichen Unternehmungen von Ören Etzioni. Er ermittelt z. B. aus der Big Data Analyse von Reservierungsdatenbanken der Fluggesellschaften Vorhersagen, welcher Zeitpunkt der Günstigste für den Kauf eines Flugtickets ist.

Hierauf aufbauend diskutieren die Autoren, welche neue Nutzungszenarien und Geschäftsmodelle zukünftig entwickelt werden können z. B. indem man Probleme und Fragestellungen "datafiziert", also zu einer "Big Data"-Fragestellung umwandelt.

Alle Kapitel sind flüssig geschrieben und lassen sich gut lesen, insbesondere die enthusiastischen Visionen der Autoren. Allerdings mutet das Geschriebene manchmal ziemlich "Hypig" an. Es erinnert mich an die Executive Summaries der Businesspläne gescheiterter Internet Start-ups. Genau hier ist mir das Buch zu unreflektiert und zu unkritisch.

Die Einschätzung und Bewertung der etwaigen Probleme finden nur im letzten Drittel des Buches statt, in den Schlusskapiteln.

Übliche Effekte, die man in der Datenerhebung und Analyse immer hat, auch im "Big Data"-Szenario, werden gar nicht erwähnt. Hier liegt die Vermutung nahe, dass beide Autoren, der eine Jurist und Internet-Governance-Experte, der andere Technik-Journalist und -Publizist sich nie wirklich selber ausgiebig mit Datenerhebungen und Analysen beschäftigt haben.

Mayer-Schönberger und Cukier erheben beispielsweise jede Messung, jeden Datenpunkt zum Juwel, zur digitalen Kostbarkeit, den es lediglich abzuspeichern gilt. Hier hatte ich den Eindruck, für beide Autoren gilt die Gleichsetzung Daten=Information. Dies ist nicht so, auch nicht im Internet. Denn selbstverständlich spielen hier sowohl quantitative als auch qualitative Aspekte eine Rolle.

Quantitativ:
-----------------
Daten müssen "reduziert" werden, um Information zu gewinnen. Information erschließt sich nicht sofort mit der Messung von Daten, sondern muss aus diesen ermittelt werden. Mal aufwendiger, mal weniger aufwendig.

Qualitativ:
--------------
Manchmal hat man wenig "Messiness" , manchmal viel, manchmal bestehen Daten aus sehr viel "Schrott" und wenig "Information". Der Fachmann spricht vom Signal-zu-Rausch Verhältnis. Dieser Begriff und das zugrunde liegende Konzept werden im Buch nicht erwähnt.

Fazit
------
Eine kritische Sicht von "Big Data" und eine Diskussion der Gefahren folgt, wie schon gesagt, im letzten Drittel des Buchs. Wie oben bereits ausgeführt, ergeben sich die vermutlich größten Potenziale in der Nutzung von "Big Data" aus der Zweit- oder Dritt-Analyse von Daten. Genau dieser Nutzen ist aber zum Zeitpunkt einer Datenerfassung nicht absehbar. Just in diesem Moment aber gibt man als Individuum oftmals das Einverständnis zum Nutzen seiner Daten. Was Unternehmen oder Drittverwerter dann nachfolgend mit diesen Daten anfangen, bekommt der Einzelne dann nicht mehr mit.

Das Buch wurde vor den diversen Datenskandalen, NSA und Prism recherchiert und geschrieben. Insofern werden die Gefahren, die sich aus der Nutzung durch staatliche Institutionen ergeben nur gestreift und nicht in der Tiefe diskutiert.

Interessant und diskussionswürdig sind die Lösungsansätze, die die Autoren zu den auftretenden Problemen vorstellen. Zum einen ist dies der Ansatz, dass Datenerfassende und -verarbeitende Unternehmen sich die Zweit- und Drittnutzung von Daten von unabhängigen Institutionen überprüfen und freigeben lassen. Darüber hinaus wird die Institutionalisierung einer Berufsgruppe diskutiert, die quasi als "Daten-Obleute" diese Überprüfung übernehmen könnten. Die in Deutschland etablierten Datenschutzbeauftragten werden explizit genannt als Keimzelle einer solchen neuen Berufsgattung.
11 Kommentar| 45 Personen fanden diese Informationen hilfreich. War diese Rezension für Sie hilfreich?JaNeinMissbrauch melden| Permalink
Was ist das?

Was sind Produktlinks?

Im Text Ihrer Bewertung können Sie mit einem Link direkt zu einem beliebigen auf Amazon.com angebotenen Produkt leiten. Befolgen Sie diese Schritte, um einen Produktlink einzufügen:
1. Das Produkt, zu dem der Link führen soll, auf Amazon.com suchen
2. Internetadresse des Produkts kopieren
3. Klicken Produktlink einfügen
4. Die Internetadresse in das Kästchen einfügen
5. Klicken Auswählen
6. Wenn Sie den angezeigten Artikel auswählen, erscheint ein Text wie dieser: [[ASIN:014312854XHamlet (The Pelican Shakespeare)]]
7. Sobald Ihre Bewertung auf Amazon.com erscheint, wird dieser Text in einen solchen Hyperlink umgewandelt:Hamlet (The Pelican Shakespeare)

Ihre Bewertung ist auf 10 Produktlinks beschränkt, und der Linktext darf maximal 256 Zeichen betragen.