Bereits 2001 sprach Doug Laney (damals META Group, heute Gartner) das erste Mal von „Big Data“.

Zurzeit erfährt das Thema einen regelrechten Hype. Unternehmen sehen sich zunehmend mit einer großen Menge an Daten konfrontiert. Auch in anderen Bereichen, zum Beispiel in Wissenschaft und Politik, wachsen die vorhandenen Datenmengen rasant.

Bietet die zunehmende Menge an Daten auch ein entsprechendes Potential an Nutzen? Und wie lässt sich das Wissen der Daten erschließen und welche Ergebnisse kann man erwarten?

David Smith, Vice President of Marketing and Community bei Revolution Analytics, hat  interessante aktuelle Beispiele zusammengestellt, die aufzeigen, wie mit professioneller Datenanalyse große Datenmengen „zum Sprechen“ gebracht werden und Wissen aus Daten generiert wird. In allen Fällen ist R das Werkzeug, mit dem die Daten analysiert werden.

  • Drew Conway, Doktorand der New York University, hat große Mengen Wikileaks-Daten ausgewertet und so Muster in den Aktivitäten der amerikanischen Truppen in Afghanistan erkennbar gemacht. Bestimmte Annahmen konnten mit seinen Ergebnissen bestätigt werden, zum Beispiel dass die Kämpfe saisonalen Schwankungen unterliegen.
  • Die Non-Profit-Organisation Benetech hat im Auftrag von Amnesty International und Human Rights Watch einen riesigen Fundus an Geheimakten der guatemaltekischen Nationalpolizei ausgewertet. Mithilfe der Analysen konnte ein Genozid während des guatemaltekischen Bürgerkriegs zwischen 1960 und 1996 nachgewiesen werden.
  • Der Statistiker und Baseball-Fan Bill James hat die quantitative statistische Analyse bei der Bewertung der Leistung von Baseballspielern eingeführt. Grundlage sind dabei objektive Beweismittel, zum Beispiel wie viele Runs ein Spieler im Laufe einer Saison erzielt. James‘ Methode ist mittlerweile bekannt als „Sabermetrics“.
  • Die US-Regierung hat während der Ölpest im Golf von Mexiko im Jahr 2010 das Statistikprogramm R genutzt, um die Frequenz, mit der Öl ausströmt, möglichst exakt zu bestimmen. Die Gegenmaßnahmen konnten so gezielt auf den Ölfluss abgestimmt werden.
  • Das Unternehmen CardioDX, das auf die Untersuchung von Genomen spezialisiert ist, hat einen Test entwickelt, mit dem es über 100 Millionen Genproben analysieren konnte. So konnten die 23 Gene herausgefiltert werden, an denen frühzeitig eine Störung der Herzarterien erkannt werden kann. Der Test ist nun bekannt als „Corus CAD Test“ und gilt laut Time magazin als einer der „Top 10 Medical Breakthroughs“ in 2010.
  • Die Bundesregierung unterstützt im Rahmen ihrer Hightech-Strategie die Informatisierung der klassischen Industrien. Hierzu zählt auch das Projekt Industrie 4.0, welches eine intelligente Fabrik(Smart Factory) zum Ausdruck bringt. Ziel der Smart Factory soll es sein, unter anderem Unternehmen eine vorausschauende Wartung (Predictive Maintenance) und ressourcensparendere Produktionsabläufe zu ermöglichen.
Für mehr Informationen zu Predictive Maintenance:

Hier entlang.