Die große Datenflut: Wie „Big Data“ unsere Welt verändert
Die Analyse großer Datenmengen ist gerade dabei, unsere Welt kräftig umzukrempeln. Das beschert uns enormen wissenschaftlichen Fortschritt. Es macht uns aber zugleich auch so „kontrollierbar“ und „nackt“ wie nie zuvor. Ein Artikel von Martin Schramm.
or allem in der Forschung braucht man immer präzisere Maschinen, Sensoren und Messinstrumente, um in immer aufwändigeren Experimenten nach immer kleineren, kaum noch nachweisbaren Effekten zu fahnden. Das sorgt für immense Datenmengen. Ein Paradebeispiel: die Suche nach dem sogenannten „Higgs-Teilchen“, im Teilchenbeschleuniger am Europäischen Kernforschungszentrum CERN bei Genf. Dort fallen rund ein Petabyte Rohdaten an – pro Sekunde. Das ist selbst für Big Data zu viel. Die Datenflut wird im CERN daher stark gefiltert: im Jahr 2012 auf fast schon wieder bescheiden klingende 25 Petabyte, für das gesamte Jahr. Diese Daten werden dann auf elf Rechenzentren weltweit verteilt und ausgewertet.
Sprechstunde bei Dr. Watson
Längst machen sich Forscher auch daran, die Datenschätze zu heben, die in den Krankenhäusern dieser Welt schlummern: in den Akten von Patienten, mit wertvollen Informationen über Krankheitsverläufe. Auch die Daten der Krankenversicherungen werden analysiert; die bei den Anbietern von Gentests; und natürlich die der unzähligen Studien zu allen möglichen Wirkstoffen, deren Risiken und Nebenwirkungen. Die Vision: eine „personalisierte Medizin“, in der jeder Patient eine Behandlung erhält, die ganz individuell auf ihn und seine persönlichen Risikofaktoren abgestimmt ist.
IT-Firmen wittern einen gigantischen Markt – und arbeiten bereits an konkreten Big Data Anwendungen. IBM zum Beispiel hat große Pläne mit seinem Computersystem „Watson“. Vor einigen Jahren legte das einen medienwirksamen Sieg hin – in der amerikanischen Quizshow „Jeopardy“ – bei der die Kandidaten schneller als ihre Mitspieler eine passende Frage auf eine vorgegebene Antwort formulieren müssen. Jetzt soll Watson helfen, Krebspatienten effektiver zu behandeln. Das System wertet dazu rund zwei Millionen Seiten medizinischer Fachliteratur und 6000 medizinische Studien aus. Auf Anfrage sucht es dann beispielsweise nach Patienten, deren Krankengeschichte dem aktuellen Fall möglichst ähnlich ist und macht Vorschläge zur Behandlung des Patienten.
Doch auch andere Forschungsbereiche werden immer mehr „datengetrieben“: Egal ob es darum geht, die Wettervorhersage zu optimieren, Ursachen und Auswirkungen des Klimawandels zu erforschen, Börsenkurse zu berechnen, Genomdaten auszuwerten oder zu erkennen, wie Grippewellen sich ausbreiten. Intelligente Energienetze werden so gestaltet; Vorhersagen formuliert, wie die nächste Bundestagswahl ausgehen könnte.
Der umworbene Kunde
Auch den IT-Konzernen selbst soll Big Data helfen, ihre Kunden besser zu verstehen – und ihnen so bessere, weil individuelle Angebote zu machen; oder gezielt Werbung einzublenden – nach dem Motto: Sie haben sich für Produkt xy interessiert, daher könnte für sie auch Folgendes interessant sein. Die Firmen lesen und sammeln daher oft sämtliche Spuren, die ein Kunde im Netz hinterlässt – um diese Daten dann miteinander zu verknüpfen. Sie wissen so im Extremfall: Welche Suchbegriffe jemand eingibt; welche Seiten er sich im Web ansieht; welche Mails er schreibt; mit wem er telefoniert; wo er sich befindet; und so weiter und so fort – alles zum Wohl des Kunden, angeblich.
Auch der Physiker Michael Feindt hatte die Idee, dass sich sein Know how aus der Teilchenphysik sehr gut für kommerzielle Anwendungen nutzen lässt. Er hat eine Software entwickelt, um vorherzusagen, welchen Schaden beispielswiese der Versicherungsnehmer einer KFZ-Haftpflicht im nächsten Jahr verursachen könnte. Das Ziel ist dabei, persönliche Risiken noch präziser abzuschätzen und Tarife noch individueller zu gestalten. Das System taugt aber auch, um Absatzprognosen zu erstellen – z.B. für Supermärkte. Für ganz bestimmte Artikel, in einem ganz bestimmten Geschäft, an einem ganz bestimmten Tag – interessant vor allem für frische Ware, die schnell verdirbt. Michael Feindt spricht von typischen Verbesserungsraten von 10 Prozent bis zu 40 Prozent. Daten und Datenanalyse werden so zunehmend zu einem wertvollen Rohstoff, mit dem sich viel Geld verdienen lässt.
Ein Datenpool, der ebenfalls große Begehrlichkeiten weckt, sind die sogenannten „Social Media“ – also all das, was Nutzer bei Diensten wie Twitter oder Facebook schreiben und einstellen; aber auch in Blogs oder Diskussionsforen aller Art: Texte, Bilder, Videos – oder Kommentare und Kundenrezensionen in Online-Shops.
Es gibt rund fünf, sechs Unternehmen, die diese „Social Media“-Daten als Dienstleister sammeln, um nicht zu sagen „aus dem Netz saugen“ – und diesen gigantischen Datenpool dann anschließend anderen Firmen kostenpflichtig zur Verfügung stellen. Und die wollen dann z.B. wissen: Was denken die Kunden über unsere Produkte? Was ist gut, was ist verbesserungsfähig? Wo schneidet der Wettbewerber besser ab?
Ambivalente Datenflut
Datenschützer bekommen angesichts der immensen Datenmengen heftige Bauchschmerzen. Und auch wenn in Deutschland personenbezogene Daten nur für ganz bestimmte Zwecke gespeichert werden dürfen, und dies auch erst dann, wenn der Betroffene zugestimmt hat – die Großkonzerne in Übersee juckt das herzlich wenig. Google beispielsweise hat in Europa mehrere Klagen am Hals.
Ein häufiges Gegenargument der Firmen: Die Daten seien doch alle anonymisiert. Doch das überzeugt Datenschützer wenig. Sie erleben im Alltag ständig, wie aus „anonym“ ganz schnell wieder „personenbezogen“ wird. Datenschützer fürchten außerdem, dass Menschen zum Spielball einer anonymen Analysesoftware werden – z.B. in den Händen technikgläubiger Banker. Denn Dank Big Data werden die Angebote für den Kunden oft nicht „optimiert“, sondern der Kunde selbst wird „diskriminiert“. Wenn beispielsweise ein Kreditantrag durch die Bank abgelehnt wird, können die meisten Verbraucher die Gründe für eine derartige Abfuhr oft gar nicht mehr durchschauen.
Wenn wir am Ende als sozusagen „Rundum-Big-Data-analysierte Kunden“ nicht komplett „nackt“ da stehen wollen, sondern Wert auf Privatsphäre und Anonymität legen, wird nur helfen, diese Rechte massiv einzufordern – und persönliche Konsequenzen zu ziehen: Wir sollten uns vor allem gut überlegen, welche Daten von uns wir wo überhaupt Preis geben. Denn sind sie erstmal in der Welt, ist es oft kaum noch möglich, sie zurückzuholen.
Dieser Artikel von Martin Schramm (Redaktion: Wolfgang Kasenbacher) ist im Original zu finden auf der Webseite des Bayerischen Rundfunks.




Last Comments