Erhalten Sie Zugang zu diesem und mehr als 300000 Büchern ab EUR 5,99 monatlich.
Nicht nur Amazon personalisiert mit Daten das Einkaufserlebnis und löst konkrete Kaufentscheidungen aus. Auch der klassische Handel kann mit Daten mehr Kunden in die Filialen locken. Immer mehr Investitionsgüterhersteller nutzen Daten, um neue Interessenten anzusprechen. Wer aus seinen Daten die richtigen Schlüsse zieht, ist der Konkurrenz eine Nasenlänge voraus. Die meisten sammeln zwar Daten, nutzen sie jedoch nicht. In diesem Buch wird beschrieben, was derzeit schon umsetzbar ist und wie Unternehmen dabei vorgehen. Anhand konkreter Beispiele holen Sie sich Anregungen für Ihre eigene Strategie und können mitreden.
Sie lesen das E-Book in den Legimi-Apps auf:
Seitenzahl: 502
Veröffentlichungsjahr: 2015
Das E-Book (TTS) können Sie hören im Abo „Legimi Premium” in Legimi-Apps auf:
Gabriele Braun, Torsten SchwarzHerausgeber
Print: ISBN 978-3-943666-07-6Epub: ISBN 978-3-943666-19-9PDF: ISBN 978-3-943666-20-5
1. Auflage 2015Copyright © 2015 marketing-BÖRSE GmbHMelanchthonstr. 5D-68753 Waghä[email protected]
Umschlaggestaltung und Layout: Maren Wendt, HamburgSatz: Peter Föll, Karlsruhe
Alle in diesem Buch enthaltenen Informationen wurden nach bestem Wissen der Autoren und des Verlags zusammengestellt. Gleichwohl sind Fehler nicht vollständig auszuschließen. Daher sind die im vorliegenden Buch enthaltenen Informationen mit keiner Verpflichtung oder Garantie irgendeiner Art verbunden. Autoren und Verlag übernehmen infolgedessen keine juristische Verantwortung und werden auch keine daraus folgende oder sonstige Haftung übernehmen, die auf irgendeine Art aus der Benutzung dieser Informationen entsteht, auch nicht für die Verletzung von Patentrechten und anderer Rechte Dritter, die daraus resultieren können. Ebenso übernehmen Autoren und Verlag keine Gewähr dafür, dass die beschriebenen Verfahren usw. frei von Schutzrechten Dritter sind.
Die Wiedergabe von Gebrauchsnamen, Handelsnamen, Warenbezeichnungen usw. in diesem Werk berechtigt auch ohne besondere Kennzeichnung nicht zu der Annahme, dass solche Namen im Sinne der Warenzeichen- und Markenschutz-Gesetzgebung als frei zu betrachten wären und daher von jedermann benutzt werden dürften.
Dieses Werk einschließlich aller seiner Teile ist urheberrechtlich geschützt. Jede Verwertung außerhalb der engen Grenzen des Urheberrechtsgesetzes ist ohne Zustimmung des Verlages unzulässig und strafbar. Das gilt insbesondere für Vervielfältigungen, Übersetzungen, Mikroverfilmung und die Einspeicherung und Verarbeitung in elektronischen Systemen.
Wer dem richtigen Kunden im richtigen Moment das richtige Angebot machen will, braucht dazu Informationen. Um diese Informationen zu gewinnen und auszuwerten, stehen heute eine Reihe neuer Methoden zur Verfügung. Dieses Buch soll die wichtigsten vorstellen.
Während der Versandhandel seit jeher alle Möglichkeiten des Data-Driven Marketings nutzt, ist dieser Bereich für viele Investitionsgüterhersteller noch Neuland. Dabei finden Geschäftsanbahnungen heute immer seltener auf Messen und immer häufiger online statt. In vielen B2B-Unternehmen kommen die meisten Leads für den Vertrieb inzwischen aus dem Internet.
Wer sich an Verbraucher richtet, muss keine teuren Werbekampagnen mit riesigem Streuverlust mehr bezahlen. Eine Reihe von Techniken erlauben es, die richtigen Zielgruppen in genau dem Moment zu erreichen, in dem auch Interesse besteht. Auch beim Direktmarketing haben undifferenzierte Mailings ausgedient. Inhalte werden heute auf die Interessen der Empfänger ausgerichtet. Predictive Targeting kann voraussagen, welches Angebot bei einem Empfänger auf die höchste Kaufbereitschaft trifft.
Was ist neu? Zunächst einmal die technische Entwicklung, die es erlaubt, immer mehr Daten immer schneller zu verarbeiten. Früher wurden beim Data Mining mühsam Daten aus der Vergangenheit manuell analysiert, um das Konsumverhalten zu erforschen. Heute wird vollautomatisch in Echtzeit berechnet, welches Produkt dem Besucher eines Webshops innerhalb der nächsten Millisekunde präsentiert werden soll.
Und wo früher vielleicht gerade einmal bekannt war, welche Kunden wann welches Produkt gekauft haben, gibt es heute ein Vielfaches an Daten. Der Grund: immer mehr Touchpoints sind digital. Und digitale Kontaktpunkte werden automatisch als Daten protokolliert. Täglich zeigen Kunden über Smartphone und PC, was sie interessiert. Mit dem Internet der Dinge kommen Smartwatch, Navi und iBeacons als Messfühler für Kundenwünsche hinzu. Unternehmen können aus diesen Informationen maßgeschneiderte Angebote machen.
Internet der Dinge und Industrie 4.0 tun ein weiteres: Nicht nur Kunden auch Fabriken sowie Produktions- und Logistikprozesse sind vernetzt. Wem es gelingt, all diese Daten richtig zu interpretieren, kann neue Marktpotenziale erkennen und Vertriebskampagnen besser aussteuern.
In diesem Buch wird beschrieben, was derzeit schon umsetzbar ist und wie Unternehmen dabei vorgehen. Wie funktionieren Treueprogramme? Wie können Kaufabbrecher umgestimmt werden? Wie werden inaktive Kunden reaktiviert? Wie kann Predictive Intelligence die Kosten pro Neukunde drücken? Wie kann die Wirkung teurer TV-Spots gemessen werden? Was bringen statistische Zwillinge? Was lehrt uns die Gaming-Branche? Was ist ein Next Best Offer? Anhand konkreter Beispiele holen Sie sich Anregungen für Ihre eigene Strategie und können mitreden.
Viel Erfolg bei der Umsetzung!
Gabriele Braun & Torsten Schwarz
Massenwerbung ist am Ende. Kunden erwarten heute eine persönliche Ansprache. Dazu wird mehr als nur die korrekte Anrede gebraucht. Die Daten dazu sind vorhanden. Wir müssen nur lernen, richtig damit umzugehen. Begonnen hat alles 1992 mit Database Marketing. Damals schrieb Bernard Goldberg in seinem Lead Generation Handbook über Database Marketing: „This is the newest marketing concept and current buzz word that everyone is using to describe their marketing effort“. Damals ging es lediglich darum, Daten aus Karteikästen in Computer einzugeben. Das Ergebnis war, dass um die Jahrtausendwende jede Abteilung ihre eigene Datenbank hatte. Dann kam mit dem Buzzword CRM der Ruf nach Zusammenführung aller Kundendaten und das Ausrotten der letzten Excel-Tabellen und Karteikästen.
Inzwischen gibt es eine Unmenge neuer digitaler Touchpoints und damit eine Lawine neuer Daten. Big Data lautet die Lösung, aber so einfach ist es leider nicht. Welche Daten können überhaupt sinnvoll miteinander verknüpft werden? Wie wird die Aktualität gesichert? Wie werden Echtzeitdaten integriert? Auf etwa ein Fünftel schätzen Unternehmen den Anteil der fehlerhaften Daten. Tendenz steigend. Das System wird immer komplexer. Höchste Zeit also, systematisch an das Thema heranzugehen und eine klare Strategie zu entwickeln. Gartner prognostiziert, dass ab 2017 das Marketing mehr Geld in die IT investiert, als die IT-Abteilung selbst.
Das Ziel des datengetriebenen Marketings ist es, die Aufmerksamkeit des Kunden zu erlangen. Dazu reichen heute keine kernigen Sprüche mehr. Stattdessen wird relevanter Content benötigt. Datengetriebenes Marketing hat primär zwei Aufgaben: Erst herausfinden, welche Zielgruppen ein ähnliches Interesse haben und dann die dazu passenden Inhalte finden. Dieser Prozess kann voll- oder halbautomatisch erfolgen. Was ist das Angebot, das ein Kunde in diesem Moment mit der höchsten Wahrscheinlichkeit als nächstes kaufen würde. Je mehr Daten bekannt sind, desto valider ist die Vorhersage dieses „next best offer“.
http://www.marketing-boerse.de/Experten/details/Gabriele-Braun
http://www.marketing-boerse.de/Experten/details/Torsten-Schwarz
Wer die Daten hat, kann vorhersagen, welche inaktiven Kunden verloren und welche eventuell wieder zu reaktivieren sind. Es ist wie im echten Leben: Wer sich nicht um seine Freunde kümmert, hat bald keine mehr. Es gibt heute genug Kontaktpunkte, die analysiert werden können und die Aufschluss über die Qualität einer Kundenbeziehung liefern. Wenn über diese Kontaktpunkte über längere Zeit keine Aktivität gemessen wird, sollten die Alarmglocken schrillen. In solchen Fällen kann mit einer E-Mail-Kampagne an inaktive Empfänger eine Kundenbeziehung reaktiviert werden.
Die beiden Klassiker des datengetriebenen Marketings sind die Website und das E-Mail-Marketing. Die Website misst mit einem Webanalyse-Tool alle Besucher und registriert, für welche Bereiche sich wie viele Besucher interessieren. Datengetriebenes Marketing kann bedeuten, dass Besucher in Echtzeit analysiert werden und dann nur diejenigen Produkte angezeigt bekommen, die sie mit der höchsten Wahrscheinlichkeit anklicken beziehungsweise kaufen würden.
Bei E-Mail ist es das gleiche, nur dass hier die Software einen Personenbezug herstellen kann. Wohlgemerkt: Die Software und nicht der Anbieter, denn das Zusammenführen von Nutzungs- und Nutzerdaten ist nach deutschem Datenschutzverständnis nicht zulässig. Professionelle E-Mail-Marketing-Software kann jedoch anonymisiert diese Daten analysieren und dann automatisiert E-Mails an die richtigen Segmente versenden.
Die traurige Realität deutscher Unternehmen sieht leider oft noch so aus, dass es im datengetriebenen Marketing mindestens zwei große Inseln gibt: Die Direktmarketingabteilung hat einen großen Newsletter-Verteiler, an den mit einem professionellen E-Mail-Tool Massenmails verschickt werden. Die CRM-Abteilung hat eine wunderbare Datenbank, die wunderbare Selektionen und hochpersonalisierte Mailings erlaubt – leider aber nur als Print. Die Anbindung des CRM an das E-Mail-System ist zu komplex, sodass mit Inseln gearbeitet wird. Und selbst, wenn aus dem CRM heraus E-Mailings versendet werden, so sind diese oft nicht mit dem Newsletter abgestimmt.
Während die meisten Unternehmen sich noch auf der eben beschriebenen Ebene des täglichen Kampfes um die Vereinheitlichung der Basisdaten herumschlagen, bewegt sich die Welt rasant weiter. Zwei Drittel der Deutschen haben ein Smartphone. Der Umsatzanteil mit Smartphones gegenüber Nicht-Internet-Handys beträgt 98 Prozent. Nicht lange und dann hat jeder einen solchen Kleincomputer in der Tasche. Der registriert penibel, was wann und wo getan wird. Das Smartphone produziert Nutzungsdaten, dass einem schwindelig wird. Und es erlaubt jederzeit an jedem Ort, Informationen abzurufen, um damit kundzutun, was einen gerade interessiert. Die Möglichkeiten kontextbezogener Werbung sind gigantisch, wenn sie richtig umgesetzt werden.
Noch weiter geht es, wenn auch noch Raumthermostate, Autos und Smartwatches als Datenlieferanten hinzukommen. Es geht längst nicht mehr darum, welche Daten da sind, sondern wie diese sinnvoll ausgewertet und interpretiert werden können.
Die Auswertung dieser gigantischen Datenmengen, die dummerweise oft ziemlich unstrukturiert vorliegen, wird als Big Data bezeichnet. Als ob das nicht schon Chaos genug wäre, bekommt man nicht einmal die Zeit, alles in Ruhe auszuwerten und dann seine Aktionen zu planen. Das war früher und hieß Data Mining. Nein, heute muss alles sofort in Echtzeit geschehen. Ein Beispiel dafür ist RTB, Realtime Bidding: Sie besuchen eine Website und sehen dort ein Werbebanner. Nein, denn dazwischen passiert einiges: Sofort nachdem Sie die Website aufgerufen haben, werden Sie gescannt: wer kommt da zu Besuch? Dann wird diese Information an diverse Werbenetzwerke weitergegeben: Wer kennt diesen Nutzer oder hat ein Banner für ihn? Und am Ende wird eine Auktion unter allen Werbetreibenden veranstaltet, wie viel ihnen dieses Banner wert ist. Und all das geschieht binnen Millisekunden.
Am deutlichsten wird die gewachsene Bedeutung der Datenerhebung und -analyse auf der eigenen Website. Akribisch werden Klickpfade und Absprungseiten analysiert. Emotional Usability hilft, die Besucher zu halten und sie schließlich zum bequemen Abschluss zu bringen. Dabei wird nichts mehr dem Zufall überlassen. Predictive Analytics weiß, was Besucher als Nächstes machen. Multivariate Tests optimieren jedes noch so kleine Detail an der Website. Gibt es Probleme, werden diese rechtzeitig erkannt und behoben.
Was an der Tankstelle schon längst Realität ist, hält nun auch im Internet Einzug:Die Preise werden mehrfach täglich gewechselt. Auch hier spielt eine gigantische Datenmaschine im Hintergrund die entscheidende Rolle: Alle Informationen über vergangene Verkäufe, Wettbewerbspreise und Käufervorlieben laufen zusammen und führen zur Anzeige des Preises, zu dem das Produkt am wahrscheinlichsten gekauft wird. Amazon ist hier Vorreiter, aber andere ziehen nach.
Wo ist das nächste gute Restaurant oder der nächste Modeladen? Diese Antwort geben Smartphones schon heute und führen einen auch gleich dorthin. Möglich machen dies Bewertungsdatenbanken, wie Yelp und Foursquare. Google sammelt schon lange eigene lokale Daten, Apple jetzt auch. Bald kann das Smartphone wirklich nützliche Tipps zur Umgebung liefern. Richtig interessant jedoch wird es, wenn auch der Laden selbst vernetzt ist. Mit iBeacons kann genau gemessen werden, wer reinkommt und wo sich die Besucher am liebsten aufhalten. Ähnlich wie Webanalytics, nur eben im echten Leben. Das eröffnet neue Möglichkeiten von datengetriebenem Marketing.
Der permanent mobile Kunde stellt Unternehmen vor Herausforderungen. Ist es die gleiche Person, die gerade am Smartphone etwas sucht, dann am Tablet Bilder dazu anschaut und schließlich am PC bestellt? Die Attribution der Werbekontakte ist ein nicht ganz einfach zu lösendes Problem. Wichtig ist es aber, um die Wirkung der verschiedenen Werbemittel zu ermitteln. War der TV-Spot, die Google-Suche oder die Retargeting-Anzeige am Wichtigsten für die Kaufentscheidung? Damit vor lauter digitalen Messfühlern alles noch bequem gemanagt werden kann, gibt es jetzt Container-Tags. Da werden alle Zählpixel und Cookies in einem System gebündelt.
Die Vernetzung der Systeme, die mit Kundendaten zu tun haben, ist eine große Aufgabe, an die sich viele noch nicht herangewagt haben. Heute hat jedes Unternehmen sein CRM-System. Dieses weiß aber leider nicht, was sich im E-Mail-Versandsystem abspielt. Das Unternehmen weiß zwar, dass nur jede vierte E-Mail geöffnet wird, aber was sich hinter diesen Zahlen verbirgt, bleibt ein Rätsel. Wer sind die Nichtleser? Kann man sie reaktivieren? Und dann gibt es noch das Webanalytics-System. Das weiß genau, wie sich die Menschen auf der Website bewegen, was sie interessiert und wie sie konvertieren. Aber die Wenigsten nutzen bisher die Chance von Retargeting: Wer die Urlaubsplanung unterbricht, wird auf Facebook an die schöne Ferienwohnung an der Algarve erinnert.
Auch mit dem Anschluss des Social Media Monitorings tun sich viele noch schwer. Egal, ob sich jemand beschwert oder begeistert von dem neuen Produkt schwärmt – bei der Marketingabteilung sind alle Kunden gleich. Individualisierung beschränkt sich auf den Namen und vielleicht noch auf eine grobe Segmentierung. Und dass ein Unternehmen es schafft, die Daten aus dem Callcenter oder dem, dank Kundenkarte dokumentierten, Filialbesuch sinnvoll zu integrieren, bleibt wohl eher ein Wunschtraum.
Und was ist der Hauptgrund für das Dilemma? Jede Abteilung des Unternehmens ist Weltmeister in der Analyse des eigenen Datensilos. CRM, E-Mail-Marketing und Webanalytics sind jeweils Spitze. Leider aber immer nur in ihrem eigenen System.
Unternehmen erwarten zu recht große Vorteile durch datengetriebenes Marketing. Ganz oben unter den Erwartungen stehen bessere Informationen zum Konsumverhalten der Kunden. Auch die Aussteuerung von Werbekampagnen wird erheblich profitieren. Eine bessere Einschätzung von Marktpotenzialen steht an dritter Stelle der Antworten, die ausgewählte Marketingexperten der Experton-Group im Rahmen einer Befragung gegeben haben.
Abb. 1: Erwartungen an Big Data und Data-Driven Marketing (Quelle: Experton Group 2012)
Torsten Schwarz: Big Data im Marketing – Chancen und Möglichkeiten für eine effektive Kundenansprache. 324 Seiten, Haufe 2015.
Torsten Schwarz: Leitfaden Marketing Automation – Digital neue Kunden gewinnen. 288 Seiten, marketing-BÖRSE 2014.
LEITFADEN DATA DRIVEN MARKETING
„Big Data“ ist in Deutschland seit Mitte des Jahres 2012 eines der Hype-Themen und wird facettenreich diskutiert. Zum einen werden die verschiedenen Anwendungsbereiche erörtert – vom Einsatz im Gesundheitswesen, über den Einsatz im Sicherheitsbereich und in der öffentlichen Verwaltung bis hin zum Einsatz im Marketing. Zum anderen findet eine Auseinandersetzung mit der technischen und rechtlichen Seite von Big Data statt [1].
Auf Unternehmensseite ist das Interesse an dem Thema zwar groß, doch wissen die meisten Unternehmen nicht, wie und wofür sie Big Data konkret einsetzen könnten. Als eine der Hürden am Markt gilt der Mangel an Anwendungsbeispielen [2].
Vom Begriff abgeleitet, bedeutet „Big Data“ zunächst nur „große Datenmengen“. Diese Bedeutung kennzeichnet jedoch nur seinen Kern. Der Digital-Verband Bitkom stellt folgende Definition auf: „Big Data bezeichnet den Einsatz großer Datenmengen aus vielfältigen Quellen mit einer hohen Verarbeitungsgeschwindigkeit zur Erzeugung wirtschaftlichen Nutzens.“ Weiter heißt es: „Big Data liegt immer dann vor, wenn eine vorhandene Unternehmensinfrastruktur nicht mehr in der Lage ist, diese Datenmengen und Datenarten in der nötigen Zeit zu verarbeiten.“ [3]
Diese Definition zeigt die Vielschichtigkeit von Big Data. Mit den Merkmalen „große Datenmenge“, „Vielfältigkeit“ und „hohe Geschwindigkeit“ charakterisiert sie eine bestimmte Konstellation von Daten. Im weiteren Sinne kann man unter Big Data den Einsatz dieser Daten zur Stiftung wirtschaftlichen Nutzens verstehen. Big Data wird so zu einem Teil der strategischen und operativen Unternehmensführung und Unternehmenskultur. Dies klingt auch im zweiten Teil der Definition mit der Erwähnung der Herausforderungen an die Unternehmensinfrastruktur an. Diese lässt sich in eine institutionelle, personelle und materielle Infrastruktur unterteilen [4].
http://www.marketing-boerse.de/Experten/details/Heinrich-Holland
Die materielle Infrastruktur umfasst die in Big Data enthaltene informationstechnologische Komponente. Je nach Umfeld lassen sich auch einige Big-Data-Definitionen finden, die vor allem auf die IT abstellen [5, 6]. Dieser Aspekt wird aufgrund des Schwerpunkts auf das Marketing im Folgenden lediglich am Rande behandelt.
Mit Big Data ist erstmals eine umfassende Marktanalyse und Marktbeobachtung möglich. Der Beobachtungsradar kann dank Big Data extrem groß und nahezu lückenlos sein. Mit Big Data ist auch genau das Gegenteil des weiten Radars, nämlich eine Fokussierung auf das einzelne Individuum, möglich. Big Data lässt fundierte Vorhersagen direkt aus den Daten und Algorithmen zu, ohne dass deren Ergebnisse einer Interpretation durch Experten bedürfen [7].
Das Beratungsunternehmen Gartner hat Big Data im Jahr 2011 zum ersten Mal in seinen Hype Cycle „Emerging Technologies“ aufgenommen [8]. Nach dem aktuellen Hype Cycle befindet sich Big Data am Ende der ersten von fünf Phasen, der „Technology-Trigger“-Phase, und nähert sich der zweiten Phase an, dem „Peak of Inflated Expectations“. Nach Einschätzung von Gartner wird Big Data in zwei bis fünf Jahren das Plateau der Produktivität erreicht haben [9].
Der große Datenumfang ist das, was Big Data zunächst den Namen gab. Doch was bedeutet groß? Unzweifelhaft steigt das Datenaufkommen zusehends. Allein von 2000 bis 2002 wurden mehr Daten generiert als in den 40.000 Jahren zuvor [10]. Nach einer Studie wird das Datenvolumen von 2005 bis 2020 um Faktor 300 von 130 Exabyte auf 40 Zettabyte wachsen und sich damit etwa alle zwei Jahre verdoppeln [11].
Wird heute zum Teil schon die Verwendung von Daten im Giga- und Terabyte-Bereich als Big Data bezeichnet, plant IBM zusammen mit Astron im Dome-Projekt das Sammeln von 14 Exabyte Daten pro Tag. Diese müssen verarbeitet und täglich in einer Größe von einem Petabyte gespeichert werden [13]. Nicht nur, wenn man sich vor Augen führt, dass ein Exabyte Daten digitalisierter Musik einer Abspieldauer von zwei Millionen Jahren entsprechen, sondern auch verglichen mit den heutigen zuvor genannten Dimensionen kann man dem Dome-Projekt zweifelsohne „Big Data“ bescheinigen. Es übertrifft selbst den vermeintlichen Datenriesen Facebook, der täglich 500 Terabyte Daten verarbeitet, um das 28.000-Fache und lässt somit daran zweifeln, ob die heutigen Datenmengen wirklich „Big“ sind [14].
Abb. 1: Das Wachstum des weltweiten Datenaufkommens 2005-2020 [12].
Betrachtet man zudem die Mooresche Gesetzmäßigkeit [15], nach der sich die Kapazität der Datenverarbeitung alle 12 bis 24 Monate verdoppelt, so kommt man zu dem Schluss, dass die Festlegung einer absoluten Grenze für die Größe von Big Data nicht möglich und nicht sinnvoll ist. Würde man eine derartige Festlegung treffen, würde sich Big Data qua Definition schnell überleben. Selbst das Dome-Projekt würde irgendwann den Charakter von Big Data verlieren.
In Betracht käme die Definition der Größe in Relativität zu den aktuellen Verarbeitungs- und Speichermöglichkeiten. Fraglich ist jedoch, ob dies sinnvoll ist. Allein aufgrund des zeitlichen Fortschritts könnten so Big-Data-Projekte zu Nicht-Big-Data-Projekten werden.
Schließlich ließe sich Größe auch im Sinne der Anzahl der verwendeten Datensätze interpretieren. In diesem Fall ist es nicht aufgrund der zeitlichen Veränderung, wohl aber aufgrund der unterschiedlichen Konstellationen der Einzelfälle nicht sinnvoll, eine absolute Anzahl an Datensätzen als Grenze zu fixieren. Vielmehr ist darauf abzustellen, ab wann ein Mehr an Daten zu einer signifikanten Veränderung des Ergebnisses und der daraus abgeleiteten Erkenntnisse und des Nutzens führt.
Big Data ist im Ergebnis nicht „Big“, wenn gewisse Datengrößen überschritten werden, sondern erst, wenn die Menge der eingesetzten Daten zu einem Ergebnis führt, das mit weniger Daten nicht hätte erreicht werden können.
Die immer größer werdende Datenmenge entsteht nicht zuletzt aufgrund der ständigen Zunahme der Datenquellen. Smartphones, Social Media, Internet-Transaktionen, aber auch Kameras und Sensoren und das Internet der Maschinen produzieren immer mehr Daten. Mit der Vielfalt der Quellen geht die Bandbreite der Datenarten und -strukturen einher. Anhand der Struktur lassen sich Daten grob in drei Arten unterteilen: strukturierte, semistrukturierte und unstrukturierte Daten.
1. Unter strukturierten Daten versteht man Daten, die eine gleichartige Struktur aufweisen. Deren Anordnung und Verknüpfung erfolgt in einer bestimmten Art und Weise. Strukturierten Daten liegt ein zuvor festgelegtes Datenbankmodell zugrunde, das die einzelnen Datenelemente und die Relationen untereinander definiert. Die Struktur ermöglicht eine effiziente Verwaltung und einen einfachen Zugriff auf die Daten. Ein Beispiel für derartige Datenstrukturen sind SQL-Datenbanken.
2. Im Gegensatz zu strukturierten Daten weisen semistrukturierte Daten kein allgemeingültiges einheitliches Schema auf. Sie implizieren die Strukturinformation, auch wenn diese nicht immer offensichtlich ist. Im Gegensatz zu strukturierten Daten sind mit semistrukturierten Daten tiefe, unregelmäßige und volatile Strukturen ohne wiederkehrende Komponenten darstellbar, was einen flexibleren Einsatz ermöglicht. Gleichzeitig verursacht das Mehr an Flexibilität auch ein Mehr an Aufwand beim Auslesen und Verarbeiten der Daten [17]. Semistrukturierte Daten, die auch als strukturtragende oder sich selbsterklärende Daten bezeichnet werden, sind zum Beispiel die im Internet weit verbreiteten HTML-, XML- oder JSON-Dateien, aber auch E-Mails, die zumindest im Header eine gewisse Struktur aufweisen.
3. Unstrukturierte Daten kommen, wie der Name vermuten lässt, ohne jegliche formale Struktur daher. Die fehlende Struktur erschwert die automatische Verarbeitung. Die Modellierung dieser Daten, um automatisch zu verarbeitende Strukturen zu gewinnen, ist oft mit einem Informationsverlust verbunden.
Neben der manuellen Strukturierung der Daten werden unterschiedliche Verfahren zu deren Aufbereitung eingesetzt. Dies sind zum Beispiel Textanalysen und Textmining, maschinenlernende Systeme, basierend auf latent semantischer Analyse [18], statistischer Bayes-Klassifikation oder neuronalen Netzen [19] sowie linguistischen Verfahren [20, 21, 22]. Auf Basis dieser Verfahren werden dann beispielsweise mittels Sentimentanalysen die Stimmungslagen in sozialen Netzwerken analysiert.
Betrachtet man strukturierte und semistrukturierte Daten auf der Ebene eines einzelnen Datums, kann dieses selbst unstrukturiert sein. So ist zum Beispiel die Nachricht einer E-Mail als Text unstrukturiert, wohingegen die E-Mail als solche semistrukturiert ist. Gleiches gilt für einen Text in einer strukturierten Datenbank.
Neben Texten zählen auch Bilder, Videos oder Töne zu unstrukturierten Daten. Schätzungen zufolge sind rund 85 Prozent aller Daten unstrukturiert und beherbergen eine Fülle an nützlichen Informationen [10, 23].
Daten zu erheben, zu speichern und zu verarbeiten ist nicht neu. Was sich bei Big Data ändert, ist die zeitliche Dimension. Die Geschwindigkeit nimmt in der Datenentstehung, der Speicherung sowie in der Datenverarbeitung zu.
Das zuvor beschriebene Datenwachstum geht damit einher, dass in der gleichen Zeit immer mehr Daten entstehen. Diese müssen verarbeitet und zum Teil auch gespeichert werden.
Nicht nur auf der Seite der Datenentstehung, sondern auch bei der Datenverwendung ändern sich im Sinne von Big Data die Anforderungen an die Geschwindigkeit. Kennzeichen von Big Data ist es, dass die Daten schnell verarbeitet werden. Gilt bei Business-Intelligence-Analysen die tägliche Datenverarbeitung als schnell, so meint Big Data damit eine Realtime- oder Near-Realtime-Verarbeitung. Auch hier ist es nicht möglich und sinnvoll, einen starren Grenzwert zu fixieren. Je nach Anwendungsfall können Verarbeitungsgeschwindigkeiten im Millisekundenbereich bis hin zu Sekunden, Minuten oder gar Stunden Realtime beziehungsweise Near-Realtime entsprechen.
Die Steuerung der Auslieferung bestimmter Banner auf einer Homepage, basierend auf einer Big-Data-Analyse, erfordert eine Antwort innerhalb weniger Millisekunden. Wird aufgrund einer Big-Data-Analyse ein neues Produkt evaluiert, können hingegen Minuten bis Stunden ausreichend sein. Diese schnelle Art der Datenverarbeitung wird unter den Fachtermini „Komplexes Event-Processing“ und „Streaming-Data“ zusammengefasst [24].
Technologisch wird dieser Anforderung derzeit mit den sogenannten In-Memory-Datenbanken und der von Google entwickelten MapReduce-Technologie entsprochen, die ein parallelisiertes Verarbeiten einzelner Abfragen ermöglichen [25].
Menge und Vielfalt der Big-Data-Daten bringen Unterschiede in der Qualität der Daten mit sich. Das Anstreben einer möglichst hohen Datenqualität ist auch bei Big Data empfehlenswert. Allerdings hat man nicht immer Einfluss auf die Qualität der Daten und muss deren Volatilität in Kauf nehmen.
So lässt sich beispielsweise eine gewisse Ungenauigkeit in der Standortbestimmung per GPS in den Häuserschluchten von New York nicht vermeiden. Denkt man weiter an die von Menschen erfassten Texte, so kann man sich vorstellen, wie die jeweilige Aufrichtigkeit und Stimmung Einfluss auf die Qualität dieser haben kann [26]. Neben der Qualität der Daten selbst kann auch die Verarbeitung und Auswertung der großen Datenmengen zur Qualitätsminderung beitragen.
Wie eingangs beschrieben, werden die großen Datenmengen unterschiedlicher Struktur und Qualität erst dann zu Big Data im weiteren Sinne, wenn daraus schnell Erkenntnisse und Nutzen generiert werden können. Diese Erkenntnisse sind der Mehrwert von Big Data.
Wenn man die zuvor erörterten charakteristischen Merkmale von Big Data zugrunde legt, würde der Nutzen durch den Einsatz einer großen Zahl von Datensätzen unterschiedlicher Quellen und Qualität entstehen. Fraglich ist, ob immer alle Merkmale erfüllt sein müssen, um eine Unternehmung als Big Data einzustufen. Auch wenn die volle Kraft zumeist in der Kombination von Datenquellen liegt, könnte man sich vorstellen, dass das Fehlen dieser Variety durch eine sehr große Menge von Datensätzen einer Quelle ausgeglichen werden kann.
Big Data beschreibt mehr die Art der Datennutzung und eine dementsprechende Philosophie, als dass es um die rein formale Einordnung einer Unternehmung anhand der zuvor genannten Kriterien als Big Data geht. Big Data ist mehr als die Summe von Kriterien und vor allem mehr als die Summe seiner Daten. Im Kontext dieses Beitrags wird Big Data so verstanden, dass sich durch das Zusammenspiel der Kriterien ein Nutzen ergibt, der ohne diese nicht hätte erreicht werden können.
Abb. 2: Die 5 Vs von Big Data [27].
Big-Data-Marketing bedeutet für Unternehmen eine große Chance. Gleichzeitig stellt es sie aber vor zahlreiche Herausforderungen bezüglich der Technik, der Strukturen und dem Umgang mit den Daten. Diese müssen gelöst werden, um von Big Data profitieren zu können.
Die Basis für Big Data bilden viele Datensätze unterschiedlicher Struktur und eine Technik, die deren Speicherung und schnelle Verarbeitung ermöglicht. Heute findet man in Unternehmen oftmals verteilte Datensilos vor. Die unterschiedlichen Anwendungen wie ERP (Enterprise Ressource Planning), CMS (Content Management System), CRM (Customer Relationship Management), ECMS (Enterprise Content Management System), FiBu (Finanzbuchhaltung) und Webshop bilden ihr eigenes Ecosystem und speichern ihre Daten in separaten Datenbanken. Einige Unternehmen überführen Teile dieser Daten in ein Data Warehouse.
Ein Data Warehouse ist auf strukturierte und gut dokumentierte Daten mit einer durch das Datenmodell sichergestellten Integrität ausgelegt. Weiter ist ein Data Warehouse entsprechend den vom Fachbereich definierten Anforderungen aufgebaut. Die Herangehensweise ist demnach so, dass zunächst die Fragen, die durch die Analyse beantwortet werden sollen, definiert werden. Anhand der notwendigen Analyse wird dann das Data Warehouse aufgebaut oder erweitert. Die Berichtgenerierung im Data Warehouse erfolgt periodisch [28].
Um von der explorativen Big-Data-Analyse profitieren zu können, müssen die Unternehmen eine technische Big-Data-Plattform kreieren und zur Verfügung stellen. Besteht bereits ein Data Warehouse, könnte dies nach Ansicht von IBM um gewisse Big-Data-Komponenten erweitert werden [29]. Diese müssen unstrukturierte Daten in all ihren Formen speichern. Darüber hinaus müsste diese Big-Data-Plattform auch die sogenannten Data in Motion, die auch Streaming Data genannt werden, verarbeiten können. Streaming Data sind Daten, die, zumindest in einem gewissen Zeitintervall, permanent anfallen und in Echtzeit in die Big-Data-Plattform integriert werden müssen. Nur so werden Echtzeitanalysen ermöglicht.
Neben diesen Anforderungen an die Integration muss die Big-Data-Plattform auch die unstrukturierten Daten durch Verfahren wie Sentimentanalysen verarbeiten. Die Verarbeitung sämtlicher Daten muss in der Big-Data-Plattform so performant sein, dass die Abfragen in Realtime beziehungsweise Near-Realtime verarbeitet werden können. Techniken, die hierfür zum Einsatz kommen, sind MapReduce Cluster und In-Memory-Datenbanken [30].
Derartige Plattformen sind derzeit noch relativ neu und mit entsprechenden Kosten verbunden. Jedoch ist aufgrund der technischen Entwicklungen damit zu rechnen, dass diese Techniken schon bald sehr viel günstiger erhältlich sein werden. Eine Studie zeigt, dass derzeit 53 Prozent der befragten Unternehmen Probleme mit der Datenintegration haben. Die aufgezeigten Entwicklungen könnten dabei helfen, diese Probleme zu beseitigen und für eine Big-Data-Basis zu sorgen [31].
Stellt ein Unternehmen allein die technische Plattform zur Verfügung, ist zwar ein wichtiger Grundstein gelegt, Big Data wird jedoch nicht zur vollen Entfaltung kommen. Wie bereits aufgezeigt ist einer der wesentlichen Unterschiede zwischen der Big-Data-Welt und Small-Data-Welt, dass Big Data mehr als nur retrospektive Analysen ermöglicht. Big Data versucht, die Zukunft vorherzusagen. Um diese Vorhersagen zu erstellen, müssen sich Unternehmen darauf einlassen, sich an Daten und Algorithmen zu orientieren. Dafür bedarf es der richtigen Daten, Fragen und Mut. Unternehmen müssen verstehen, dass man grundsätzlich alles vorhersagen kann, die Frage ist nur mit welcher Genauigkeit [32]. Um die Genauigkeit zu verbessern, bedarf es mehr Datensätze eines Typs oder mehr unterschiedliche Datensätze, die für die Vorhersage eine nützliche Information enthalten.
Wollen Unternehmen von der Möglichkeit, mittels Big-Data-Vorhersagen treffen zu können, profitieren, müssen sie die dafür nötigen Daten als Rohmaterial in ihrer Big-Data-Plattform verfügbar machen.
Da die Daten allein nicht preisgeben, welche möglichen Vorhersagen in ihnen stecken, müssen die Unternehmen dazu in der Lage sein, die richtigen Fragen zu stellen. So konnte in einem Fall eine Bäckerei, die sich die Frage gestellt hat, was die Wetterprognosen über den Absatz der Backwaren verraten könnten, die Retourenquoten aus den Filialen drastisch verringern und so die Profitabilität steigern [33].
In einem anderen Fall hat sich die dm-drogerie markt GmbH & Co. KG gefragt, welche Informationen nötig sein würden, um den Mitarbeiterbedarf in einer Filiale pro Tag zu errechnen. Die Antwort lag darin, Daten zu den Tagesumsätzen, Paletten-Anliefer-Prognosen der Verteilzentren, filialindividuelle Parameter wie Öffnungszeit und Größe, aber auch Daten zu Ferien, Markttagen, Baustellen und Wettervorhersagen miteinander zu verknüpfen. Im Ergebnis erhielt das Unternehmen wesentlich genauere Planungen, als sie mit den einfachen Hochrechnungen der Filialverantwortlichen möglich waren [34].
Bei der heute vorherrschenden Datenanalyse wird im Nachhinein versucht, Zusammenhänge zu erklären und Veränderungen festzustellen. Auf Grundlage dieser Analyse werden gegebenenfalls von Menschen Vorhersagen getroffen, um das Unternehmen zu steuern. Die Analyse selbst ist dabei risikofrei. Sie liefert die Erkenntnisse, die die Daten beherbergen. Wenn eine Prognose nicht zutrifft, dann liegt der Fehler nicht in der Analyse, sondern in den daraus gezogenen Schlüssen. Bei Big Data hingegen liefert der Algorithmus direkt die Vorhersage. Aus Sicht der Unternehmen bedarf es daher den Mut, den Zahlen mehr zu vertrauen als den zahlengestützten menschlichen Vorhersagen. Will ein Unternehmen Big Data erfolgreich einsetzen und zu einem echten Big-Data-Unternehmen werden, muss das Management diesen Mut zu einem Teil der gelebten Unternehmensphilosophie werden lassen.
Die Daten, die Technik und der Mut, sich auf Big-Data-Vorhersagen einzulassen, allein reichen nicht aus, um Big Data in einem Unternehmen zu etablieren. Vielmehr müssen auch die personellen und strukturellen Voraussetzungen geschaffen werden.
Big Data kann in nahezu allen Bereichen des Marketings und des Unternehmens sinnvoll eingesetzt werden. In der logischen Schlussfolgerung müssen alle diese Bereiche Zugriff zu den Big-Data-Informationen erhalten. Hierfür müssen Unternehmen die Voraussetzungen schaffen. Ist es so, dass heute die einzelnen Abteilungen „auf ihren Datensilos sitzen“, muss für erfolgreiches Big-Data-Marketing für mehr Datendemokratie im Unternehmen gesorgt werden. Dafür muss im ersten Schritt ermittelt werden, an welcher Stelle welcher Informationsgehalt benötigt wird. Dabei ist nicht primär die Frage zu klären, auf welche Daten die einzelnen Abteilungen zugreifen können, sondern welche Informationen an diesen Stellen benötigt werden [35].
In den Big-Data-Analyseprozess sind in der Regel mehrere Parteien involviert. Prinzipiell kann man hier drei Parteien unterscheiden: die Fachabteilung, die IT-Abteilung und die Analyseabteilung.
1. Die Fachabteilungen sind diejenigen, die die Informationen aus den Daten für ihre Arbeit benötigen.
2. Die IT-Abteilung ist diejenige, die sich um das Big-Data-System, bestehend aus Hard- und Software, kümmert. Da IT-Abteilungen klassischer Weise noch mehr Systeme betreuen, die historisch oder real gesehen mehr Bedeutung haben, muss dies mit zunehmender Bedeutung von Big Data für das Unternehmen in dem Personal- und Budgetplan der IT-Abteilung berücksichtigt werden.
3. Die Analyseabteilung besitzt besondere Analysekenntnisse und kennt sich in den Datenstrukturen aus. Sollte diese Aufgabe im Unternehmen nebenbei von der IT-Abteilung erledigt werden, ist mit der im Big-Data-Zeitalter gestiegenen Bedeutung der Analyse zu prüfen, ob dies auch künftig sinnvoll ist.
Bei der Ausgestaltung der Analyseabteilung sind wiederum drei Konstellationen denkbar.
1. In der ersten Variante könnte es eine zentral organisierte, personalintensive Analyseabteilung geben. Diese versorgt die Fachabteilungen und das Management mit Daten und deren Auswertungen.
2. Eine Alternative dazu wäre eine zentrale Analyseabteilung zu etablieren, die komplexe Analysen und Vorhersagen erstellt und regelmäßig anfallende automatischen Reports, zum Beispiel für das Management, vorbereitet und wartet. Die Fachabteilungen und das Management führen die einfacheren Analysen mit entsprechend einfacher bedienbarer Software selbstständig durch.
3. Eine dritte denkbare Variante wäre, dass es keine zentrale Analyseabteilung gibt, dafür in den jeweiligen Fachabteilungen Experten untergebracht sind, die sich um die Daten, Analysen und Vorhersagen für die Fachabteilung kümmern [36].
Welches dieser drei Modelle am besten geeignet ist, hängt vom Einzelfall ab. Würde man sich beispielsweise für die zweite Variante entscheiden, müsste das Unternehmen auch dafür Sorge tragen, dass die Mitarbeiter der Fachabteilungen entsprechend gut geschult sind, um die Analysen selber durchführen zu können. Eine offene Unternehmenskultur, die den Austausch über die Big-Data-Erfahrungen zwischen den Fachabteilungen, vor allem aber zwischen der Analyseabteilung und den Fachabteilungen begünstigt, sollte forciert werden, um Big Data effizient zu nutzen.
Die Analyseabteilungen müssen mit entsprechenden Spezialisten besetzt werden. Diese Data-Scientists müssten über vielseitige Fähigkeiten verfügen. „[…] [T]he powerful combination of skills […] of data hacker, analyst, communicator, and trusted adviser – all of which must be applied to a specific technology or product“, beschreibt Emily Waltz die entsprechenden Fähigkeiten [37]. Diese Talente dürften auf dem Arbeitsmarkt schwer zu finden sein, zumal es kaum Ausbildungen für dieses neue Berufsbild gibt. Daher ist es für Unternehmen umso wichtiger, sich rechtzeitig um entsprechendes Personal zu kümmern, dieses fortzubilden und sich so Big-Data-Kompetenzen aufzubauen.
Zusätzlich zu den Data-Scientists könnte es unter Umständen sinnvoll sein, auch Data-Designer zu akquirieren oder auszubilden. Die Aufgabe dieser besteht darin, die Ergebnisse, die die Daten liefern, gut verpackt und anschaulich darzustellen, damit sie zum Beispiel in einem Report an das Management schnell verstanden werden [38].
Menschen sind daran gewöhnt, nach der Ursache für eine Gegebenheit zu fragen. Dies liegt daran, dass wir so erzogen wurden und uns die Geschichte und die Naturwissenschaften gelehrt haben, dass es für die Entwicklung vorteilhaft ist, Dinge zu verstehen und die Kausalitäten zu kennen. Zunächst wird eine These aufgestellt, die dann im Anschluss untersucht wird. Im Ergebnis wird diese These entweder bejaht oder verneint.
Mit Big Data haben Unternehmen so viele Daten zur Verfügung, dass es nicht mehr sinnvoll ist, manuell einzelne Thesen für Kausalitäten aufzustellen und diese zu prüfen. Mit den neuen und schnellen Big-Data-Technologien können durch anspruchsvolle computergestützte Analysen Abhängigkeiten automatisch erkannt werden.
Google hat ein Tool entwickelt, das anhand der Suchanfragen Grippe-Trends vorhersagt. Dafür wurden 450 Millionen mathematische Modelle getestet, um die aussagekräftigsten Korrelationen von Suchanfragen mit Krankheiten aufzudecken [39]. Mit manuellen Hypothesen hätte dies nicht bewerkstelligt werden können. Vor allem aber würde es dieses Tool nicht geben, wenn Google auf Kausalität bestanden hätte. Die Grippe-Trend-Vorhersagen basieren auf Korrelationen und somit auf statistischen Wahrscheinlichkeiten.
Heutzutage wollen viele Unternehmen verstehen, warum sich die Kunden so verhalten, wie sie es tun. Dieses Verständnis wollen sie nutzen, um den Kunden besser ansprechen zu können. Doch ist es wirklich nötig, einen kausalen Grund zu kennen? In vielen Fällen reicht es aus zu wissen, dass etwas so ist, wie es ist, ohne die exakten kausalen Zusammenhänge dafür zu kennen. Es ist für ein Geschäft weniger wichtig zu wissen, warum bei bestimmtem Wetter gewisse Produkte besonders gut oder schlecht verkauft werden. Alleine die Information, dass dies so ist, ist für das Unternehmen wertvoll genug, um entsprechende strategische und operative Entscheidungen treffen zu können.
Um von Big Data profitieren zu können, müssen Unternehmen den Trieb nach Kausalität zumindest teilweise aufgeben und das Verständnis für die Macht der Korrelationen etablieren. Sie müssen öfter nach dem „Was“ als nach dem „Warum“ fragen. Dabei könnte es hilfreich sein, sich bewusst zu machen, dass das, was bislang für Kausalität gehalten wird, oftmals gar keine echte Kausalität ist. In der Small-Data-Welt werden Zusammenhänge als kausal betrachtet, weil nicht mehr Informationen vorliegen und somit gar nicht alle Einflussfaktoren berücksichtigt werden können. Insofern könnte das, was als Kausalität betrachtet wird, als eine illusorische Kausalität bezeichnet werden. Philosophische Diskussionen führen sogar soweit, dass es keine Kausalität geben könne. Wenn etwas kausal von etwas anderem abhängen würde, würde dies logischerweise bedeuten, dass es keine freien Entscheidungen gäbe [40].
Korrelationen dürfen jedoch nicht in allen Fällen als ausreichend betrachtet werden. In juristischen Belangen ist es beispielsweise essentiell wichtig, die Kausalität zu kennen. Wenn Unternehmen Korrelationen einsetzen, muss dies auf jeden Fall mit Verstand geschehen und die richtigen Schlüsse müssen gezogen werden. Auf keinen Fall darf die Korrelation mit der Kausalität verwechselt werden und zum logischen Trugschluss cum hoc ergo propter hoc („mit diesem, also deswegen“) führen. Ein solcher Trugschluss wäre zum Beispiel, dass Störche Babys bringen, weil seit Jahrzehnten die Zahl der Störche positiv mit der Geburtenzahl korreliert (Schein- oder Unsinnskorrelation).
Die Qualität der Daten gilt heute als essentiell für die Qualität der darauf aufsetzenden Analysen und Reports. Im Data Warehouse wird die Datenqualität anhand der Merkmale Vollständigkeit, Konsistenz und Zeitnähe beurteilt. Der gesamte Data Warehouse-Prozess ist anhand dieser Merkmale qualitätsgelenkt [41]. Der Grund liegt darin, dass bei wenigen Daten einzelne bis wenige Datensätze schlechter Qualität zu einem falschen Ergebnis führen können. Selbst wenn mehr Daten zur Verfügung stehen, werden diese oft komprimiert, um sie mit den Tools und Systemen in der nötigen Geschwindigkeit verarbeiten zu können. Ein klassisches Beispiel hierfür sind die Data-Marts im Data Warehouse.
Die Big-Data-Technologien versetzen Unternehmen in die Lage, diese Vorselektion und gegebenenfalls anschließende Hochrechnung der Ergebnisse hinter sich zu lassen und stattdessen alle Daten mit in die Analyse einzubeziehen.
Ist die Menge der Daten größer, verliert das einzelne Datum an Bedeutung. Ist es von einer schlechten Qualität, fehlerhaft oder gar fehlend, so hat dies keinen spürbaren Einfluss auf das Ergebnis. Man stelle sich beispielsweise eine App vor, die den Standort eines Benutzers ermittelt, um diesem passende Angebote anzeigen zu können. Würde die App die Standortbestimmung einmal am Tag durchführen, wäre man auf eine fehlerfreie und genaue Bestimmung angewiesen. Würde man die Lokalisierung hingegen jede Stunde oder gar noch öfter durchführen, wäre es unbedeutend, dass die einzelne Messung Fehler behaftet wäre. Die Masse der Daten würde den Fehler ausgleichen. Im Zeitalter von Big Data gilt der Grundsatz „Mehr übertrumpft wenig“ und oft sogar der Grundsatz „Mehr übertrumpft besser“ [42].
Ein anderes Beispiel wäre der Einsatz von Big Data zur Analyse der Marktpreise für ein Produkt. Man könnte diesen durch die manuelle Suche nach Preisen von dem Produkt und Konkurrenzprodukten ermitteln. Diese Preise wären sehr exakt, da ein Mensch sehr gut die unterschiedlichen Erscheinungsformen der Preisauszeichnungen erkennen kann. Andererseits könnte man mittels Big-Data-Analysen das Web, Prospekte, Kataloge und vieles mehr automatisch nach Preisen durchsuchen. Hierbei würden die Bots vermutlich auch einige Preise falsch erfassen. Dafür können wesentlich mehr Daten ermittelt und ausgewertet werden. Im Ergebnis würde dies trotz qualitativ schlechteren Daten zu einem qualitativ hochwertigeren Ergebnis führen.
Diese Beispiele zeigen, dass die einzelne Datenerhebung nicht unbedingt von höchster Qualität sein muss. Es könnte daher sinnvoll sein, mehr günstige und qualitativ schlechtere Messgeräte und -methoden einzuführen als wenige teure, die eine höhere Qualität haben. Selbstverständlich müssen die Daten so gut sein, dass daraus eine belastbare Erkenntnis gezogen werden kann. Eine Premiumqualität ist hingegen bei einer ausreichenden Menge nicht nötig.
Um von Big Data profitieren zu können, müssen Unternehmen verstehen, dass es in der Regel sinnvoller ist, mehr Daten zu haben als wenige Premiumdaten. Dieses Verständnis muss ebenso wie die anderen bereits erwähnten Punkte in der Unternehmenskultur Niederschlag finden.
Bislang haben in Unternehmen Experten ihre Expertisen aufgrund ihrer Erfahrung und den zur Verfügung stehenden Analysen gegeben. Mit Big Data können Vorhersagen allein mit Algorithmen und Daten erstellt werden. Diese Vorhersagen können dabei wesentlich genauer sein als die der Experten. Unternehmen müssen sich darauf einlassen, den Algorithmen mehr zu vertrauen als menschlichen Expertisen.
Dies wird zwangsläufig zu Spannungen mit den Experten führen, da sich diese in ihrer Kompetenz beschnitten und in ihrer Ehre gekränkt fühlen werden. Dabei wird es jedoch nicht sinnvoll sein, eine Entweder-oder-Entscheidung zu treffen. Vielmehr benötigen Unternehmen weiterhin Experten, die zum Beispiel die Big-Data-Ergebnisse hinsichtlich Plausibilität beurteilen. Experten können Trugschlüsse aus Big-Data-Analysen verhindern. Zudem können sie helfen, die richtigen Fragen zu stellen.
Unternehmen stehen somit vor der Herausforderung, ihre Experten auf einen Wandel vorzubereiten. Sie müssen ihren Experten verständlich machen, dass Big Data nicht ihr Feind ist, sondern eine Chance bedeutet. Experten können mit Big Data ihre Expertisen auf mehr und aussagekräftigere Daten stützen. Dafür müssen sie sich hinsichtlich der Einstellung sowie hinsichtlich ihrer Fähigkeiten wandeln. Das „Bauchgefühl“ darf kein überwiegendes Entscheidungskriterium mehr sein, auch wenn es ein wichtiges Instrument für eine positiv kritische Wachsamkeit ist. Dafür müssen Experten mehr statistische und analytische Kenntnisse erlangen. Diese können im Zeitalter von Big Data wichtiger werden als das Fachwissen [43].
Dieser Wandel der Bedeutung und des Einsatzes von Experten wird in Unternehmen einige Reibungen verursachen. Diese scheinen jedoch auf dem Weg zu einem Big-Data-Marketing unumgänglich zu sein.
Unternehmen müssen die Einstellung von Managern, Experten und Mitarbeitern zu dem Umgang mit den Daten, den Analysen und den Vorhersagen ändern. Die Schaffung von strukturellen und personellen Voraussetzungen ist hierfür alleine nicht ausreichend. Auch reicht es nicht aus, den Mitarbeitern die Vorteile von Big Data verständlich zu machen und dies in der Unternehmenskultur zu verankern. Vielmehr müssen der Mut zum Experimentieren und die Akzeptanz des Scheiterns zu einem Teil der Unternehmenskultur werden.
Wie bereits beschrieben, werden in der Small-Data-Welt die Technologie und Methoden an den zuvor festgelegten Bedürfnissen ausgerichtet. Das Risiko, kein Ergebnis zu erhalten, ist hier dementsprechend klein. Die definierten Berichte werden genau die Daten enthalten, die man geplant hat. Die für die Untersuchung aufgestellten Hypothesen werden mit wahr oder falsch beantwortet.
Bei Big Data hingegen ist der Ausgang der Analyse zu Beginn offen. Man weiß nicht, ob und welche verwertbaren Korrelationen und Erkenntnisse gefunden werden. Daher muss der Mut aufgebracht werden, Big-Data-Projekte zu starten, obwohl man deren Ausgang und Wert nicht abschätzen kann. Diese Offenheit, Experimentierfreude und dieser Entdeckergeist muss in einem Big-Data-Marketing-Unternehmen einen hohen Stellenwert einnehmen. Ohne dies wird Big Data nicht effizient genutzt werden können.
Die Verankerung des Muts darf dabei nicht ein formaler Teil der Unternehmensphilosophie bleiben. Er muss gelebt werden und seinen Ausdruck auch in der Bemessung von Budgets finden. Auch die KPIs (Key Performance Indicators), nach denen Mitarbeiter gesteuert und bewertet werden, dürfen das Scheitern eines Big-Data-Projektes nicht ohne Weiteres bestrafen. Vielmehr sollten Anreize für die sinnvolle und effiziente Nutzung von Big Data gesetzt werden, um den Big-Data-Geist im Unternehmen zu fördern.
Big Data kann das Marketing kundenzentrierter werden lassen. Big-Data-Marketing ermöglicht eine 360-Grad-Sicht auf den Kunden. Die datenschutzrechtlichen Anforderungen für die Verarbeitung personenbezogener Daten sind hoch. Ohne personenbezogene Daten ist ein kundenzentriertes Big-Data-Marketing nicht vorstellbar. Daher ist es für Unternehmen essentiell, von Kunden und Interessenten die Genehmigung, ihre Daten für ein zielgerichtetes Marketing verwenden zu dürfen, zu erhalten.
Öffentliche Diskussionen über Datenschutz, Datenvorratsspeicherung und Auseinandersetzungen mit als „Datenkraken“ angesehenen Unternehmen wie Facebook oder Google, etwa wie sie das Unabhängige Landeszentrum für Datenschutz Schleswig-Holstein führt, tragen dazu bei, dass die Verbraucher hinsichtlich ihren Daten und deren Verarbeitung immer sensibler werden [44]. Auch datenbezogene Skandale wie zum Beispiel der Prism-Skandal machen deutlich, dass die negativen Folgen der vielen Daten, wie etwa die Spionagemöglichkeiten, für Verbraucher realer und bewusster werden [45]. Insgesamt könnte mit der Zunahme der Bedeutung von Big Data eine Zunahme der Sensibilität der Nutzer bezüglich des Schutzes ihrer Daten einhergehen.
Die Folge davon wäre, dass die Benutzer künftig nicht mehr so freizügig und leichtfertig ihre Daten preisgeben und deren Nutzung zustimmen. Sie werden künftig mehr abwägen, ob die Kosten, die mit der Einwilligung in die Erhebung, Verarbeitung und Nutzung der Daten verbunden sind, in einem angemessenen Verhältnis zu dem erwarteten Nutzen stehen.
Unternehmen müssen sich dessen künftig noch bewusster als derzeit sein. Dementsprechend müssen sie die Daten der Kunden und Interessenten und die erteilten Permissions als wertvolles Gut betrachten und entsprechend verantwortungsvoll mit diesen umgehen. Unternehmen, die dies nicht berücksichtigen, laufen Gefahr, dass sie keine Permissions erhalten und so um zahlreiche Big-Data-Möglichkeiten gebracht werden. Es muss bewusst werden, dass im Social-Media-Zeitalter Unternehmen, die mit den Daten der Nutzer nicht verantwortungsvoll umgehen, schnell entlarvt werden können. Darüber hinaus werden die Möglichkeiten, die Big Data mit sich bringt, nicht den Unternehmen vorenthalten bleiben. Auch Verbraucher werden durch Big Data neue Möglichkeiten erhalten, sich besser über die Unternehmen informieren zu können.
Auch das in der Datenschutz-Grundverordnung (DG) geplante „Recht auf Vergessen werden“ nach Art. 7 Abs. 4 DG birgt für Unternehmen die Gefahr in sich, dass Verbraucher die Permission entziehen, wenn sie dem Unternehmen nicht mehr vertrauen. Einem Verbraucher, der einmal seine Einverständniserklärung entzogen hat, diese erneut abzuverlangen, dürfte ähnlich schwierig und teuer werden, wie einen neuen Kunden zu gewinnen.
Insgesamt könnte Big Data zu einer Verlagerung der Machtverhältnisse im Umgang mit den Daten führen. Künftig könnten die Verbraucher die Macht erhalten, Unternehmen zu einem verantwortungsvollen und für den Verbraucher nutzenstiftenden Umgang mit den Daten zu zwingen. Dessen müssen sich Unternehmen bewusst sein und sich entsprechend verhalten.
Nach einer Untersuchung des McKinsey Global Institute konnten große Handelsketten, die Big-Data-Analysen nutzen, zwischen 1999 und 2009 im Durchschnitt ein jährliches Umsatzwachstum von neun Prozent erzielen – die anderen lagen unter fünf Prozent. Im Onlinehandel erreichten Nutzer von Big-Data-Analysen plus 24 Prozent – die anderen minus ein Prozent [46].
Der norddeutsche Einzelhändler Dodenhof konnte durch Auswertung der Daten von 450.000 Kunden und 150.000 Transaktionen in seinen 140 Mailings pro Jahr eine achtmal höhere Response-Quote und Conversion-Rate als der Branchendurchschnitt erreichen [47].
Die Studie von Interone „Big Context“ bei 400 Marketingverantwortlichen führte zu folgenden Ergebnissen [47]:
Abb. 3: Herausforderungen an Unternehmen im Big-Data-Zeitalter [46].
• 65 Prozent erwarten, dass die Bedeutung der Daten in der Werbung zunehmen wird.
• 83 Prozent meinen, bessere Entscheidungen zu treffen, je mehr Daten zur Verfügung stehen.
• 71 Prozent der CMOs fühlt sich nicht ausreichend auf die Datenexplosion vorbereitet.
• 37 Prozent fehlt die Kultur im Unternehmen im Umgang mit Daten.
• 38 Prozent wissen gar nicht, welche Daten im Unternehmen zur Verfügung stehen.
• Daten gelten intern als politisch, denn sie machen Erfolg und Misserfolg transparent.
• Für 72 Prozent sind Daten primär im Vorfeld einer Kampagne relevant, während einer laufenden Kampagne versprechen sich nur 13 Prozent einen Erfolg davon.
Das Reiseportal weg.de optimiert auf seinem Weg von Big Data zu Smart Data über ein Multichannel-Tracking von Daten aus Internetsuchen (SEO), Suchmaschinen- und Webanzeigen (SEA), Display-Messungen, Newslettern, Preisvergleichsportalen und TV sein Werbebudget.
Durch die Messung von Leistungsdaten in diversen Online- und Offlinekanälen konnten die Ausgaben stärker dorthin gesteuert werden, wo Kunden mit dem Portal in Interaktion treten. Im Ergebnis wurde der ROI um 144 Prozent erhöht, die Anzahl der Kundenaktionen um 28 Prozent [48].
Big Data ist eines der aktuellen Hype-Themen. Betrachtet man das Thema näher, so zeigt sich, dass es von verschiedenen Standpunkten aus und vor allem unter unterschiedlichem Verständnis diskutiert wird. Grund dafür ist, dass eine einheitliche Definition aktuell fehlt. Während in einigen Quellen hauptsächlich auf die reine Menge der Daten abgestellt wird, scheint es hier sinnvoller, Big Data durch den Mix der fünf Vs Volume, Variety, Velocity, Veracity und Value zu definieren. Big Data ist aber vor allem eine Art der Unternehmensführung und eine Philosophie der Nutzung der Daten.
Big Data wird oft als eine neue Ressource oder als „Rohöl“ bezeichnet. Versteht man die reinen Datenmengen als Big Data, so mag diese Analogie richtig sein. Das Verständnis von Big Data geht aber davon aus, dass die Daten das Rohöl sind. Ähnlich dem Rohöl, das gefördert und raffiniert werden muss, müssen die Daten verbunden und mit Hilfe von intelligenten Algorithmen zu nützlichen Informationen umgewandelt werden. Unternehmen brauchen keine Daten, sie benötigen den Mehrwert, der in den Daten steckt. Big Data führt dazu, dass der Produktionsfaktor Ressourcen um die Daten erweitert wird. Unternehmen werden klären müssen, wer für diese neue Ressource verantwortlich ist. Die Angliederung der Verantwortung im IT-Bereich scheint weniger plausibel als die Kreation eines Chief Data Officer (CDO).
Dass die Daten im Gegensatz zum Rohöl nicht knapp, sondern sich im Gegenteil exponentiell vermehren werden, ist ein unausweichliches Faktum. Die aktuellen Entwicklungen zeigen, dass künftig alles, was datenmäßig ermittelt werden kann, in Daten erfasst werden wird. Smartphones, RFID-Chips und Sensoren haben hier die Grundsteine gelegt. Google Glass, Touch-Fußböden und vernetzte Maschinen werden die Entwicklung fortsetzen. Erste Sensoren, die die Benutzung gewöhnlicher Alltagsdinge wie Trinkflaschen, Gießkannen oder Musikinstrumente in Daten erfassen können, sind bereits entwickelt. Die fortschreitenden technischen Erneuerungen werden dies vorantreiben und dafür sorgen, dass die Welt vollständig datafiziert wird.
Die Recherche nach Praxisbeispielen hat gezeigt, dass es gerade im Bereich Marketing dazu nur wenige Veröffentlichungen gibt. Die meisten Big-Data-Beispiele entstammen den Gebieten öffentliche Sicherheit (wie die Vorhersage von Einbruchsdelikten) und Gesundheitswesen. Wenn es Beispiele gibt, dann sind dies „Leuchtturmprojekte“. Dennoch lassen sich die Möglichkeiten, die Big Data bietet, erahnen. Mit ein wenig Vorstellungskraft und Kreativität kann man mögliche Anwendungsfälle für alle Bereiche des Marketings finden, die die unterschiedlichsten Ausprägungen haben.
Im Kern lässt sich festhalten, dass Big Data im Marketing vor allem drei Dinge ermöglicht.
1. Zum einen ist mit Big Data erstmals eine umfassende Marktanalyse und Marktbeobachtung möglich. Der Beobachtungsradar kann dank Big Data extrem groß und nahezu lückenlos sein.
2. Zum anderen ist mit Big Data genau das Gegenteil des weiten Radars, nämlich eine Fokussierung auf das einzelne Individuum, möglich.
3. Zuletzt lässt Big Data fundierte Vorhersagen direkt aus den Daten und Algorithmen zu, ohne dass deren Ergebnisse einer Interpretation durch Experten bedürfen.
Damit ein Unternehmen zu einem vollständigen Big-Data-Marketing-Unternehmen wird, ist es noch lange nicht damit getan, Daten zu erheben und die technische Plattform, diese verwalten zu können, anzuschaffen und bereitzustellen. Ebenso wenig wie die Anschaffung einer CRM-Software zu einem echten Customer Relationship Management führt, ist dies bei Big Data mit der Big-Data-Plattform der Fall. Auch wenn die derzeitigen Publikationen noch stark von der technischen Komponente geprägt sind, ist es doch so, dass die Software und Hardware bei Big Data zwar wichtig sind, aber eine untergeordnete Rolle spielen werden.
Vielmehr ist es entscheidend, dass Unternehmen eine Big-Data-Kultur entwickeln. Dazu gehört, das Verlangen nach Kausalität zu reduzieren und mit Verstand betrachtete Korrelationen als wertvoll anzusehen. Damit geht einher, dass man den Mut zum Experimentieren als Teil der Unternehmenskultur verankert und mit Anreizen fördert.
Auch gehört dazu, zu verstehen, dass bei Big Data nicht länger die Qualität des einzelnen Datums ausschlaggebend ist. Viele qualitativ schlechtere Daten können bessere Ergebnisse liefern als wenige Daten hoher Qualität. Den Big-Data-Vorhersagen muss künftig das Vertrauen geschenkt werden, das bislang den Experten geschenkt wurde. Letztere sind an ihre neue Rolle im Big-Data-Marketing-Unternehmen heranzuführen, ebenso wie die gesamten Unternehmensstrukturen an die Anforderungen von Big Data anzupassen sind. Dies betrifft vor allem das Abschaffen von Datensilos und die Förderung eines offenen Austauschs im Unternehmen, von dem alle Beteiligten profitieren. Vor allem müssen Unternehmen rechtzeitig damit beginnen, das richtige Personal für ein Big-Data-Marketing-Unternehmen einzustellen beziehungsweise aus- und fortzubilden. Dazu gehört die Schaffung von Data-Scientist-Stellen ebenso wie die Fortbildung der analytischen Fähigkeiten von Mitarbeitern und Managern.
Betrachtet man diese Herausforderungen, so wird klar, dass Big Data kein reines IT-Thema ist, sondern zu gravierenden Veränderungen im Unternehmen führen wird. Big Data ist daher im Management anzusiedeln, wenn es nicht als einzelnes kleines Projekt, sondern im Sinne eines Big-Data-Marketing-Unternehmens betrieben werden soll.
Wie viele und welche der denkbaren Big-Data-Anwendungen datenschutzkonform ausgeführt werden können, ist gerade im Hinblick auf die ungewisse Zukunft der Datenschutz-Grundverordnung und des Problems, dass künftig jedes Datum personenbezogen sein könnte, noch nicht klar zu beantworten. Unternehmen müssen hier den Einzelfall fachmännisch prüfen lassen. Auf jeden Fall müssen Unternehmen den Datenschutz und die Daten sowie Selbstbestimmung der Menschen sehr ernst nehmen und entsprechend rücksichtsvoll und verantwortlich handeln. Gehen Unternehmen hiermit zu leichtfertig um, laufen sie Gefahr, es sich mit den immer kritischer werdenden Benutzern zu verspielen und keine Permissions mehr zu erhalten beziehungsweise vorhandene entzogen zu bekommen. Ohne die Datennutzungserklärung einer Person wird kundenzentriertes Big-Data-Marketing nahezu unmöglich. Ihre Wertigkeit ist für Unternehmen nicht zu unterschätzen. Permissions könnten neben Daten sogar als weiterer künftiger Produktionsfaktor für Unternehmen angesehen werden.
Auch wenn Big Data für die meisten Unternehmen derzeit noch Zukunftsmusik ist, sollten sie sich rechtzeitig mit diesem Thema auseinandersetzen. Sie müssen prüfen, auf welche Daten sie heute zugreifen können. Weiter sollten sie überlegen, welcher Wert in diesen Daten stecken könnte. Hier ist Kreativität wie Mut gefragt. Wenn Unternehmen beides aufbringen, haben sie die Chance, schon jetzt in ersten Testprojekten Erfahrungen zu sammeln. Dabei können auch neue Big-Data-Software-Lösungen wie zum Beispiel Google BigQuery helfen, die keiner großen Investitionen bedürfen [49].
Diese Erfahrungen können später nützlich sein, wenn es darum geht, das gesamte Unternehmen auf Big-Data-Marketing umzustellen. Vor allem können sich Unternehmen so die dringend benötigten Kompetenzen für Big Data aufbauen und Data-Scientists ausbilden. Wenn die Big-Data-Technologien ausgereifter und günstiger sind und Big Data in zwei, fünf oder – je nach Unternehmensgröße und Unternehmensumfeld – vielleicht auch erst zehn Jahren das Plateau der Produktivität erreicht haben wird, werden diese Unternehmen auf das echte Big Data perfekt vorbereitet sein. Spätestens dann werden sie entscheidende Wettbewerbsvorteile durch Big-Data-Marketing haben.
[1] Rossa, P., Holland, H.: Big-Data-Marketing, in: Holland, H. (Hrsg.), Digitales Dialogmarketing – Wiesbaden, 2014, S. 250.
[2] BITKOM (Hrsg.): Big Data im Praxiseinsatz – Szenarien, Beispiele, Effekte – Berlin, 2012, S. 51.
[3] BITKOM (Hrsg.): Big Data im Praxiseinsatz – Szenarien, Beispiele, Effekte – Berlin, 2012, S. 21.
[4] Buhr, W.: What is infrastructure?, Volkswirtschaftliche Diskussionsbeiträge, Diskussion Paper No. 107-03 – Siegen, o. J., S. 4 ff. – http://www.wiwi.uni-siegen.de/vwl/research/diskussionsbeitraege/pdf/107-03.pdf – Zugriff: 28.05.2013.
[5] Bange, C., Grosser, T., Janoschek, N.: Big Data Survey Europe – Würzburg, 2013, S. 12.
[6] Dumbill, E.: Planning for Big Data – Sebastopol, 2012, S. 9.
[7] Rossa, P., Holland, H.: Big-Data-Marketing, in: Holland, H. (Hrsg.), Digitales Dialogmarketing – Wiesbaden, 2014, S. 296.
[8] Pettey, C., Goasduff, L.: Gartner‘s 2011 Hype Cycle Special Report Evaluates the Maturity of 1,900 Technologies – 2011 – http://www.gartner.com/newsroom/id/1763814 – Zugriff: 22.05.2013.
[9] LeHong, H., Fenn, J.: Key Trends to Watch in Gartner 2012 Emerging Technologies Hype Cycle – 2012 – http://www.forbes.com/sites/gartnergroup/2012/09/18/key-trends-to-watch-in-gartner-2012-emerging-technologies-hype-cycle-2/ – Zugriff: 22.05.2013.
[10] BITKOM (Hrsg.): Big Data im Praxiseinsatz – Szenarien, Beispiele, Effekte – Berlin, 2012, S. 12.
[11] Ganz, J., Reinsel, D.: The Digital Universe in 2020: Big Data, Bigger Digital Shadows, and Biggest Growth in the Far East – o. O., 2012, S. 1 – http://germany.emc.com/collateral/analyst-reports/idc-the-digital-universe-in-2020.pdf – Zugriff: 24.05.2013.
[12] Eigene Darstellung.
[13] Engbersen, T.: The DOME Project: Big Data to the Extreme – Vortrag auf dem IBM Management Forum – Berlin, 16.04.2013.
[14] Kling, B.: 500 Terabyte täglich – Datenrausch bei Facebook – 24.08.2012 – http://www.silicon.de/41571372/500-terabyte-taglich-datenrausch-bei-facebook/ – Zugriff: 30.05.2013.
[16] Moore, G.: Cramming more components onto integrated circuits, In: Electronics Volume 38 Nr. 8/1965 – 1965, S. 114-117.
[17] Abiteboul, S., Buneman, P., Suciu, D.: Data on the Web: From Relations to Semistructured Data and Xml – San Francisco, 2000, S. 11-13.
[18] Deerwester, S., Dumais, S., Furnas, G., Landauer, T., Harshman, R.: Indexing by Latent Semantic Analysis, in: Journal of the American Society for Information Science V. 41 Nr. 6/1990 – 1990, S. 391-407.
[19] Rey, G., Wender, K.: Neuronale Netze – Eine Einführung in die Grundlagen, Anwendungen und Datenauswertung – 2. Auflage, Bern, 2011.
[20] Carstensen, K.-U., Ebert, C., Ebert, C., Jekat, S., Langer, H., Klabunde, R.: Computerlinguistik und Sprachtechnologie – 3. Auflage, Heidelberg, 2010.
[21] Ertel, W.: Grundkurs künstliche Intelligenz – 2. Auflage, Wiesbaden, 2009, S. 179-282.
[22] Manning, C., Raghavan, P., Schütze, H.: An Introduction to Information Retrieval – Cambridge, 2009.
[23] Goetz, R.: Data Quality Reboot Series For Big Data: Part 2 Persistence Vs. Disposable Quality – 2012 – http://blogs.forrester-com/michele_goetz/12-09-07-data_quality_reboot_series_for_big_data_part_2_persistence_vs_disposable_quality – Zugriff: 27.05.2013.
[24] Klausnitzer, R.: Das Ende des Zufalls – Salzburg, 2013, S. 91 ff.
[25] Dean, J., Ghemawat, S.: MapReduce: Simplified Daata Processing on Large Clusters – 2004, S. 1 f. – http://research.google.com/archive/mapreduce-osdi04.pdf – Zugriff: 29.05.2013.
[26] Schroeck, M., Shockley, R., Smart, J., Romero-Morales, D., Tufano, P.: Analytics; The real-world use of big data, Executive Report des IBM Institute for Business Value – New York, 2012, S. 5.
[27] Rossa, P., Holland, H.: Big-Data-Marketing, in: Holland, H. (Hrsg.), Digitales Dialogmarketing – Wiesbaden, 2014, S. 255.
[28] Holland, H.: Direktmarketing – 3. Auflage, München, 2009, S. 203.
[29] Thomas, R.: Big Data at the Speed of Business IBM Innovations for a new era! – Vortrag auf dem IBM Management Forum, Berlin, 15.04.2013
[30] Gimnich, R.: Big Data im Kunden-zentrierten Unternehmen – Projekte und Erfahrungen für eine zielorientierte Kundenansprache – Vortrag auf dem IBM Management Forum, Berlin, 16.04.2013.
[31] Kraus, C.: Nachholbedarf in der Datenintegration, in: ONEtoONE Nr. 1/13 – 2013, S. 18.
[32] Hearne, M.: What Big Data Means to an Analytics Geek, in: IBM Big Data Hub (Hrsg.): IBM Big Data Hub Podcast – 2013, Podcast Minute 0:57-1:45 – http://www.ibmbigdatahub.com/sites/default/files/podcast_audio/30%20Talking%20Big%20Data%20-%20What%20Big%20Data%20Means%20to%20an%20Analytics%20Geek%20-%20Marcus%20Herne%20-%202013-05-02.mp3 – Zugriff:14.05.2013.
[33] IBM Deutschland GmbH (Hrsg.): meteolytix erzeugt mit SPSS stückgenaue Absatzprognosen für Bäckereifilialen – 2011 – http://public.dhe.ibm.com/common/ssi/ecm/de/ytc03358dede/YTC03358DEDE.PDF – Zugriff: 04.05.2013.
[34] BITKOM (Hrsg.): Big Data im Praxiseinsatz – Szenarien, Beispiele, Effekte – Berlin, 2012, S. 58.
[35] Pletsch, P.: Datendemokratie in Unternehmen, in: Haberich, R. (Hrsg.): Future Digital Business – Heidelberg, München, Landsberg, Frechen, Hamburg, 2013, S. 207-218.
[36] Gerbig, H.: Erfolgsfaktor Businessanalyse, in: Haberich, R. (Hrsg.): Future Digital Business– Heidelberg, München, Landsberg, Frechen, Hamburg, 2013, S. 149-167.
[37] Waltz, E.: Is Data Scientist the Sexiest Job of Our Time? – 2012 – http://spectrum.ieee.org/tech-talk/computing/it/is-data-scientist-the-sexiest-job-of-our-time – Zugriff: 10.06.2013.
[38] Klausnitzer, R.: Das Ende des Zufalls – Salzburg, 2013, S.163 ff.
[39] Ginsberg, J., Mohebbi, M., Patel, R., Brammer, L., Smolinski, M., Brilliant, L.: Detecting influenza epidemics using search engine query data – 2009, S.4 – research.google.com/archive/papers/detecting-influenza-epidemics.pdfresearch.google.com/archive/papers/detecting-influenza-epidemics. pdf – Zugriff: 02.05.2013.
[40] Mayer-Schönberger, V., Cukier, K.: Big Data: A Revolution That Will Transform How We Live, Work and Think – London, 2013, S. 63.
[41] Hinrichs, H.: Datenqualitätsmanagement in Data Warehouse-Systemen – Dissertation, Universität Oldenburg, 2002, S. 25.
[42] Mayer-Schönberger, V., Cukier, K.: Big Data: A Revolution That Will Transform How We Live, Work and Think – London, 2013, S. 33.
[43] Mayer-Schönberger, V., Cukier, K.: Big Data: A Revolution That Will Transform How We Live, Work and Think – London, 2013, S. 141 f.
[44] Unabhängiges Landeszentrum für Datenschutz Schleswig-Holstein (Hrsg.): ULD erlässt Verfügungen gegen Facebook wegen Klarnamenpflicht – 2012 – https://www.datenschutzzentrum.de/presse/20121217-facebook-klarnamen.htm – Zugriff: 10.06.2013.
[45] Pitzke, M.: Prism-Skandal in USA: Das große Geschäft mit den Mietspionen – New York, 2013 – http://www.spiegel.de/wirtschaft/solziales/prism-private-vertragsfirmen-spionieren-fuer-us-geheimdienst-a-904930.html – Zugriff: 11.06.2013.
[46] Rossa, P., Holland, H.: Big-Data-Marketing, in: Holland, H. (Hrsg.), Digitales Dialogmarketing – Wiesbaden, 2014, S. 295.
[47] Lewinski, F.: Wie aus Daten Kommunikation entsteht – in absatzwirtschaft Sonderausgabe dmexco, 2013, S. 28-31.
[48] Ballhaus, J.: Radikale Kundennähe durch IT – in absatzwirtschaft Sonderausgabe dmexco 2013, S. 34-36
[49]https://cloud.google.com/products/big-query.
Holland, H. (Hrsg.), Digitales Dialogmarketing, Wiesbaden 2014
