Erhalten Sie Zugang zu diesem und mehr als 300000 Büchern ab EUR 5,99 monatlich.
Digital Analytics bezeichnet die Sammlung, Analyse und Auswertung von Nutzungsdaten aller digitalen Kanäle. Das Ziel ist, diese Informationen zum besseren Verständnis der Besucher sowie zur Optimierung sämtlicher unternehmenseigenen digitalen Kanäle zu nutzen. Anhand von Analytics finden Sie heraus, wo sich Schwachstellen befinden und wie Sie Ihre Business-Ziele wie Branding, Leadgenerierung oder Verkauf besser erreichen.
Marco Hassler gibt Ihnen sowohl eine schrittweise Einführung als auch einen umfassenden Einblick in die Tiefe der digitalen Datensammlung und Analytics-Metriken. Mit diesem Buch finden Sie z.B. heraus, welche Traffic-Quelle die wertvollsten Besucher bringt oder wie Sie mittels Analytics-Daten die Persona-Bildung unterstützen können. Auf diese Weise werden Sie Ihre Besucher sowie deren Verhalten und Motivation besser kennenlernen. Darüber hinaus schlägt das Buch auch die Brücke zu angrenzenden Themenbereichen wie User Experience, Customer Journey, Online Branding, Social Media, Digital Marketing und Suchmaschinenoptimierung.
Sämtliche Ausführungen sind anhand vieler Illustrationen aus Google Analytics 4 (GA4) einfach nachvollziehbar, lassen sich jedoch gleichwohl für andere Analytics-Systeme wie Adobe Analytics oder Matomo anwenden.
Aus dem InhaltTeil I: Basis schaffen und Website-Nutzung messen
Sie lesen das E-Book in den Legimi-Apps auf:
Seitenzahl: 545
Veröffentlichungsjahr: 2023
Das E-Book (TTS) können Sie hören im Abo „Legimi Premium” in Legimi-Apps auf:
Marco Hassler
Bibliografische Information der Deutschen Nationalbibliothek Die Deutsche Nationalbibliothek verzeichnet diese Publikation in der Deutschen Nationalbibliografie; detaillierte bibliografische Daten sind im Internet über http://dnb.d-nb.de abrufbar.
ISBN 978-3-7475-0750-6 6. Auflage 2023
www.mitp.de E-Mail: [email protected] Telefon: +49 7953 / 7189 - 079 Telefax: +49 7953 / 7189 - 082
© 2023 mitp Verlags GmbH & Co. KG
Die Wiedergabe von Gebrauchsnamen, Handelsnamen, Warenbezeichnungen usw. in diesem Werk berechtigt auch ohne besondere Kennzeichnung nicht zu der Annahme, dass solche Namen im Sinne der Warenzeichen- und Markenschutz-Gesetzgebung als frei zu betrachten wären und daher von jedermann benutzt werden dürften.
Dieses E-Book verwendet das EPUB-Format und ist optimiert für die Nutzung mit Apple Books auf dem iPad von Apple. Bei der Verwendung von anderen Readern kann es zu Darstellungsproblemen kommen.
Der Verlag räumt Ihnen mit dem Kauf des E-Books das Recht ein, die Inhalte im Rahmen des geltenden Urheberrechts zu nutzen. Dieses Werk, einschließlich aller seiner Teile, ist urheberrechtlich geschützt. Jede Verwertung außerhalb der engen Grenzen des Urheberrechtsgesetzes ist ohne Zustimmung des Verlags unzulässig und strafbar. Dies gilt insbesondere für Vervielfältigungen, Übersetzungen, Mikroverfilmungen und die Einspeicherung und Verarbeitung in elektronischen Systemen.
Der Verlag schützt seine E-Books vor Missbrauch des Urheberrechts durch ein digitales Rechtemanagement. Bei Kauf im Webshop des Verlages werden die E-Books mit einem nicht sichtbaren digitalen Wasserzeichen individuell pro Nutzer signiert. Bei Kauf in anderen E-Book-Webshops erfolgt die Signatur durch die Shopbetreiber. Angaben zu diesem DRM finden Sie auf den Seiten der jeweiligen Anbieter.
Lektorat: Sabine Schulz Sprachkorrektorat: Petra Heubach-Erdmann Coverbild: © wacomka / stock.adobe.com Satz: III-satz, Kiel, www.drei-satz.deelectronic publication: III-satz, Kiel, www.drei-satz.de
Marco Hassler hat Betriebswirtschaft an der Universität St. Gallen studiert und arbeitet heute als Senior Principal Consultant bei Merkle, einem führenden Dienstleister für datengetriebenes Customer Experience Management. Er berät Großunternehmen beim Einsatz von Marketing-Technologien und Daten für ein erfolgreicheres Marketing und ist auf die Themenbereiche Marketing Automation, Customer Experience und Digital Analytics spezialisiert. Seit über 20 Jahren ist er im Digital-Bereich tätig und war über lange Zeit Mitinhaber der Digitalagentur Namics, deren Auf- und Ausbau im deutschsprachigen Raum er mitgeprägt hat. Seit 1998 befasst er sich mit Web-Statistik im herkömmlichen Sinn und seit 2002 mit den betriebswirtschaftlich orientierten und aufs Marketing fokussierten Methoden von Web Analytics. Während dieser Zeit hat er in zahlreichen Unternehmen die Einführung und Nutzung verschiedener Analytics-Produkte wie jene von Google, Adobe, Matomo, Webtrekk oder Webtrends begleitet.
Herr Hassler engagiert sich sowohl als Autor diverser Fachartikel und Whitepapers zu Analytics-Themen wie auch als Speaker an Fachkonferenzen und als Hochschuldozent. Er ist überdies Autor des Buches »Von Data-driven zu People-based Marketing«, das datenbasierte Marketing-Strategien vor dem Hintergrund steigender datenschutzrechtlicher Anforderungen beleuchtet.
Weitere Informationen über den Autor finden sich auf LinkedIn unter www.linkedin.com/in/marcohassler. Für Anregungen und Fragen ist er über die E-Mail-Adresse [email protected] oder auf X unter @mhassler zu erreichen.
Als Google im November 2005 das kostenlose Analytics-System Google Analytics auf den Markt brachte, sorgte das für Aufruhr. Web Analytics war bis dato ein Nischenmarkt. Es gab zwar diverse Anbieter, vornehmlich aus dem US-amerikanischen Raum, doch die Verbreitung der unterschiedlichen Tools und der Umgang damit waren einigen wenigen Experten vorbehalten.
War Web Analytics früher eher in den IT-Abteilungen der Unternehmen angesiedelt, haben einfachere Implementierungsmechanismen und vor allem eine leichtere Usability der Benutzeroberflächen dazu geführt, dass Web Analytics auch für die Marketingabteilungen und Management-Ebenen zunehmend nutzbar wird. Dennoch steckt Web Analytics bei vielen Unternehmen immer noch in den Kinderschuhen.
Das Problem: In vielen Fällen reicht es nicht aus, lediglich ein Analytics-System auf einer Website einzubauen. Die eigentliche Arbeit beginnt bereits vorher mit diversen, individuellen businessabhängigen Fragestellungen. Für welches Tool entscheide ich mich? Welche Kosten kommen auf mich zu? Welche Eigenarten haben die Tools? Was möchte ich überhaupt messen? Welche Ziele verfolge ich mit meiner Website? Welche Aktionen kann ich aus den generierten Zahlen ableiten? Wer muss involviert werden? Welche Kennziffern sind wichtig?
Diese Prozesse sind notwendig, um aus Web Analytics einen wirklichen Mehrwert zu generieren. Hierzu benötigt man fundiertes Wissen und die entsprechenden Hintergründe. Dieses Buch ist ein Kompendium zum Thema Web Analytics, das sämtliche Themengebiete aus dem Bereich abdeckt. Angefangen mit Begriffserklärungen über die technischen Eigenschaften und Eigenarten von Web Analytics bis hin zur operativen Anwendung in Unternehmen. Ein ergiebiges Nachschlagewerk für Web-Analysten, Online-Marketers und Website-Betreiber, die das Ziel haben, mehr aus ihrer Website zu machen. Mehr Umsatz, mehr Erfolg.
Der Bereich der Trafficgenerierung ist schon recht weit professionalisiert. Suchmaschinenwerbung (SEM), Affiliateprogramme, Newslettermarketing, Display-Ads und Suchmaschinenoptimierung (SEO) sind mittlerweile in den meisten Unternehmen angekommen. Viel Geld wird hier ausgegeben. Studien und Experten sagen voraus, dass in nicht allzu ferner Zukunft die Werbeausgaben für das Online-Marketing die Ausgaben für TV-Werbung übersteigen werden. Mittlerweile verbringen viele Menschen mehr Zeit im Internet als vor dem Fernsehen – ein deutlicher Indikator der Wichtigkeit dieses Mediums. Dieser Trend wird eher zu- als abnehmen.
Die reine Generierung von Traffic reicht allerdings nicht aus. Eine Erhöhung des Traffics einer beliebigen Website beispielsweise über Suchmaschinenwerbung von zehn Prozent bedeutet nicht, dass auch der Umsatz um zehn Prozent steigt. Eine genauere Analyse nicht nur der Quantität, sondern vor allem der Qualität des Traffics kann zu Erkenntnissen und damit zu einer Ableitung von Aktionen führen. Aber auch die Gestaltung, der Inhalt und die Navigation der eigenen Website sollten hinterfragt werden. Fragen wie »Welche Traffic-Quelle bringt am meisten Umsatz?«, »Welches Keyword bringt die engagiertesten Besucher?«, »Auf welchen Seiten landen die User?« oder »Welcher Schritt innerhalb eines Bestellprozesses führt dazu, dass User den angestrebten Kauf nicht durchführen?« können beantwortet und zu entsprechenden Handlungsanweisungen umgesetzt werden. Schafft es eine Website durch Änderungen und Optimierungen bei gleicher Anzahl der User, zehn Prozent mehr Abschlüsse zu erzielen, hat dies direkten positiven Einfluss auf den Umsatz.
Web Analytics sollte innerhalb eines Unternehmens einen hohen Stellenwert besitzen und vom Management nach vorn getrieben werden. Die Zeiten, in denen sich einige wenige Mitarbeiter in der IT-Abteilung damit auseinandersetzten, sind vorbei – Web Analytics hat eine ähnliche Wichtigkeit wie die Controlling-Abteilung und betrifft das gesamte Unternehmen; Marketing, IT, HR etc. Die Wichtigkeit des Online-Kanals ist hinlänglich bekannt. Nun liegt es an den Unternehmen, aus den vielfältigen Möglichkeiten des Internets reellen und nachhaltigen (Mehr-) Umsatz zu machen. Die technischen Möglichkeiten sind fortgeschritten – anders als zu Zeiten des Internet-Hypes können heute mit Hilfe von Web Analytics fundierte Entscheidungen getroffen werden, die den Geschäftsverlauf nachhaltig positiv beeinflussen.
Mittlerweile gibt es weltweit mehr als vierzig Millionen Google-Analytics-Konten. Ich bezweifle, dass die Mehrheit dieser Konten aktiv genutzt wird und relevante Erkenntnisse aus den einfließenden Daten gewonnen werden. Aus vielen Kundengesprächen weiß ich, dass oftmals die internen Ressourcen fehlen, mitunter aber auch einfach das Wissen. Viele User fragen sich schlichtweg, »Wie fange ich mit Web Analytics an?«
Bei genau dieser Frage setzt dieses Buch an. Ohne zu sehr auf technische Details einzugehen, vermittelt Marco Hassler nützliches Hintergrundwissen, das Web Analytics in Ihrem Unternehmen professionalisieren kann. Sämtliche Aspekte von Web Analytics, inklusive ihrer Vor- und Nachteile, werden in verständlicher Art und Weise dargestellt. Diverse Grafiken und Screenshots unterschiedlicher Analytics-Systeme helfen beim Verständnis. Ziel dieses Buches ist es, konkrete Kenntnisse zu vermitteln und wertvolle praxisorientierte Tipps zu geben. Ein Muss für jeden Web-Analysten.
Timo Aden
Managing Director, Digitl, www.digitl.net
Websites, Apps oder Portale sind äußerst facettenreich. Bei der Gestaltung eines erfolgreichen Auftritts in diesen digitalen Kanälen muss man deshalb zahlreiche Aspekte aus den unterschiedlichsten Perspektiven berücksichtigen. Dazu zählen Themengebiete wie Usability, Customer Centricity, Suchmaschinenoptimierung, Social Media, Digital Marketing, Branding, User Experience oder eben auch Analytics.
Entscheidend für das Verständnis ist dabei, dass es sich bei all den Themen nicht um etwas anderes, sondern nur um einen anderen Blickwinkel auf immer dasselbe Objekt – die Website oder einen anderen digitalen Kanal – handelt. Bei der User Experience ist es der Blick durch die Erlebnis-Brille des Benutzers, bei der Suchmaschinenoptimierung jener durch die der Suchmaschine.
Bildlich ausgedrückt kann man sich eine Website so auch als Würfel vorstellen, bei dem jede Fläche einen der Blickwinkel darauf darstellt. Wer dann zum Beispiel Usability oder Branding nur aus der betreffenden Sicht betreibt und die anderen Dimensionen vernachlässigt, wird mit einer Website nie erfolgreich werden.
Genauso verhält es sich mit der Sicht »Analytics«. Wer Analytics nur zum Selbstzweck und aus Liebe zu harten Zahlen und aussagekräftigen Auswertungen betreibt, der bleibt in der zweidimensionalen Ansicht gefangen. Erst wenn man auch die anderen Sichten in die Betrachtungen mit einbezieht, wird man eine Website in ihrem vollen, dreidimensionalen Umfang beleuchten und einen wirklichen Mehrwert ableiten können.
Ziel dieses Buches ist es deshalb, nicht nur Analytics für sich allein zu betrachten, sondern auch die anderen Dimensionen und Themenbereiche in die Betrachtungen mit einzuschließen und so eine umfassende Sicht auf eine Website, eine App oder einen anderen digitalen Kanal zu erlangen. Sie werden deshalb in diesem Buch keine Analytics-Kennzahlen-Schlacht vorfinden, sondern die integrierte Betrachtung einer Website mit Analytics als Ausgangsdimension. Die Tangierung und Behandlung anderer Themenbereiche wie eben Usability, Suchmaschinenoptimierung oder User Experience gehört selbstverständlich mit dazu. Das Ganze erfolgt in der Überzeugung, dass man sich nur so dem eigentlichen Ziel nähern kann – nämlich der Gestaltung von für alle Beteiligten erfolgreicheren Websites.
Dieses Buch richtet sich denn auch an all jene, die datengetrieben ein noch besseres und erfolgreiches Website-Erlebnis anbieten möchten. Dazu zählen beispielsweise:
Marketing-Verantwortliche, die mehr Besucher auf die Website bringen und sie da zu einer bestimmten Aktivität bewegen möchten. Sie werden dieses Buch nutzen können, um herauszufinden, welche der Marketing-Aktivitäten am besten bei den einzelnen Zielgruppen ankommt und wie man Besucher am erfolgversprechendsten anspricht.
Inhaltsverantwortliche, die für den Aufbau oder die Erstellung von Inhalten auf der Website zuständig sind. Sie werden einen Nutzen aus dem Buch daraus ziehen, indem sie erfahren, welche Inhalte auf der Website für die Besucher besonders nützlich sind und wie diese zukünftig strukturiert und formuliert sein müssen.
Produktmanager, die das Web als einen Vertriebs- oder Supportkanal für ihr Produkt nutzen. Sie werden lernen, wie sich das Web noch effizienter zur Unterstützung der Verkaufstätigkeiten und zur fortwährenden Nutzung eines Produkts einsetzen lässt.
Digital-Verantwortliche, die generell um eine Verbesserung der digitalen Kanäle bemüht sind. Sie werden sehen, wie sich Analytics dazu nutzen lässt, den digitalen Auftritt besser auf Besucherbedürfnisse abzustimmen, Usability-Hürden aus dem Weg zu räumen und die User Journey zu optimieren. Kommunikations- und Brand-Verantwortliche, die online das Unternehmen und die Marke positionieren möchten. Sie werden Erfolgsfaktoren kennenlernen, die diesem Ziel beisteuern.
Management-Vertreter und CxOs, die eine strategische oder finanzielle Verantwortung für die Website auf höherem Niveau innehaben. Sie werden jene Teile des Buches nutzen können, die die strategische Ausrichtung der digitalen Kanäle behandeln, um zu verstehen, wie darauf Einfluss genommen werden kann. Ebenso hilft es bei der Argumentation, dass Erfolge im Web wie in anderen digitalen Kanälen messbar sind und Return on Investments ausgewiesen werden können.
User-Experience-Designer, die sich mit der visuellen Gestaltung von Websites auseinandersetzen. Sie werden das Buch verwenden können, um festzustellen, welchen Einfluss Gestaltungselemente tatsächlich auf den Erfolg einer Website haben und wie man dies im Design verankert.
System-Administratoren und Betreiber von Websites, die für die einwandfreie Funktion der Website zuständig sind. Sie werden die Ausführungen einsetzen können, um die Funktionsweise der Website zu monitoren und Mängel frühzeitig erkennen zu können. Auch hilft es dabei, die Bedürfnisse, die andere interne Anspruchsgruppen, wie Marketing, an die Website haben, besser zu verstehen.
Teile dieses Buches, insbesondere die einführenden Kapitel, haben einen etwas technischen Blickwinkel. Sie sind jedoch ausführlich erläutert, sodass kein technisches Vorverständnis dafür notwendig ist. Spätere Teile des Buches haben einen betriebswirtschaftlichen Fokus, jedoch braucht man auch für deren Verständnis keinesfalls ein Diplom in BWL. Die einzige Voraussetzung für dieses Buch ist nur das Interesse und der Wille, eine Website noch besser und erfolgreicher zu machen.
Entstanden ist die erste Auflage des Buches in einer Zeit, in der Analytics ein Spezialisten-Thema war und nur wenige Experten sich damit befasst haben. In der heutigen Zeit ist »datengetrieben« in aller Munde. Jeder, der digital erfolgreich sein will, muss daher Entscheide gestützt auf Daten fällen und die notwendigen Methoden und Herangehensweisen kennen. Während sich die Spezialisten heute mit Predictive und Prescriptive Analytics, statistischen Modellen oder Künstlicher Intelligenz in Analytics befassen, bleibt der Anspruch dieses Buches, eine solide Einführung in das Thema Analytics zu bieten. Insbesondere diejenigen, die sich bisher nur oberflächlich mit Analytics oder datengetriebenen Vorgehensweisen befasst hat, wird in dem vorliegenden Buch die Basis finden, um Wissen auf- und auszubauen.
Wer sich dazu entscheidet, seine Website datengetrieben oder mit Analytics-Mitteln zu optimieren, der findet in diesem Buch die notwendigen Schritte dazu. Der Aufbau des Buches richtet sich denn auch an dem Prozess aus, den man von der Einführung von Analytics bis hin zur Etablierung fortwährender Optimierungsmaßnahmen braucht.
Der erste Teil des Buches bis Kapitel 4 befasst sich mit grundlegenden Betrachtungen zu Analytics und schafft das notwendige Basiswissen für die Nutzung. Neben der Erklärung der Funktionsweise von Analytics-Systemen wird insbesondere auf das Sammeln von Daten – der Data Collection – eingegangen. Dabei werden auch die unterschiedlichen Messmethoden bis hin zum modernen Page Tagging untersucht und die Vor- und Nachteile beleuchtet. Auch das Tag Management darf als wichtiges Element in der heutigen Datensammlung nicht fehlen. Überlegungen zu Datenschutz und Datensicherheit runden diesen Grundlagenteil ab.
Der zweite Teil ab Kapitel 5 bis Kapitel 11 fokussiert auf die typischen Metriken, die Analytics-Systeme messen, und bietet eine praxisbezogene Unterstützung bei ihrer Interpretation. Zu den betrachteten Kennzahlen zählen einerseits Standard-Metriken wie Seitenaufrufe, Besucher oder Besuche. Andererseits werden aber auch ausgefeiltere Metriken vorgestellt, die die Dimensionen Traffic-Quellen, Besuchereigenschaften, Besucherverhalten und Inhalte beleuchten. Typische Vertreter aus diesen Kennzahlen-Klassen sind verweisende Websites, Suchmaschinen-Keywords, Kampagnen-Daten, Besuchshäufigkeiten, Absprungraten, Klickverhalten oder nachgefragte Seiten. Auch Metriken aus anderen Kanälen wie Mobile-App oder Social Media werden untersucht. Schließlich stellt dieser Teil sozusagen das Handwerkszeug eines jeden Web-Analysten bereit, das Teil der täglichen oder wöchentlichen Arbeit ist.
Im dritten Teil in den Kapiteln 12 bis Kapitel 16 geht es dann richtig zur Sache, wenn über Conversion-Messungen die Website auf ihre Ziele hin optimiert wird. Solche Optimierungen werden für unterschiedliche Bereiche wie Navigation und Benutzerführung, Marketing-Aktivitäten oder geschäftskritische Prozesse untersucht. Wichtige Usability-Beachtungspunkte und Tipps zur Formulierung von Inhalten oder Gestaltung von Anzeigen ergänzen die Betrachtungen. Das Kapitel 16 zeigt schließlich auf, wie all diese Erkenntnisse auch Einfluss in das Redesign einer Website finden können.
Zahlreiche Abbildungen durch das Buch hindurch versuchen, die textlichen Erklärungen möglichst weit zu unterstützen. Für die beispielhaften Bildschirmansichten aus Analytics-Systemen wird dabei vorwiegend Google Analytics verwendet, soweit dies nicht anderslautend unter der Abbildung angegeben ist. Der Grund für die vornehmliche Verwendung von Ansichten aus Google Analytics ist die einfachere Nachvollziehbarkeit für Leser, da es sich bei Google Analytics um ein lizenzkostenfreies Produkt handelt, das jedermann einrichten und ausprobieren kann.
Die Verwendung von Google Analytics für die Illustrationen stellt allerdings keine Empfehlung dieses Analytics-Systems dar, vielmehr ist das Buch bewusst produktneutral gehalten und keinem Hersteller verpflichtet.
Kapitel 1
Digital Analytics auf einen Blick
Kapitel 2
Funktionsweise der Datensammlung
Kapitel 3
Datenspeicherung
Kapitel 4
Datenauswertung und Präsentation
Es ist ein altes Grundbedürfnis jedes sozialen Wesens, wissen zu wollen, wie das, was man tut oder sagt, beim Gegenüber oder in der Gruppe ankommt. Darin steckt der verborgene Wunsch, in der Gemeinschaft gut aufgenommen zu sein und davon zu profitieren. Während die Zugehörigkeit zu einer Gruppe oder Gemeinschaft früher das Überleben sichern konnte, steckt heute mehr ein Identifikationsgedanke dahinter. Unverändert ist jedoch, dass man auf Feedback der Gemeinschaft angewiesen ist, will man darin nicht nur aufgenommen sein, sondern sich auch noch positiv positionieren.
Allerdings – und auch das kennen wir aus dem privaten Leben – ist der Mensch mit direktem Feedback vielfach eher zurückhaltend. Lob wird viel zu wenig ausgesprochen. Tadel wird zwecks Konfliktvermeidung auch nicht gerne angebracht. Dadurch ergibt sich nach der Theorie der bekannten Sozialpsychologen Luft/Ingham bei jedem Menschen ein sogenannter persönlicher »Blinder Fleck« zwischen dem, was man selbst weiß und wahrnimmt, und jenem, wie einen Dritte wahrnehmen. Je größer der blinde Fleck ist, desto stärker steigt die Gefahr von Missverständnissen, Vorurteilen und Abneigung.
Aber nicht nur im privaten Umfeld, sondern auch in der Geschäftswelt kommen solche Mechanismen zum Tragen. Hohe Popularität, gutes Ankommen bei einer breiten Masse und positive Assoziationen zu einem Produkt oder einer Marke haben einen starken Einfluss auf den Geschäftserfolg. Übergeht man als Unternehmen Wünsche und Bedürfnisse von Kunden und potenziellen Käufern, kann dies im Gegenzug genauso ins Negative umschlagen.
Zu wissen und zu verstehen, wie eine gesendete Botschaft vom Empfänger aufgenommen wird, ist daher nicht nur aus sozialen, sondern auch aus geschäftlichen Gründen äußerst relevant. Entscheidend für das Verständnis der Wahrnehmung einer Botschaft ist die Distanz und das eingesetzte Medium zwischen Sender und Empfänger.
Wenn im Mittelalter neue Gesetze oder Urteile kommuniziert wurden, dann geschah dies in Form einer Bekanntmachung vor versammelter Volksmenge. Durch die Nähe zwischen dem Verkündenden und den Empfangenden war direktes und lautstarkes Feedback auf eine Nachricht durch die Menge möglich. Dass solche nahen Feedbacks dazumal vielfach ungehört abprallten, lag wohl eher daran, dass der monarchische Sender die Distanz suchte und selbst nicht anwesend war.
In späteren Zeiten übernahmen Medien wie Zeitungen eine solche Kommunikationsfunktion für Botschaften. Aus Effizienzsicht stellt dies einen gewaltigen Schritt im Vergleich zur lokalen Verkündung dar. Allerdings wurde dadurch auch die Interaktions- und Feedbackmöglichkeit auf ein Minimum beschränkt. Leserbriefe repräsentieren heute gerade mal einen kleinen Auszug der Meinung der Leserschaft. Das harte Kriterium, das den Erfolg einer Zeitung misst, sind denn heute auch die Verkaufszahlen und die Auflage. Kaufen mehr Leute eine Zeitung, dann wird dies als positive Bewertung der Gesamtbotschaft eingestuft. Geht der Verkauf zurück, stimmt der Inhalt offenbar mit den Bedürfnissen der Leserschaft nicht überein.
Dummerweise zeigen sich solche Feedbacks aber unter Umständen erst Wochen oder Monate später, wenn die Zahl der Abonnenten zurückgeht. Die Beeinflussung und Korrektur einer gesendeten Botschaft wird somit sehr schwer. Auch bei zeitnäheren Erhebungen wie telefonischen Umfragen, bei denen nach Reichweite und Gefallen eines Mediums gefragt wird, bleibt die Antwort oft ungenau. Zu groß ist die zeitliche Distanz zwischen der Fragesituation und dem Zeitpunkt der effektiven Nutzung des Mediums.
Noch schwieriger erweist sich die Angelegenheit bei anderen Einweg-Publikationskanälen wie Plakatwänden. Die einzige Messgröße, die verfügbar ist, ist die geschätzte Anzahl Passanten, die durchschnittlich an der Plakatwand vorbeigeht, gegebenenfalls einen Blick darauf wirft und somit vielleicht die Botschaft wahrnimmt. Wie die Botschaft beim Empfänger aufgenommen wird, entzieht sich dabei komplett dem Sender. Aber auch bei etwas neueren Medien wie Radio und TV besteht dasselbe Problem, dass es eigentlich keinen Rückkanal für Feedback gibt – einmal abgesehen von Smart-TVs mit Internetverbindung wie zum Beispiel HbbTV (Hybrid Broadcast Broadband TV). Wichtige Indikatoren wie das Verhalten der Hörer oder Zuschauer, die zeigen könnten, ob eine Sendung gut oder schlecht ankommt, fehlen damit.
Behelfsmäßig weichen TV- und Radio-Stationen deshalb auf die Beobachtung von repräsentativen Gruppen aus, deren Verhalten mittels »Quotenbox« oder ähnlichen Verfahren speziell gemessen wird. Aus diesen Messungen werden anschließend Hochrechnungen gefahren, die die gesamte Einschaltquote schätzen. Beim Medium Radio stellt sich dies als relativ ungenaues Verfahren heraus, da Radio als Passivmedium gerne auch einmal den ganzen Tag hindurch läuft, ohne dass sich ein Hörer im Raum befindet oder gar aktiv zuhört.
Beim Fernseher ist die Aussagekraft solcher Auswertungen höher, da anhand des Zapping-Verhaltens doch darauf geschlossen werden kann, ob ein Programm gefällt oder nicht. Die relativ rasche Verfügbarkeit der Auswertungen erlaubt zudem eine zeitnahe Reaktion im Sendeprogramm, sofern die Zuschauerquote wiederholt nicht stimmt. Dennoch handelt es sich bei den Zahlen um eine Hochrechnung, die aufgrund der beträchtlichen Unschärfe mit Vorsicht zu genießen ist. Wie genau lässt sich denn wirklich von einigen Tausend ausgewählten Testpersonen auf das Verhalten von Millionen schließen? Auch wenn das Auswahlverfahren nach einwandfreien statistischen Regeln erfolgt: Waren sich alle Anwesenden darüber einig, eine bestimmte Sendung zu sehen oder wegzuzappen? Haben sich die Zuschauer tatsächlich den Werbeblock angeschaut, oder haben sie die Zeit fürs Auffüllen der Snack- und Getränkereserven genutzt? Ein beachtlicher blinder Fleck bleibt bestehen, wo man als Sender der Botschaft nicht genau weiß, wie sie beim Empfänger ankommt.
Ähnlich wie Zeitung, Radio oder TV stellt das Internet ein ähnliches Medium dar, worüber Unternehmen oder Privatpersonen ihre Botschaften nach außen tragen. Genau wie bei den anderen Medien stellt sich auch hier die Frage, ob und wie die Botschaft beim Empfänger ankommt und wie man sie allenfalls besser verständlich, zielorientierter oder wirkungsvoller vermitteln kann.
Im Unterschied zu allen anderen Medien besteht im Web jedoch die Möglichkeit, jeden einzelnen Empfänger grundsätzlich ganz genau zu beobachten und sein Verhalten zu interpretieren. Denn quasi in einer Vollerhebung wird jeder Klick und jede Abfolge von Seitenaufrufen jedes Nutzers ganz genau festgehalten – anders als beim Zappen im Fernsehen oder beim Blättern in der Zeitung. Zwar äußert der Empfänger nur selten seine direkte Meinung über ein Feedbackformular, aber aus dem Verhaltensmuster verschiedener Empfänger auf der Website lässt sich sehr viel erahnen und interpretieren. Diese medial einmalige Gelegenheit, die Empfänger eines Broadcasts in Vollständigkeit zu erfassen und den Einzelnen derart genau zu beobachten und zu verstehen, birgt ein unglaubliches Potenzial in sich. Nämlich die gesendete Botschaft genauestens auf den Empfänger abzustimmen und durch die effizientere und effektivere Kommunikation seinen Geschäftserfolg zu steigern und zu optimieren. Man muss es nur zu nutzen wissen.
Die Disziplin, die dieses Potenzial erschließt, nennt sich heute Digital Analytics. Digital Analytics hat zum Ziel, den Empfänger einer über einen digitalen Kanal gesendeten Botschaft besser kennenzulernen, den Menschen dahinter zu sehen, ihn zu verstehen und zukünftige Botschaften präziser auf ihn abzustimmen.
Schon zu den Anfängen des Internets, als die ersten Websites aufgeschaltet wurden, stellte sich schnell einmal die Frage »Schaut sich das überhaupt jemand an – oder hat noch keiner der spärlichen Nutzer den Weg auf den Server gefunden?« Die Frage nach dem »Ob« änderte sich mit steigender Nutzung schnell in ein »Wie viel«: »Wie viele Seiten werden täglich aufgerufen?«, »Wie viele Besucher nutzen mein Angebot?« Auf dieser Ebene der Fragestellung verharrte dann lange Zeit das durchschnittliche Informationsbedürfnis von meist in der IT angesiedelten Webserver-Verantwortlichen. Zum Teil ist dieses Verständnis von Analytics heute immer noch so in manchen Köpfen verankert.
Digital Analytics ist allerdings weit mehr als die reine Frage nach der Anzahl Seitenaufrufe. Mit dem Platzen der Internet-Blase in den ersten Jahren des 21. Jahrhunderts gesellten sich nämlich vornehmlich betriebswirtschaftliche Fragestellungen über Investitionen in Webangebote und Marketing-Ausgaben zu den reinen Nutzungszahlen. Nicht mehr die Cash Burn Rate – sozusagen die Geschwindigkeit, wie ein Unternehmen Geld zum Fenster hinauswarf – war ein Bewertungskriterium, sondern der Return on Investment (ROI).
Auch normale Webauftritte von Unternehmen wurden dadurch mit Überlegungen zu ROI, das heißt der Rentabilität von Investitionen, konfrontiert. Dank der im Vergleich zu anderen Medien umfassenden Messbarkeit von Online-Angeboten wurde auch die Online-Erfolgsanalyse immer raffinierter. Dementsprechend sind auch die Fragestellungen, mit denen sich Web Analytics seither und Digital Analytics heute beschäftigt, wesentlich differenzierter.
Seit sich die Kundenzentriertheit in der Angebotsgestaltung durchgesetzt hat, hat auch das Nutzer- oder Kundenerlebnis als Erfolgsmerkmal einer Website an Bedeutung gewonnen. Damit treten auch Fragen zur Messbarkeit dieser Erlebnisse stärker in den Vordergrund.
Heute will man typischerweise wissen, wo und warum Besucher eine Website oder einen anderen digitalen Kontaktpunkt erfolglos wieder verlassen, welche Produkte online ein hohes Cross-Selling-Potenzial aufweisen – oder welche von mehreren Digital-Kampagnen auf welchem Kanal die höchste Erfolgsquote und Rentabilität erzielt.
Davon ausgehend wird der Begriff »Digital Analytics« im heutigen Verständnis umfassend für die Messung, Analyse und Auswertung von Daten zwecks Optimierung eines oder mehrerer digitaler Angebote wie Website, Mobile-App, E-Mailing oder Social-Media-Kanal definiert. Im Vordergrund steht dabei eine kanalübergreifende Betrachtung mit dem Nutzer im Zentrum. Brian Clifton, eine der Koryphäen auf diesem Gebiet, definiert dies sehr treffend wie folgt (frei übersetzt):
»Digital Analytics ist das Verfolgen von digitalen Fußabdrücken, um Personen und deren Erlebnisse zu verstehen.«
Der Begriff »Web Analytics« stammt historisch gesehen aus einer früheren Phase, als sich das gleiche Vorgehen hauptsächlich auf den Kanal »Website« fokussierte bzw. andere Kanäle wie Mobile oder Social Media noch kein Gewicht hatten. Im engeren Sinne betrachtet befasst sich »Web Analytics« daher nur mit der Analyse und Optimierung einer Website allein und ist damit ein Teilbereich von Digital Analytics. Allerdings fand früher auch schon unter der Bezeichnung »Web Analytics« eine kanalübergreifende Betrachtung statt, weshalb man Digital Analytics durchaus als zeitgemäße Neubenennung von Web Analytics bezeichnen kann.
Im vorliegenden Buch wird größtenteils der Begriff »Digital Analytics« oder einfach »Analytics« verwendet, zumal das Vorgehen nicht nur für den Web-Kanal allein, sondern für alle digitalen Kanäle gilt. Dennoch stellt auch in der Betrachtung von Digital Analytics die Website den wohl wichtigsten Kanal dar und liegt deshalb häufig im Fokus. Der Begriff »Web Analytics« wird dort verwendet, wo explizit nur der Web-Kanal gemeint ist.
Abb. 1.1: Einordnung von Analytics entlang Medientypen
Angrenzend zu Digital Analytics und Web Analytics werden häufig nachstehende Themen und Begrifflichkeiten genannt:
Page Tagging oder Pixel-Tracking
Logfile-Analysen
Online-Umfragen oder Surveys
Persönliche Interviews und Benutzerbeobachtungen
Was genau hinter den einzelnen Fachbegriffen steckt, soll in den folgenden Abschnitten kurz erläutert werden.
Page Tagging ist dabei wohl die meistgenutzte und verbreitete Methode, um Daten für Web Analytics zu sammeln. Beim Page Tagging wird jeder Seite eines Webangebots ein Code (oder eben »Tag«) eingepflanzt, der die Seitenaufrufe und das Verhalten von Besuchern misst. Rein technisch erzeugt dieser Code ein pixelgroßes Bild, weshalb häufig auch von »Pixel-Tracking« gesprochen wird. Tools, die ein Page Tagging oder Pixel-Tracking unterstützen, führen also mehr oder weniger eine Vollerhebung sämtlichen Traffics einer Website durch – zumindest, soweit Datenschutzbestimmungen dies zulassen. Auf die so gesammelten Daten werden anschließend grafische Auswertungsmöglichkeiten geboten. Der bekannteste und am weitesten verbreitete Vertreter dieser Tool-Gattung ist Google Analytics – ein lizenzkostenfreies Produkt von Google.
Abb. 1.2: Auswertung der Website-Nutzung mittels Google Analytics
Da es sich beim Page Tagging zweifelsfrei um das Hauptinstrument von Web Analytics handelt, ist im allgemeinen Sprachgebrauch mit Page Tagging oder Pixel-Tracking »Web Analytics« gemeint.
Die Logfile-Analysen waren die Vorgänger des heutigen Page Taggings. Die Messmethodik der Logfile-Analyse stammt aus jener Zeit, als das Internet noch hauptsächlich von der Technik selbst und nicht vom darauf aufbauenden Business geprägt wurde. Da jeder Webserver im Internet ganz genau protokolliert bzw. loggt, was er den ganzen Tag durch so tut, entsteht eine Unmenge von Nutzungsdaten bzw. Log-Dateien. Jedes einzelne ausgelieferte Bild, jede gezeigte Seite und jedes Stylesheet – aber auch jeden fehlerhaften Seitenaufruf schreibt der Webserver in ein solches Logfile. Am Ende des Tages wird daraus eine lange Datei, die all diese Informationen in Textform enthält.
Abb. 1.3: Inhalt eines Server-Logfiles
Solche Log-Dateien können sehr wichtige Aufschlüsse geben, wenn es zum Beispiel darum geht, einen bestimmten Funktionsfehler in einer Webanwendung zu finden oder andere technische Analysen zu betreiben. Im Hinblick auf die Optimierung des Web-Angebots tragen sie allerdings nur relativ beschränkt bei. Denn die Sammlung der Daten erfolgt immer aus Sicht des Servers und nicht des Nutzers der Website. Dementsprechend sind die Auswertungen auch eher technisch orientiert denn auf den Besucher-Nutzen fokussiert.
Da bis zum Aufkommen der Page Tagging Tools solche Logfile-Auswertungen jedoch meist die einzige verfügbare Informationsquelle waren, sind diese Tools immer noch verbreitet. Für die Website-Optimierung sollten sie heute aber nur noch gezielt für bestimmte Spezialfälle eingesetzt werden, die später im Buch aufgezeigt werden. Eine Web-Analyse allein auf solche Tools zu stützen, ist dagegen nicht zielführend.
Anstatt sich nur auf die technisch ermittelten Nutzungsdaten zu verlassen, kann es natürlich auch Teil einer Analyse sein, ausgewählten Benutzern konkrete Fragen zu stellen. In Online-Umfragen erfolgt dies, indem nach dem Zufallsprinzip einem Prozentsatz der Website-Besucher meist ein Pop-up eingeblendet wird. In diesem wiederum werden dem Nutzer – möchte er denn an der Umfrage teilnehmen – konkrete Fragen zum Beispiel zum Gefallen der Website oder hinsichtlich des Erfolgs seiner Informationssuche gestellt.
Abb. 1.4: Beispiel einer Online-Umfrage bei Amazon.de
Diese Methodik kompensiert einen wesentlichen Nachteil der bisher genannten Vorgehensweisen wie Page Tagging oder Logfile-Analyse. Letztere liefern nämlich nur Daten-Analysen und geben keine direkten Antworten auf konkrete Fragen. Surveys dagegen können auf sehr spezifische Fragestellungen klar antworten.
Da allerdings nur ein Bruchteil der ausgewählten Benutzer an der Umfrage teilnimmt, stellt sich immer die Frage, wie aussagekräftig solche Antworten im Ganzen sind – selbst wenn die Ergebnisse statistische Signifikanz aufweisen. Gerade wenn für die Teilnahme an einer Umfrage noch ein Geschenk oder Ähnliches versprochen wird, ist die Gefahr der Selektion von inhaltlich unmotivierten Nutzern groß. Auch die Gefahr, Besucher durch inflationären Einsatz von Umfragen zu nerven, ist nicht zu vernachlässigen. Bedachter Einsatz ist daher angebracht.
Nichtsdestotrotz sind aber gewisse Fragen wie zum Beispiel nach dem, was auf einer Website nicht gefunden wurde, kaum effizienter eruierbar. Die Tatsache, dass mit Tools wie Google Forms (www.google.com/forms) oder SurveyMonkey (www.surveymonkey.com) kostenlos und fast binnen weniger Minuten solche Umfragen erstellt und aufgeschaltet werden können, trägt das Ihrige dazu bei.
Die nächste Stufe der Datensammlung ist, anstatt anonym übers Internet Benutzer zu befragen, diese persönlich zu interviewen oder bei der Nutzung einer Website zu beobachten. Im Vergleich zu Online-Umfragen oder Analytics ist dies natürlich um Welten zeitintensiver. Wollte man eine gleiche Anzahl von Benutzern persönlich befragen, würde man wohl seine ganze Arbeitsleistung nur in Interviews und Beobachtungen stecken müssen. Erfahrungsgemäß reichen jedoch fünf bis zehn Benutzer aus, um wesentliche Mängel oder Verbesserungspunkte einer Website zu eruieren.
Lädt man solche Nutzer von der Straße ein, an einem Test im Usability-Labor teilzunehmen oder kann man sie gar zu Hause bei der Nutzung des Internets beobachten, so gelangt man zu äußerst wertvollen Erkenntnissen. Verglichen mit den anderen Methodiken wie Page Tagging oder Umfragen kann man so zum Beispiel feststellen, auf welchen Seiten Benutzer zögern, vergeblich nach etwas suchen oder erfreut oder verärgert reagieren. Solche impliziten Informationen misst sonst kein technisches System. Zudem – und auch das ist nicht ganz außer Acht zu lassen – kann man bei der Beobachtung oder im Interview einem Benutzer Fragen zu seinem Verhalten stellen. Gegebenenfalls lässt sich auch zurückfragen, sollte eine Antwort zu unpräzise sein.
Benutzer-Interviews und -Beobachtungen sind Vorgehensweisen, die auch in der User-Centered-Design-Methodik – der benutzerzentrierten Gestaltung von Websites – zum Einsatz kommen. Entsprechende Überschneidungen zwischen User-Centered-Design und Analytics sind denn auch gegeben, beschäftigen sich doch beide im Grunde mit der Optimierung von Webangeboten auf den Nutzer. Im Vergleich der beiden Vorgehensweisen ist Analytics aber eher die Methodik der vielen kleinen Verbesserungsschritte. User-Centered-Design dagegen stellt den Benutzer noch mehr ins Zentrum der Betrachtungen. Aus dessen Perspektive wird dann hauptsächlich in groben Zügen das Angebot geschnitzt und die härtesten Kanten geschliffen.
Überall, wo es darum geht, ein Abbild der Realität zu schaffen, ist mit entsprechenden Unschärfen zu rechnen. Das gilt für einen Maler, der ein Porträt auf die Leinwand bringt, genauso wie für eine Fotografie, die auf zweidimensionalem Papier eine dreidimensionale Landschaft darzustellen versucht.
Bei Analytics verhält es sich beim Abbilden von Besucher- und Nutzungszahlen natürlich genauso – oder gar noch ausgeprägter. Ausgehend von der Realität können schon bei der Erhebung von Besucher- und Nutzerzahlen Ungenauigkeiten entstehen. Wird wirklich jeder Besucher gemessen? Was passiert mit jenen Besuchern, die ein Tracking ablehnen? Was ist, wenn sich der Besucher hinter einem Proxy-Server befindet, der zum Beispiel für verschiedene Benutzer innerhalb derselben Firma eine Webseite zwischenspeichert? Wie sollen »automatisierte Besucher« wie die Crawler von Suchmaschinen behandelt werden, die automatisch ganze Websites nach Inhalten absuchen? Sind dies auch Besucher?
Auch auf der nächstfolgenden Ebene, der Verarbeitung von Daten, entstehen entsprechende Ungenauigkeiten. Wenn ein Besucher eine Website besucht, zwischendurch einen Telefonanruf erledigt und einen Kaffee trinkt, um anschließend wieder weiterzusurfen – gilt dieses Verhalten dann als einmal die Website besucht oder als zweimal? Und wenn ein ganzes Mittagessen oder eine ganze Nacht zwischen zwei Betrachtungen der gleichen Website fällt?
Schlussendlich sind solche Überlegungen aber noch Marginalitäten, wenn man sich den Interpretationsspielraum bei der Deutung von Auswertungen vor Augen führt. Bedeuten mehr Besucher auf der Website nun wirklich, dass eine durchgeführte Verbesserung erfolgreich war – oder kamen einfach gerade zufällig etwas mehr Benutzer als üblich auf die Website? Heißt eine längere Verweildauer auf der Website nun, dass die Inhalte interessanter sind – oder dass Besucher länger gebraucht haben, um den Inhalt zu finden?
Trotz der vielen Anhaltspunkte, die uns Analytics liefert, um den Besucher zu verstehen, bleibt es aber eine Analyse und kein Orakel. Da wir nur das Verhalten des Besuchers sehen und keine direkten Antworten von ihm erhalten, kann uns auch Analytics keine direkten Antworten geben. Deutung und Interpretation bleibt die Aufgabe des Analysten, die Antworten muss man immer noch selbst finden.
Da wir aber im täglichen Leben gewohnt sind, das Verhalten anderer zu interpretieren und mit unserem Menschenverstand Schlüsse zu ziehen, ist dies keine Hexerei, sondern ein Lernprozess. Unsere Hauskatze antwortet uns ja auch nicht mit »Ja« oder »Nein« auf die Frage, ob die eben vorgesetzte neue Futtersorte denn schmeckt. Wenn wir aber beobachten, wie sie innerhalb von Minuten die Schale leerfrisst – oder nach zwei, drei Mal Dranschnuppern davonläuft –, wissen wir dies richtig zu interpretieren. Selbst weniger eindeutige Verhaltensweisen wie wiederholtes Miauen lernen wir je nach Kontext als »ich will raus«, »ich hab Hunger« oder »bitte streicheln« zu deuten – oder zumindest im Trial-and-Error-Verfahren nacheinander auszuschließen.
Auch wenn im Verlaufe dieses Buches Fragestellungen und Interpretationen rund um verschiedene Online-Angebote und Maßnahmen sehr differenziert beleuchtet und teilweise beantwortet werden, bleibt jedoch ein Grundsatz erhalten: Analytics ist keine exakte Wissenschaft. Keine Zahlen stimmen genau oder bilden exakt die Realität ab. Je genauer man sein will, je mehr man rechnet und Summen zieht, desto deutlicher wird, dass Analytics-Daten nie wirklich exakt stimmen. Um zum Beispiel die genaue Anzahl von Bestellungen zu zählen, sind die Analytics-Methoden daher weniger geeignet. Dazu müssen andere Auswertungen zum Beispiel auf Datenbank-Ebene oder in einem Enterprise-Ressource-Planning- (ERP-) System genutzt werden.
Für das Ziel, dem Digital Analytics dient, nämlich der Verbesserung von digitalen Kanälen und dem dahinter stehenden Digital-Business, müssen die Zahlen aber glücklicherweise auch nicht ganz exakt sein. Denn um herauszufinden, ob zum Beispiel eine überarbeitete Website besser funktioniert und zielführender ist, ist der einzelne Besucher oder Klick nicht relevant. Interessanter sind da schon prozentuale Veränderungen zum Beispiel in einem Vorher/Nachher-Vergleich. Ob es dann absolut betrachtet einige Besucher mehr oder weniger waren, gleicht sich im Verhältnis aus. Viel wichtiger ist es, mit solchen ungefähren Werten zu arbeiten und Schlüsse daraus zu ziehen, statt auf Genauigkeit zu pochen und dafür am Ziel vorbeizuschießen. Schon Warren Buffet, ein amerikanischer Börsen-Investor, pflegte – wenn auch in anderem Kontext – zu sagen:
»Es ist besser, ungefähr richtig zu liegen, als exakt falsch.«
Mit genau dieser Einstellung muss man Analytics zu nutzen versuchen.
Trotz des Bewusstseins für Unschärfen darf man dies aber nicht als grundsätzliche Aufforderung zur Ungenauigkeit verstehen. Denn genau wie in angrenzenden Disziplinen wie jener der Sozialwissenschaft und der Statistik ist eine strukturierte Vorgehensweise erforderlich. Manche Methoden wie Online-Umfragen oder Interviews entstammen denn auch der empirischen Sozialforschung. Für die Erstellung von Fragen, Auswahl von repräsentativen Benutzern und Auswertung von Ergebnissen sind dann auch entsprechend wissenschaftliche Herangehensweisen nötig. Lässt man die Grundlagen außer Acht, ist die Gefahr groß, dass Fragen falsch, nicht abschließend oder suggestiv gestellt werden und die Ergebnisse beeinflussen.
Ebenfalls ist die Durchführung von Auswertungen solcher Umfragen nicht gerade trivial, da statistische Werte wie Varianz, Mittelwert oder Standardabweichung berechnet und interpretiert werden müssen. Auch die Auswahl einer Stichprobe, zum Beispiel jener Personen, die für eine Befragung herbeigezogen werden und die Grundgesamtheit repräsentieren sollen, ist entscheidend. Repräsentiert diese Gruppe nicht die Grundgesamtheit, haben entsprechende Auswertungen nur beschränkte Aussagekraft oder sind gar unbrauchbar.
Wer gerade wegen der genannten Begriffe aus Statistik und Sozialwissenschaft die Luft anhielt und sich mit leichtem Schaudern in die Schulzeit zurückversetzt fühlte, darf getrost wieder ausatmen. Denn selbst wenn Verbindungen bestehen, ist Analytics keine Statistik und keine Sozialwissenschaft. Analytics ist im Vergleich dazu wesentlich mehr auf Marketing und betriebswirtschaftlichen Nutzen fokussiert und mit einer gesunden Prise Pragmatismus gewürzt. Anstatt lange Datenreihen zu wälzen, zählt vielmehr, mit vernünftigem Aufwand aus einer Fülle von Informationen jene herauszufiltern, die für das eigene Business oder die eigene Website mehr Erfolg versprechen.
Analytics hat also einen etwas schalen Beigeschmack bestehend aus Statistik und Sozialwissenschaft, liefert nur ungenaue Zahlen und ist vermutlich zeitraubend. Obendrein ist es noch mühsam, da man selbst viel mitdenken muss – lohnt es sich wirklich, sich so etwas anzutun?
Wahrscheinlich hätten Sie dieses Buch gar nicht erst in der Hand, wenn Sie diese Frage unbewusst für sich nicht schon mit einem »Ja« beantwortet hätten. Um es sich nochmals vor Augen zu halten, hier deshalb die zehn Gründe, warum man die Mühen von Analytics auf sich nehmen sollte:
Wenn man schon Zeit und Geld in Websites, Apps, Blogs etc. investiert, dann sollte man vielleicht auch wissen, ob das Angebot überhaupt genutzt wird. Alles andere ist Ignoranz und Überheblichkeit – und zum Fenster hinausgeworfenes Geld.
Genauso wie man sich für die Befindlichkeit eines Gastes zu Hause interessiert, sollte man sich auch um das Befinden von Besuchern auf der Website kümmern. Frustrierte Besucher kommen wahrscheinlich nicht wieder oder reden gar schlecht über einen. Besucher, die sich auf einer Website gut aufgehoben fühlen, sich schnell orientieren können und das Gewünschte finden, sind zufriedener. Zufriedene Besucher kommen gerne wieder oder werden gar zu Kunden.
Jeder bessere Verkäufer fragt zuerst den potenziellen Kunden nach seinen Vorstellungen, anstatt ihn einfach mit irgendwelchen Informationen einzudecken. Wenn man online etwas verkaufen oder Business generieren möchte, muss man ebenfalls zuerst die Bedürfnisse der Besucher kennenlernen.
Es reicht nicht, sich nur all zwei, drei Jahre beim Redesign einer Website Überlegungen zu Besucherbedürfnissen und Kundenzufriedenheit zu stellen. Denn im Internet ändern sich Situationen und Stimmungen wesentlich schneller. Die Gefahr, dass man dann einen Trend verschläft oder immer Jahre hinterherhinkt, ist beträchtlich.
Eine Website – auch wenn sie vermeintlich immer dieselbe bleibt – ändert sich doch ständig. Inhalte werden ergänzt oder gelöscht, kleinere oder größere technische Modifikationen vorgenommen oder Kampagnen auf- und abgeschaltet. Es gibt nicht viel Peinlicheres, als wenn man von Dritten hören muss, dass die eigene Website nicht verfügbar war oder ein Bestellprozess nicht funktioniert hat – ohne oder bevor man es selbst gemerkt hat.
Man kann eine Website durchaus als passives Instrument und notwendiges Übel verstehen. Spätestens seit der Corona-Pandemie sollte jedoch allen Unternehmen bewusst sein, dass das Internet nicht mehr aus dem Alltag der Nutzer wegzudenken ist – egal ob im Business-to-Consumer- (B2C) oder Business-to-Business-Umfeld (B2B). Wer aktiv etwas bewirken will im Web, der muss steuern, statt nur mitzufahren. Steuern heißt, auch nach vorne auf die Straße zu sehen und das Armaturenbrett im Blick zu haben.
Wenn man das Instrument Analytics richtig einsetzt, dann lassen sich weit größere Aufwände an anderer Stelle verringern. Ein FAQ- oder Support-Bereich, der auch wirklich die richtigen Fragen verständlich beantwortet, erspart beispielsweise Anrufe im Callcenter. Adressänderungen, die vermehrt über einen Online-Prozess statt auf dem brieflichen Weg ausgeführt werden, ersparen Administrationskosten.
Wer Hürden in der Navigation beseitigen kann, Problemstellen in einem Bestellprozess behebt oder herausfindet, welche Produkte gerne zusammen bestellt werden, kann mehr verkaufen.
Analytics spart bares Geld: Wenn man herausfindet, welche von mehreren Werbungen oder Plattformen zu den meisten Verkäufen und zum höchsten Ertrag geführt hat, dann kann man bei der nächsten Kampagne das Geld am richtigen Ort einsetzen.
Wer will schlussendlich mit seiner Website nicht einfach fortwährend seinen Erfolg steigern?
Wer sich die eben aufgezählten Chancen nicht entgehen lassen will, sollte Analytics als Instrument dazu einsetzen. Allerdings ist Analytics nicht eine einmalige Angelegenheit, sondern ein fortwährender Prozess mit vielen kleinen Zwischenschritten. Man kann es also nicht einfach einmal machen und dann ist es abgehakt. Vielmehr muss man sich ständig damit befassen, im Idealfall täglich.
Wenn man fortwährend kleine Schritte macht, besteht aber auch die Gefahr, nicht mehr geradeaus auf ein Ziel zuzugehen, sondern sich auf ungeraden Pfaden zu bewegen oder gar Schleifen zu drehen. Ein strukturiertes Vorgehen mit klaren Meilensteinen auf dem Weg zum Ziel ist daher unbedingt vonnöten. Bewährt haben sich dabei folgende drei Stufen hin zur nachhaltig erfolgreichen Digital-Präsenz:
Basis schaffen und Website-Nutzung messen: Einmalig die Grundlagen von Analytics lernen, passende Analytics-Methoden und ein Analytics-System einführen und damit beginnen, Daten zu sammeln.
Metriken analysieren und interpretieren: Fortwährend die Auswertungen überwachen, bei Ausreißern Ursachenforschung betreiben und Verbesserungen implementieren.
Erfolg nachhaltig steigern: Ein zielorientiertes Modell etablieren und die digitale Ausrichtung von Website und anderen Online-Kanälen darauf optimieren.
Abb. 1.5: Vorgehensweise für eine Analytics-Einführung und -Etablierung
Entlang dieser Stufen ist übrigens auch das Buch, das Sie in Händen halten, aufgebaut. Jede Stufe, sowohl im Buch wie in der Analytics-Praxis, ist dabei die Voraussetzung für die Erreichung der nächsthöheren. Einmal durchschrittene Stufen wie das Interpretieren von Analysen oder die Implementierung von Verbesserungen sind dabei nie abgeschlossen, sondern werden fortwährend wiederholt. Anders ausgedrückt heißt das für die nachhaltige Erfolgssteigerung und den fundierten Einsatz von Analytics:
einmalig ein Analytics-System einführen und fortwährend messen
wöchentlich oder öfter Auswertungen und Metriken interpretieren
monatlich oder öfter Verbesserungen an der Website vornehmen und überprüfen
jährlich mit den strategischen Online-Zielen abgleichen und generelle Anpassungen oder Redesigns der digitalen Kanäle angehen
Eine solche Vorgehensweise sorgt dafür, dass nicht ein allzu bekanntes Phänomen auftritt – nämlich dass nach der ersten Euphorie über die neuen Möglichkeiten das Ganze nach einigen Wochen wieder im Tagesgeschäft verloren geht. Mit lediglich etwas Disziplin lässt sich so nicht nur die dauerhafte Fortführung der Erfolgssteigerung gewährleisten. Auch werden die Anpassungen und Verbesserungsmaßnahmen so portioniert, dass man sich nicht gleich am Anfang verschluckt. Selbst wenn Auswertungen gröbere Mängel an der Website zutage bringen, sollten trotzdem zuerst jene mit dem besten Verhältnis zwischen Aufwand und Wirkung realisiert werden. Eine monatliche Planung und Priorisierung solcher Anpassungen und eventuell gar ein Aufschub von umfangreicheren Aufwänden auf ein nächstes Redesign schützt vor Verzettelung.
Die Grundlage für die Nutzung von Analytics ist ein geeignetes Analytics-System. Die Anzahl der am Markt verfügbaren Produkte ist trotz einer fortschreitenden Marktkonsolidierung immer noch recht groß und unübersichtlich. Das Spektrum der Angebote reicht dabei von der kostenlosen Einfachlösung bis hin zum mehrere Hunderttausend Euro teuren High-End-Produkt. In dieser Bandbreite das richtige und auf die eigenen Bedürfnisse passende Produkt zu finden, ist nicht ganz einfach.
Für eine erste Vorselektion der Produkte lassen sich aber folgende zentrale und nicht-funktionale Entscheidungs-Dimensionen heranziehen:
Interner Betrieb oder gemietete Lösung
Anforderung an den Datenschutz (zum Beispiel Datenspeicherung in Europa)
Anforderungen an notwendige Schnittstellen (zum Beispiel API) und Integrationsfähigkeit in andere Systeme
Marktanteil und Zukunftsträchtigkeit des Anbieters
Angebot an Support und Schulungen
Kosten (initial und laufend)
Je nach Entscheid und Gewichtung kann mittels dieser »harten Faktoren« rasch eine Vorselektion auf eine Handvoll Anbieter erfolgen. Darüber hinaus wird es aber schwierig, Produkte voneinander zu unterscheiden, ohne deren »weiche Faktoren« im Detail zu kennen. Anforderungskataloge und Produktpräsentationen helfen hier meistens wenig weiter, wenn man selbst seine funktionalen Anforderungen noch nicht so genau kennt und sich nicht auf die Feature-Show von Produktverkäufern einlassen will.
In der Praxis versteckt sich deshalb vielfach hinter einem aufwendig betriebenen Produkt-Evaluationsverfahren lediglich eine Auswahl nach folgendem Ablauf – selbst wenn das keiner zugeben mag:
Entscheid interner Betrieb oder Mietlösung
Entscheid Einsteiger- oder High-End-Produkt
Auswahl des Marktführers in entsprechendem Segment
Dieses Vorgehen ist grundsätzlich legitim – wobei man sich dann aber ein langwieriges Evaluationsverfahren auch sparen und gleich entscheiden kann.
Allerdings birgt das Vorgehen die Gefahr, dass man später ein System im Einsatz hat, bei dem die Messung von spezifischen, fürs eigene Geschäft relevanten Kennzahlen aufwendiger ist als bei anderen Systemen. Will man dies vermeiden und bereits in der Evaluation berücksichtigen, dann muss man aber sehr genau wissen, welche Website-Ziele man verfolgt und welche Kennzahlen man messen möchte. Ist dies der Fall, dann kann man einen detaillierten funktionalen Kriterienkatalog ausarbeiten und die Produkte anhand ihres Erfüllungsgrads der Kriterien gegeneinander abwägen. Vermeiden sollte man dann aber unbedingt, sich von irgendwelchen netten Zusatzfeatures verleiten zu lassen, die zwar interessant scheinen, jedoch keinen Vorteil im Hinblick auf die definierten Anforderungen bringen.
Der Normalfall bei der Auswahl eines ersten Analytics-Produkts sieht aber so aus, dass man sich noch nicht im Klaren ist, welche Kennzahlen und Metriken denn eigentlich nun die wichtigsten zur Zielerreichung bzw. fürs eigene Geschäft sind. Um dies herauszufinden, müsste man nämlich schon ein Analytics-System im Einsatz haben – ein typisches Huhn-Ei-Problem. Sich nun einfach darauf zu verlassen, dass man sicher ungefähr die gleichen Anforderungen hat wie andere Unternehmen, ist ebenfalls gefährlich – denn kein Business gleicht dem anderen. Statt einer zeitaufwendigen Evaluation, die viel Geld kostet und während der noch keine Daten gesammelt werden, empfiehlt sich in solchen Situationen folgendes Alternativvorgehen:
Bauen Sie Google Analytics, Matomo (früher Piwik) oder ein anderes kostenloses oder kostengünstiges Analytics-System in Ihre Website ein. Die Anmeldung zu Google Analytics ist kostenlos und in rund fünf Minuten erledigt. Der Einbau des Page Tags ist ebenfalls nur mit einigen wenigen technischen Handgriffen verbunden und wird Ihre IT-Verantwortlichen oder Webagentur vor keine großen Herausforderungen stellen.
Lassen Sie Google Analytics oder Matomo in den folgenden zwei Wochen Daten sammeln.
Untersuchen Sie in den darauf folgenden zwei bis vier Wochen die Standard-Auswertungen, so wie sie in diesem Buch in Teil II beschrieben sind. Sie verschaffen sich damit einen groben Überblick, wie Analytics funktioniert und was Sie erwarten können.
Werden Sie sich anschließend über Ihre Website-Ziele und die wichtigsten Schlüsselindikatoren für Ihren Geschäftserfolg klar, so wie dies in Teil III dieses Buches beschrieben ist. Dank dieser Informationen wissen Sie, was Sie eigentlich messen müssten mit einem Analytics-System – sozusagen das Soll.
Definieren Sie aufgrund dieser Erkenntnisse Ihre Anforderungen an ein Analytics-System und führen Sie eine Produktevaluation durch, in der Sie Produkte genau auf diese Kriterien prüfen. Da Sie sich nun bereits mehrere Monate mit einem Analytics-Produkt beschäftigt haben, wird Ihnen kein Produktanbieter mehr das Blaue vom Himmel versprechen können.
Werden Sie sich bewusst, dass ein guter Web-Analyst wesentlich mehr bringt als das beste Analytics-System. Bevor Sie viel Geld in ein Tool investieren, sollten Sie mindestens so viel Geld dazu verwenden, für Analytics verantwortliche Personen einzustellen. Wenn Ihr Unternehmen nicht bereit ist, Geld in einen Analytics-Verantwortlichen zu investieren, dann lohnt sich auch eine Investition in ein teures Tool nicht.
Falls Ihnen diese Vorgehensweise zu pragmatisch erscheint und Sie sich doch eher auf eine klassische Produkt-Evaluation verlassen möchten, werden Sie in Kapitel 12 zusammengefasst einige gewichtige Unterscheidungskriterien für Analytics-Systeme vorfinden, die im Verlaufe des Buches vorgestellt werden. Zentral ist allerdings, bis zu diesem Zeitpunkt seine genauen und individuellen Digital-Ziele und Messgrößen zu kennen – denn sonst macht die Evaluation wenig Sinn. Aus diesem Grund sind die entsprechenden Kriterien auch erst in diesem späten Kapitel des Buches beschrieben.
Wenn man mit einem Auto etwas in der Gegend umherfahren möchte, braucht man eigentlich nicht zu wissen, wie Motor oder Getriebe technisch genau funktionieren. Zündschlüssel drehen, Gas geben und lenken reichen eigentlich vorerst mal aus, um ein Auto zu nutzen und von A nach B zu kommen. Gewisse technische Zusammenhänge zu kennen, zum Beispiel wozu die Kupplung eigentlich genau da ist oder was ein ABS bewirkt, kann bei häufigem Gebrauch aber ganz nützlich sein. Gerade in schwierigen oder ungewohnten Situationen kann es von Vorteil sein oder Sicherheit geben, wenn man sich ein Stück weit selbst zu helfen weiß. Und sei es nur zu wissen, was zu tun ist, wenn die Öllampe leuchtet oder man sich einen Plattfuß eingefangen hat.
Sobald man aber rennmäßig Autosport betreibt und sich im Wettbewerb mit anderen befindet, wird es unabdingbar, sich auch mit technischen Details auseinanderzusetzen. Erst durch die umfassende Kenntnis der Technik lässt sich beim Fahren das Letzte aus einem Fahrzeug herausholen – oder glauben Sie etwa, dass Michael Schumacher nicht wusste, was die Bremsbalance-Einstellungen an seinem Rennwagen technisch bewirken?
Bei Analytics ist es vom Prinzip her dasselbe. Analytics ist eigentlich kein technisches Thema, obwohl es häufig als solches diskutiert wird. Trotzdem hilft aber ein technisches Grundverständnis der Funktionsweise von Analytics-Systemen, um sich gewisse Vorgänge genauer erklären zu können. Befindet man sich im Wettbewerb mit anderen – was im Internet eigentlich immer der Fall ist –, muss man fast zwangsläufig das Letzte aus einem System herauskitzeln, wenn man einen Vorteil für sich erzielen will. Und zu guter Letzt steckt ein Web-Analyst auch immer irgendwo zwischen IT-, Business- und Marketing-Abteilungen drin. Die Technik zu verstehen hilft deshalb ungemein in der Kommunikation mit IT-Verantwortlichen.
Etwas Technik muss man also über sich ergehen lassen, will man später die Vorzüge in vollem Umfang nutzen und verstehen. Oder wie schon die alten Römer wussten: »per aspera ad astram«, über raue Pfade steigt man empor zu den Sternen.
Als Denkmodell, um sich an die Funktionsweise von Analytics-Systemen heranzutasten, lassen sich solche in drei Hauptaufgabenbereiche einteilen:
die Datensammlung
die Speicherung und Verarbeitung der Daten
die Auswertung der gesammelten Daten
Bei der Datensammlung geht es zuerst einmal darum, wie der Website-Besuch eines Benutzers überhaupt registriert wird. Die Speicherung und Verarbeitung von Daten beleuchtet dann, was mit den gesammelten Informationen passiert und wie diese zusammengefasst werden. Die Auswertung schlussendlich beschäftigt sich dann erst mit dem sichtbarsten Teil, nämlich den bunten Grafiken und Tabellen, die Analytics-Systeme zur Aufbereitung der Daten bieten.
Abb. 2.1: Funktionsbereiche von Analytics-Systemen
Als erstem Funktionsbereich von Analytics-Systemen widmen wir uns in diesem Kapitel der Datensammlung. Das Sammeln und Registrieren von Website-Besuchern gehört eindeutig zu den Kernaufgaben eines solchen Systems. Dass dies eine tragende Aufgabe ist, ist relativ einleuchtend: Daten, die nicht gesammelt werden, können später auch nicht ausgewertet werden.
Ähnliches gilt für die Qualität der Sammlung: Bei einer schlechten oder falschen Datenbasis können auch Auswertungen daraus keine bessere Qualität aufweisen. »GIGO« bzw. »Garbage in – garbage out« heißt hier das geflügelte Wort in der IT: Wenn man in ein System nur Müll reinschüttet, kommt auch nur Müll raus. Eine solide Datenbasis ist also die ganz zentrale Grundlage für spätere Auswertungsergebnisse.
Selbstverständlich muss diese Datensammlung möglichst im Hintergrund erfolgen, damit der Benutzer bei seinem Website-Besuch nicht gestört wird. Um solche Besucherdaten zu sammeln, gibt es wiederum unterschiedliche Ansätze, nämlich
serverseitige Datensammlung mittels Logfile
clientseitige Datensammlung mittels Page Tagging
alternative oder kombinierte Methoden wie Packet Sniffing
Die Ansätze unterscheiden sich einerseits komplett in der technischen Funktionsweise. Andererseits – und dies hat Relevanz für spätere Auswertungen – werden je nach Ansatz andere Datenpunkte und Besucherinformationen gesammelt. Je nach gewählter technischer Funktionsmethode stehen also später mehr, weniger oder andere Daten zur Auswertung zur Verfügung. Abhängig von dem späteren Auswertungsbedarf ist deshalb die Wahl der geeigneten Sammlungsmethode entscheidend.
Seit Anbeginn des Internets haben Webserver sämtliche Aufrufe, die an sie herangetragen und von ihnen beantwortet werden, protokolliert. Dieses Protokoll nennt sich Logfile. Logfiles stellen somit die urtümlichste Methode zur Sammlung von Server-Nutzungsdaten dar.
Technisch läuft der Prozess bis zur Logfile-Erstellung folgendermaßen ab: Sobald ein Benutzer in seinen Browser die URL einer Website eingetippt hat, sendet der Browser einen Aufruf (Request) an den betreffenden Webserver. Der Webserver antwortet darauf und sendet dem Browser die gewünschte Seite zurück (Response). Da eine Seite selbst wiederum aus Bildern und anderen Dateien besteht, sendet der Browser automatisch weitere Anfragen an den Server, bis sämtliche Antworten bzw. Dateien zurückgekommen sind und die Seite vollständig geladen ist. Zugleich mit jeder Antwort an den Browser schreibt der Webserver Informationen zur Anfrage und Antwort in ein Logfile.
Das Logfile ist meist eine Textdatei, die pro Tag neu angelegt wird und Einträge folgender Natur aufweist.
