SEO mit Google Search Console - Stephan Czysch - E-Book

SEO mit Google Search Console E-Book

Stephan Czysch

0,0

Beschreibung

Das Buch zeigt, wie Sie durch einfach umsetzbare SEO-Maßnahmen ein besseres Ranking Ihrer Webinhalte in der unbezahlten Google-Suche erzielen. Teil 1 gibt einen Überblick über alle relevanten Aspekte der Suchmaschinenoptimierung: von der Keyword-Recherche bis hin zur Offpage-Optimierung. Anschließend beschreibt SEO-Experte Stephan Czysch umfassend und Schritt für Schritt, wie Sie die kostenlose Google Search Console (vorher Google Webmaster Tools) nutzbringend einsetzen. Sie erfahren, wie Sie Ihre Website oder App analysieren, Ihren Auftritt optimieren und Ihre Rankings in der organischen Suche nachhaltig verbessern. Anhand praktischer Beispiele arbeiten Sie sich in die Onpage- und Offpage-Optimierung ein. Welche Adressen sind für Nutzer und Suchmaschinen nicht erreichbar? Welche Seiten haben identische Seitentitel? Welche Adressen sind nicht für Mobilgeräte optimiert? Und über welche Suchanfragen werden Ihre Inhalte gefunden? Zu diesen und weiteren Fragen liefert Ihnen die Google Search Console aufschlussreiche Informationen – Sie müssen nur wissen, wie Sie dieses mächtige Werkzeug für Ihren SEO-Erfolg nutzen. Einführung in die Suchmaschinenoptimierung Erfahren Sie, worauf es bei SEO wirklich ankommt – praxisnah und verständlich. Alles über die Google Search Console Mit der Google Search Console liefert Ihnen Google wertvolles Feedback zu Ihrer Website – lernen Sie alle Facetten des Tools kennen. Mobile SEO und Apps Immer mehr Zugriffe erfolgen über Smartphones und andere mobile Geräte. Verstehen Sie, worauf Sie beim Thema Mobile SEO achten müssen. Erfolge mit der Suchanalyse messen Über die Google Search Console erfahren Sie, über welche Suchanfragen Ihre Inhalte gefunden werden. Das "Keyword not provided"-Problem gehört der Vergangenheit an. Wettbewerber-Analyse mit SEO-Tools Nutzen Sie ergänzende Tools, um die Auftritte Ihrer Wettbewerber zu analysieren.

Sie lesen das E-Book in den Legimi-Apps auf:

Android
iOS
von Legimi
zertifizierten E-Readern

Seitenzahl: 385

Das E-Book (TTS) können Sie hören im Abo „Legimi Premium” in Legimi-Apps auf:

Android
iOS
Bewertungen
0,0
0
0
0
0
0
Mehr Informationen
Mehr Informationen
Legimi prüft nicht, ob Rezensionen von Nutzern stammen, die den betreffenden Titel tatsächlich gekauft oder gelesen/gehört haben. Wir entfernen aber gefälschte Rezensionen.



SEO mit Google Search Console

Webseiten mit kostenlosen Tools optimieren

2. AUFLAGE

Stephan Czysch

Stephan Czysch

Lektorat: Ariane Hesse

Korrektorat: Sibylle Feldmann

Fachgutachten: Cathrin Tusche

Herstellung: Susanne Bröckelmann

Umschlaggestaltung: Michael Oréal, www.oreal.de, unter Verwendung

eines Bildes von © iStock by Getty Images, Stock-Fotografie-ID:93211231

Satz: III-satz, www.drei-satz.de

Druck und Bindung: Media-Print Informationstechnologie,

mediaprint-druckerei.de

Bibliografische Information der Deutschen Nationalbibliothek

Die Deutsche Nationalbibliothek verzeichnet diese Publikation in der Deutschen Nationalbibliografie;

detaillierte bibliografische Daten sind im Internet über http://dnb.d-nb.de abrufbar.

ISBN

Print: 978-3-96009-031-1

PDF: 978-3-96010-087-4

ePub: 978-3-96010-088-1

mobi: 978-3-96010-089-8

Dieses Buch erscheint in Kooperation mit O’Reilly Media, Inc. unter dem Imprint »O’REILLY«.

O’REILLY ist ein Markenzeichen und eine eingetragene Marke von O’Reilly Media, Inc. und wird mit

Einwilligung des Eigentümers verwendet.

2. Auflage 2017

Copyright © 2017 dpunkt.verlag GmbH

Wieblinger Weg 17

69123 Heidelberg

Die vorliegende Publikation ist urheberrechtlich geschützt. Alle Rechte vorbehalten. Die Verwendung der

Texte und Abbildungen, auch auszugsweise, ist ohne die schriftliche Zustimmung des Verlags urheberrechtswidrig und daher strafbar. Dies gilt insbesondere für die Vervielfältigung, Übersetzung oder die Verwendung in elektronischen Systemen.

Es wird darauf hingewiesen, dass die im Buch verwendeten Soft- und Hardware-Bezeichnungen sowie Markennamen und Produktbezeichnungen der jeweiligen Firmen im Allgemeinen warenzeichen-, marken- oder patentrechtlichem Schutz unterliegen.

Die Informationen in diesem Buch wurden mit größter Sorgfalt erarbeitet. Dennoch können Fehler nicht vollständig ausgeschlossen werden. Verlag, Autoren und Übersetzer übernehmen keine juristische Verantwortung oder irgendeine Haftung für eventuell verbliebene Fehler und deren Folgen.

5 4 3 2 1 0

Inhalt

Vorwort

Teil I: Einführung in die Suchmaschinenoptimierung

1    Einführung in dieSuchmaschinenoptimierung

Suchmaschinenmarketing durch SEO- und SEA-Maßnahmen

SEO-Maßnahmen für bessere Positionen in den unbezahlten Suchergebnissen

Relevante Inhalte für Suchintentionen erstellen

Google ändert sich kontinuierlich: Google-Updates im Überblick

Google-Richtlinien: die Spielregeln für Webmaster

Durch Onpage-Optimierung die Relevanz der eigenen Inhalte verbessern

Den Aufbau von Suchtreffern verstehen und optimieren

Offpage-Optimierung: durch relevante Verweise mehr Besuche erzielen

Auf zur Google Search Console

Teil II: SEO mit Google Search Console

2    Erste Schritte und Einrichtung

Andere Ressourcen

Google Search Console einrichten: So bestätigen Sie eine Property

Mehr Daten durch die Bestätigung relevanter Hostnamen und Verzeichnisse

Was Sie sonst noch über die Einrichtung wissen müssen

Sets erstellen: Properties kombinieren

Das Dashboard: der zentrale Einstieg

Zusammenfassung des Kapitels

3    Darstellung der Suche

Strukturierte Daten

Rich Cards

Data Highlighter

HTML-Verbesserungen

Accelerated Mobile Pages

Zusammenfassung des Kapitels

4    Suchanfragen

Suchanalyse

Links zu Ihrer Website

Interne Verlinkung

Manuelle Maßnahmen

Internationale Ausrichtung

Nutzerfreundlichkeit auf Mobilgeräten

Zusammenfassung des Kapitels

5    Google-Index

Indexierungsstatus

Blockierte Ressourcen

URLs entfernen

Zusammenfassung des Kapitels

6    Crawling

Crawling-Fehler

Crawling-Statistiken

Abruf wie durch Google

robots.txt-Tester

Sitemaps

URL-Parameter

Zusammenfassung des Kapitels

7    Konfiguration

Search Console-Einstellungen

Website-Einstellungen

Adressänderung

Google Analytics-Property

Nutzer und Property-Inhaber

Überprüfungsdetails

Partner

Zusammenfassung des Kapitels

8    Sicherheitsprobleme

Sicherheitsprobleme mit Google Search Console erkennen

Zusammenfassung des Kapitels

9    Disavow Tool

Links über das Disavow Tool für ungültig erklären

Zusammenfassung des Kapitels

10  Google Search Console mit Analytics und AdWords verknüpfen

Verknüpfung mit Google Analytics

Verknüpfung mit Google AdWords

Zusammenfassung des Kapitels

11  Google Search Console API

Die Funktionen der API in der Übersicht

SEO-Tools mit API-Anbindung

Zusammenfassung des Kapitels

12  Google Search Console für Apps und mobile Websites

Google Search Console für Apps

Google Search Console für separate mobile Websites

Zusammenfassung des Kapitels

13  Bing Webmastertools

Bing Webmastertools einrichten

Das Website-Dashboard

Der Index-Explorer

Eingehende Links

Crawlinformationen

SEO-Berichte

SEO-Analysator

Weitere interessante Funktionen der Bing Webmastertools

Funktionen der Google Search Console und der Bing Webmastertools im Vergleich

Zusammenfassung des Kapitels

14  Serplorer

Die Funktionen von Serplorer im Überblick

Das Serplorer-Dashboard

SERP-Visibility

Keywords

URL Ansichten

Ranking-Verlauf

Verteilung

Mehrfach-Ranking

Switcher

Zusammenfassung des Kapitels

Teil III: Anhänge

A    Google Search Console-Exporte mit Excel verarbeiten

B    Weiterführende Quellen

C    Glossar

Index

Vorwort

Als ich mich im Frühjahr 2012 dazu entschied, ein E-Book über die SEO-Toolsammlung von Google zu schreiben – damals noch Google Webmaster Tools genannt –, ahnte ich nicht, dass ich dieses Werk vier Jahre später in der zweiten und umfassend überarbeiteten Auflage zusammen mit O’Reilly als Printausgabe herausbringen würde. Doch genau dieses Werk halten Sie jetzt in den Händen.

Mobile Internetnutzung und Suchmaschinen

In den letzten vier Jahren ist in der Suchmaschinen- und Onlinewelt viel passiert. Die Marktanteile der Suchmaschinen in Deutschland und Europa haben sich zwar nicht geändert – d. h., Google ist weiterhin der alles dominierende Suchdienst –, aber das Web selbst hat sich stark verändert. So ist beispielsweise das Thema Mobile präsenter denn je, und viele von mir beratene Unternehmen erhalten heute signifikant mehr Zugriffe über Smartphones und Tablets auf ihre Websites als über klassische Desktopgeräte. Gleichzeitig hat das Thema Apps zusätzlich an Fahrt aufgenommen.

Inhalte werden heute nicht mehr nur auf idealerweise direkt mobiloptimierten Webseiten veröffentlicht, sondern auch in Apps – für Google und Webmaster gleichermaßen eine neue Herausforderung. Denn was passiert, wenn Inhalte nur in Apps zu finden sind? Wie lassen sich solche Inhalte über Suchmaschinen finden? Und wäre es nicht sinnvoll, einem Nutzer immer möglichst direkt die Darstellung eines Inhalts zu zeigen, die am besten zu dem von ihm genutzten Endgerät passt?

Diese Herausforderung hat Google angenommen und ermöglicht über das sogenannten App-Indexing, dass für Apps exklusive Inhalte als Suchergebnis infrage kommen können. Zudem können Nutzer – aus den Google-Suchergebnissen kommend – direkt zum Inhalt einer installierten App gelangen. Und dieser Trend geht noch weiter: Über die App Streaming genannte Technologie können Nutzer App-Inhalte auf einem Mobilgerät anzeigen, ohne die dazugehörige App installiert zu haben.

Wäre es bei diesen neuen möglichen Zugriffszenarien auf eigene Inhalte für einen Content-Anbieter nicht eine interessante Information, zu sehen, für welche Suchbegriffe ein Inhalt in der Google-Suche angezeigt wurde – und das unabhängig von App oder Website? Dies bietet Ihnen die Google Search Console.

Aus Google Webmaster Tools wird Google Search Console

Dieses Buch widmet sich der Frage, wie Sie Webinhalte mit Unterstützung der kostenfreien Google Search Console, ehemals Google Webmaster Tools, im unbezahlten Bereich der Suchergebnisse sichtbarer machen können. Warum Google ein solches Tool kostenfrei zur Verfügung stellt? Jede Suchmaschine ist selbstverständlich daran interessiert, genügend hochwertige Webseiten, die Nutzerbedürfnisse befriedigen, zur Verfügung zu stellen. Das erleichtert Suchmaschinen die Präsentation relevanter Suchtreffer, um zufriedene Nutzer immer wieder auf dem eigenen Service begrüßen zu können.

Als ich im Mai 2015 das erste Mal über den Begriff »Search Console« im Web gestolpert bin, vermutete ich einen Fehler. Wo ist »Google Webmaster Tools« im Seitentitel geblieben? Warum sollte sich der Name eines bekannten Tools auf einmal ändern? Und klingt »Konsole« nicht zu technisch? Aber Google war es anscheinend wichtig, dass die Tools durch den Begriff »Webmaster« nicht mehr mit »ist nur für Websites wichtig« assoziiert werden. Schließlich können in der Search Console inzwischen eben auch Apps bestätigt und analysiert werden.

Für wen dieses Buch geeignet ist

Ich wollte mit diesem Buch und speziell dem Einführungskapitel »nicht noch ein SEO-Buch« schreiben, sondern verständlich das praxisrelevante Wissen aufbereiten. Sie müssen kein SEO-Guru oder Technikexperte sein, um den Inhalt dieses Buchs zu verstehen und anwenden zu können.

• Entwicklern hilft die Google Search Console, (technische) Website-Fehler zu identifizieren und zu beheben. Zudem hilft das Einführungskapitel dabei, Suchmaschinen die Analyse der eigenen Webinhalte zu vereinfachen.

• Marketingverantwortlichen dient es dazu, das Mysterium Google (endlich) besser zu verstehen.

• Online-Marketer jeglicher Fachrichtung profitieren, da SEO jeden anderen Marketingkanal beeinflusst – und umgekehrt.

• Redakteure können, besonders in der Kombination von Google Analytics und Google Search Console, herausfinden, zu welchen Suchbegriffen Inhalte gefunden werden, welche Themenaspekte in bestehende Inhalte eingearbeitet werden müssen und vieles mehr. Zudem wird das notwendige SEO-Grundwissen vermittelt.

• SEOs, ob operativ oder strategisch arbeitend, kommen an der Google Search Console ohnehin nicht vorbei. Warum sollte man direkt von Google gelieferte Daten über die eigene Website ignorieren, wenn Google ein wichtiger Lieferant von Besuchern ist?

• Shopbetreiber sehen jeden zusätzlichen relevanten Besucher gern, und viele Transaktionen haben schließlich in Suchmaschinen ihren Ursprung.

• Für Usability-Experten ist es wichtiger denn je, Inhalte so gut wie möglich für die eigene Zielgruppe aufzubereiten und dabei auch an Suchmaschinen und über Suchmaschinen kommende Nutzer zu denken.

• Webanalysten werden an den Daten der Suchanalyse ihre Freude haben und über die Verknüpfung von Google Search Console mit Google Analytics mehr darüber herausfinden können, ob Nutzer auf Seiten das finden, was sie suchen.

Wenn Ihnen dieses Buch gefällt und Sie sich dediziert mit den technischen Feinheiten der Suchmaschinenoptimierung beschäftigen möchten, sei Ihnen das Buch Technisches SEO, ebenfalls im O’Reilly Verlag erschienen, ans Herz gelegt.

Über den Aufbau dieses Buchs

Immer wieder steht die Frage im Raum, inwieweit ein Buch innerhalb einer solch schnelllebigen Branche aktuelles Wissen vermitteln kann. Schließlich arbeiten Suchmaschinenkonzerne kontinuierlich daran, ihre Suchergebnisse zu verbessern und neuen (technischen) Herausforderungen zu begegnen. So verstärkt sich beispielsweise der Trend hin zur mobilen Internetnutzung immer mehr, wodurch einzelne sogenannte »Ranking-Faktoren« an Gewicht gewinnen und andere an Bedeutung verlieren.

Bis in diese einzelnen Nuancen hinein – sei es der von Google kommunizierte Ranking-Faktor »HTTPs« oder seien es neue Entwicklungen zur Verbesserung der Ladegeschwindigkeit – werden gedruckte Werke nicht durchgehend den jeweils aktuellen Stand darstellen können. Doch so sehr sich die Ausprägungen der Suchmaschinenoptimierung in den letzten Jahren im Detail auch geändert haben und zukünftig ändern werden, so hat sich doch im Kern nichts an der Anforderung an eine (Suchmaschinen-)optimierte Website geändert: Es geht darum, hochwertige Informationen zur Verfügung zu stellen, die für die anvisierte Zielgruppe relevant sind.

In dieser zweiten Auflage finden Sie in Teil I eine Einführung in das Thema Suchmaschinenoptimierung, die praxisnah das relevante Wissen zum Thema SEO bereitstellen möchte. Dieser Teil des Buchs ist für alle diejenigen besonders interessant, die sich bisher noch nicht intensiv mit dem Thema Suchmaschinenoptimierung beschäftigt haben oder bestehendes Wissen vertiefen und auffrischen möchten.

Teil II – der Hauptteil des Buchs – dreht sich um die Google Search Console, zuvor Google Webmaster Tools genannt. Am Beispiel echter Daten stelle ich Ihnen die einzelnen Funktionen und Berichte vor, erläutere die Hintergründe und zeige Ihnen, wie Sie die Funktionen und Daten der Berichte für Ihren SEO-Erfolg nutzen können.

Wir werden aber auch über den Tellerrand der Google Search Console schauen und uns die Funktionen der ebenfalls kostenfreien Bing Webmastertools genauer ansehen. Zwar ist der Marktanteil der Bing-Websuche im deutschsprachigen Raum gering, doch die Webmastertools von Bing bieten einige innovative Funktionen, die Ihnen zu einem besseren Ranking in jeder Websuche verhelfen können.

Feedback und Fragen

Natürlich freue ich mich über Feedback jeglicher Art. Was hat Ihnen gut gefallen? Wodurch kann dieses Buch besser werden? Und welche Erfolge konnten Sie feiern, weil Sie das vermittelte Wissen angewendet haben?

Auch Rückfragen sind immer willkommen. Soweit ich die Zeit finde, werde ich auf Ihre Nachrichten reagieren. Schreiben Sie mir gern an [email protected].

Danksagung

Ich möchte mich bei allen bedanken, die mich während der Arbeit an diesem Buch unterstützt und mir den Rücken freigehalten haben. Das gilt besonders für Kathleen, die nicht nur meine Laune ertragen, sondern selbst einen Teil zu diesem Buch beigesteuert hat. Ohne dich hätte es das E-Book und meine Bücher nicht gegeben!

Erwähnen muss ich unser Trust Agents-Team (www.trustagents.de), das mir seit 2012 die beruflich beste Zeit meines Lebens ermöglicht und durch Anmerkungen und Rückfragen bei der Weiterentwicklung des Buchs geholfen hat. Ich bin sehr dankbar dafür, mit euch zusammenarbeiten zu können und für unsere Kunden täglich neue Lösungen zu entwickeln. Danke!

Besonderer Dank gebührt den engagierten Onlinekollegen, die mir Feedback zu den ersten Versionen der zweiten Auflage gegeben und erlaubt haben, Daten ihrer Websites zu verwenden. Ihr seid spitze!

TEIL I

Einführung in die Suchmaschinenoptimierung

KAPITEL 1

Einführung in die Suchmaschinenoptimierung

In diesem Kapitel:

• Suchmaschinenmarketing durch SEO- und SEA-Maßnahmen

• SEO-Maßnahmen für bessere Positionen in den unbezahlten Suchergebnissen

• Relevante Inhalte für Suchintentionen erstellen

• Google ändert sich kontinuierlich: Google-Updates im Überblick

• Google-Richtlinien: die Spielregeln für Webmaster

• Durch Onpage-Optimierung die Relevanz der eigenen Inhalte verbessern

• Den Aufbau von Suchtreffern verstehen und optimieren

• Offpage-Optimierung: durch relevante Verweise mehr Besuche erzielen

• Auf zur Google Search Console

Täglich werden neue Inhalte im Internet veröffentlicht und warten darauf, entdeckt und genutzt zu werden. Hinter der Erstellung von hochwertigen Webseiten steckt ein beachtlicher Aufwand. Und welcher Website-Betreiber möchte dann nicht, dass sich dieser Aufwand in Form von regelmäßigen Zugriffen auszahlt?

Allein mit Zugriffen ist es bei Websites mit kommerziellen Zielen aber nicht getan. Es sollten möglichst relevante Zugriffe sein, die dabei helfen, die Website-Ziele zu erreichen: zum Beispiel in Form von Kontaktaufnahmen, Produktkäufen oder Klicks auf Werbemittel.

Für die Vermittlung solcher Zugriffe sind Suchmaschinen wie Google oder Bing ein spannender Kanal.

Denn ob man es als Suchmaschinennutzer will oder nicht: Über die Suchanfrage gibt man Informationen über das aktuelle Interesse oder (Informations-)Bedürfnis preis. Ob »Französische Revolution«, »Hörbuch Abonnement« oder »Volkswagen« – die Suchanfrage liefert Hinweise darauf, was eine Person momentan interessiert und was sie über Suchmaschinen finden möchte.

Aus Marketingsicht bietet die Trefferliste in Suchmaschinen ein interessantes Umfeld, weil sie die Ansprache von Nutzern über Keywords, die zum eigenen Angebot passen, mit potenziell geringeren Streuverlusten ermöglicht. Im Umfeld der Suchmaschinen findet aus der Marketingperspektive ein Wechsel von »Push-« zu »Pull-

Marketing« statt. Es sind die Nutzer, die aktiv nach möglichen »Problemlösern« suchen, und nicht die Unternehmen, die Nutzer mit ihren Botschaften zu erreichen versuchen, ohne zu wissen, ob das offerierte Produkt oder die angebotene Dienstleistung im Moment überhaupt für den Nutzer relevant ist.

Push- und Pull-Marketing

Beim Push- und Pull-Marketing geht es vereinfacht gesagt um die Frage, wer der aktive Part ist. Bei Push-Marketing-Aktionen (engl. to push: etwas drücken, anstoßen) ist es der Anbieter eines Produkts oder einer Dienstleistung, der seine Botschaft verbreitet.

Im Internet kann das etwa in Form von Bannern stattfinden, in der Offlinewelt sind z. B. Werbespots, Plakatwerbung oder Wurfsendungen klassische Push-Marketing-Aktivitäten. Es ist nicht gesagt, dass die Person, die mit der (Werbe-)Botschaft konfrontiert wird, sich aktuell für diese Themen und Aussagen interessiert. Entsprechend hoch sind die Streuverluste. Beim Push-Marketing befinden sich potenzielle Interessenten also in einer eher passiven Rolle.

Beim Pull-Marketing (engl. to pull: zu sich ziehen) ist die Situation anders. Interessenten sind aktiv auf der Suche nach den Anbietern bestimmter Informationen, Produkte, Serviceleistungen etc. Da ein Bedarf besteht, der sich im Suchmaschinenmarketing durch die Suchanfrage ausdrückt, werden Werbebotschaften eher als Unterstützung und weniger als Werbung angesehen.

Suchmaschinenmarketing durch SEO- und SEA-Maßnahmen

In den meisten Suchmaschinen gibt es voneinander getrennte Bereiche für die unbezahlten (organischen) sowie die bezahlten Suchtreffer. Beide Bereiche werden unter dem Begriff Suchmaschinenmarketing zusammengefasst. Der englische Fachterminus hierfür lautet Search Engine Marketing, abgekürzt SEM. Durch entsprechende Maßnahmen ist es möglich, die Sichtbarkeit eigener Inhalte in den Suchergebnissen zu verbessern.

Während Maßnahmen der Suchmaschinenoptimierung (engl. Search Engine Optimization, kurz SEO) auf eine gute Positionierung im Bereich der unbezahlten Suchtreffer abzielen, wird mit bezahlter Suchmaschinenwerbung (engl. Search Engine Advertising, kurz SEA) versucht, relevante Werbeanzeigen für ausgesuchte Suchbegriffe zu schalten. An dieser Stelle sei angemerkt, dass fälschlicherweise der Bereich der bezahlten Anzeigen regelmäßig als SEM bezeichnet wird, obwohl hierunter sowohl SEO- als auch SEA-Maßnahmen fallen.

Suchmaschinen-Advertising

Große Suchmaschinen haben eigene Programme, über die bezahlte Anzeigen in den Suchergebnissen platziert werden können. Aufgrund von Googles hohem Marktanteil bei Websuchen weltweit, vor allem aber in Europa, gehört Google AdWords (https://www.google.de/adwords/ – http://seobuch.net/605) zu den bekanntesten SEA-Werbeprogrammen.

Bei Google AdWords werden die Positionen innerhalb einer Auktion vergeben. Werbetreibende bieten per Klickgebot auf Suchanfragen und hinterlegen auf die Suchanfragen abgestimmte Anzeigentexte.

Allerdings ist das Gebot nicht das einzige Kriterium. Google berechnet die Relevanz der Werbeanzeige zur Suchanfrage und belohnt relevante Anzeigen mit einem hohen »Qualitätsfaktor«. Aus dem Qualitätsfaktor und dem Gebot berechnet sich der sogenannte Anzeigenrang. Die werbende Website mit dem höchsten Anzeigenrang erhält die beste Position innerhalb der bezahlten Suchergebnisse. Alle weiteren folgen absteigend nach Anzeigenrang, bis die zur Verfügung stehenden Werbeflächen belegt sind. Für die Darstellung innerhalb der bezahlten Ergebnisse ist keine Gebühr zu zahlen. Erst mit dem Klick auf eine Anzeige ist der Klickpreis zu entrichten. Dieser entspricht maximal dem eigenen Gebot für die Suchanfrage, ist in den meisten Fällen allerdings niedriger. Denn bei der Berechnung des zu zahlenden Klickpreises kommt der Anzeigenrang ins Spiel. Google ermittelt, wie hoch das Gebot sein müsste, um im Zusammenspiel von Gebot und Qualitätsfaktor einen höheren Anzeigenrang als der folgende Konkurrent zu halten.

Die meisten anderen Systeme zur Platzierung bezahlter Anzeigen in Suchergebnissen funktionieren ähnlich. Bei Bing, der Suchmaschine von Microsoft, können bezahlte Werbeanzeigen mit Bing Ads geschaltet werden (http://advertise.bingads.microsoft.com/de-de/start – http://seobuch.net/490).

Denken Sie daran: Neben allgemeinen Suchmaschinen wie Google und Bing gibt es viele weitere Spezialsuchen, wie zum Beispiel lokale Branchenbücher, die Ihre Zielgruppe vielleicht noch häufiger nutzt.

Für die Nutzer von Suchmaschinen ist es häufig nicht einfach, bezahlte und unbezahlte Suchergebnisse zu unterscheiden. Und es ist nicht verwunderlich, dass Suchmaschinenanbieter versuchen, ihre Umsätze durch (mehr) bezahlte Werbeklicks zu erhöhen. Auf der Suche nach zusätzlichen Erlösquellen testen Google, Bing und andere Suchmaschinen wie Yandex oder Baidu regelmäßig, wie sich (kleine) Änderungen in der Ergebnisdarstellung, meist SERP (engl. Search Engine Result Page: Suchmaschinenergebnisseite) genannt, auf das Klickverhalten von Nutzern auswirken.

Abbildung 1-1: Eine typische Suchergebnisseite mit bezahlten und organischen Suchtreffern bei Bing

In Zeiten, in denen immer mehr Suchanfragen nicht von Computern und Laptops, sondern vermehrt über Smartphones und Tablets oder gar Geräte wie »Smart Watches« gestellt werden, wird klar, dass Suchmaschinen (und Webmaster!) die Darstellung der Ergebnisse an die verwendeten Geräte anpassen müssen.

Aufgrund der kleineren Displaygröße ist es bei mobilen Endgeräten regelmäßig der Fall, dass unbezahlte Suchergebnisse nur nach Scrollen sichtbar werden. Zudem lassen sich Unterschiede bei den Suchtreffern feststellen. So werden bei der Suche auf Tablets und Smartphones verstärkt passende Apps zur Suchanfrage angezeigt.

In Kapitel 4 über die Suchanalyse werde ich Ihnen zeigen, wie Sie herausfinden, ob Ihre Inhalte auf Mobilgeräten besser oder schlechter gefunden werden als in der Desktopsuche.

Abbildung 1-2: Bei der Suche auf einem Tablet werden Apps als Suchergebnisse prominent angezeigt.

Unterschiedliche Suchintentionen und die Darstellung der Suchergebnisse verstehen

Über die gestellten Suchanfragen werden unterschiedliche Nutzerintentionen deutlich, die ebenfalls eine angepasste Ergebnisdarstellung erfordern.

Suchanfragen werden in die folgenden drei Suchtypen unterteilt:

• informationsorientierte

• transaktionsorientierte

• navigationsorientierte

Allerdings lassen sich einige Suchanfragen durchaus mehreren Suchtypen zuordnen.

Informationsorientierte Suchen

Unter informationsorientierte Suchen fallen Suchanfragen wie »Französische Revolution«, »was ist Onlinemarketing«, »google penguin update« oder »wie funktioniert eine Suchmaschine«.

Bei diesem Typ steht die »Information« im Vordergrund, was sich auch in der Darstellung der Suchergebnisse widerspiegelt. So sind bei solchen Suchanfragen bezahlte Suchtreffer eher selten anzutreffen, regelmäßig erscheinen dagegen News-einträge sowie Bilder.

Abbildung 1-3: Bei informationsorientierten Suchanfragen sind Anzeigen seltener anzutreffen.

Informationsorientierte Suchanfragen werden von Google teilweise direkt in den Suchergebnissen beantwortet. Interessiert man sich beispielsweise für das Geburtsdatum bekannter Personen, so wird die Antwort prominent oberhalb der organischen Suchtreffer angezeigt.

Abbildung 1-4: Die Antwort auf die Frage nach dem Geburtsdatum von George Lucas liefert Google selbst.

Transaktionsorientierte Suchen

Suchanfragen, über die sich eine (direkte) Kauf- oder Transaktionsabsicht ableiten lässt, werden als transaktionale oder transaktionsorientierte Suchanfragen bezeichnet. Beispiele für diesen Typ sind »Hörbuch Abonnement«, »Lebensversicherungsvertrag abschließen«, »Tagesgeldkonto anlegen« oder »Lederjacken«.

Aufgrund der hohen Wahrscheinlichkeit, dass sich diesen Suchanfragen eine Transaktion anschließt, sind in der Ergebnisdarstellung besonders viele bezahlte Anzeigen zu finden.

Abbildung 1-5: Für eher transaktionsnahe Suchanfragen wie Lederjacken erscheinen viele bezahlte Anzeigen.

Navigationsorientierte Suchen

Suchmaschinen werden regelmäßig dazu verwendet, um zur Website einer bestimmten Marke beziehungsweise zu einem bestimmten Webauftritt zu gelangen. Wer beispielsweise nach »Volkswagen«, »audible«, »peek und cloppenburg jobs« oder »web.de« sucht, ist vermutlich auf der Suche nach einer offiziellen Website. Entsprechend werden solche Suchanfragen als navigationsorientiert bezeichnet.

Auch bei diesem Typ Suchanfrage gibt es eine spezifische Darstellungsform. So zeigt beispielsweise Google prominent den Direkteinstieg zu häufig angefragten Unterseiten eines Webauftritts an. Diese werden als Sitelinks bezeichnet.

Abbildung 1-6: Beziehen sich Suchen auf eine einzelne Website, erscheinen eingerückte Sitelinks.

Mischformen dieser Suchanfragen

Wie eingangs erwähnt, lassen sich Suchanfragen nicht immer zweifelsfrei einem der drei vorgestellten Typen zuordnen. So ist eine Suchanfrage wie »kleider peek und cloppenburg kaufen« sowohl navigationsorientiert (Peek und Cloppenburg ist ein Anbieter) als auch transaktionsorientiert (kleider kaufen). Ähnlich verhält es sich mit »media markt gutschein einlösen«. Hier geht es vermutlich um das »Wie«, also um eine informationsorientierte Suchanfrage, aber auch um einen speziellen Anbieter.

Die (ungefähre) Typisierung von Suchanfragen ist zum einen interessant, um den Seiteninhalt möglichst gut auf die vermutete Nutzerintention auszurichten, und zum anderen, um die zu erwartende Klickrate auf die unbezahlten Ergebnisse einschätzen zu können.

Es liegt nahe, dass häufiger auf Position eins der unbezahlten Ergebnisse geklickt wird, wenn keine oder wenig bezahlte Suchergebnisse oberhalb des ersten SEO-Treffers angezeigt werden. Denn nehmen die organischen Suchtreffer mehr Raum oben im Display des Suchenden ein. Bei transaktionalen Suchanfragen sind wenige bezahlte Anzeigen die Ausnahme.

SEO-Maßnahmen für bessere Positionen in den unbezahlten Suchergebnissen

Im Bereich der unbezahlten Suchergebnisse verfolgen alle Suchmaschinen das Ziel, zur Suchanfrage passende Seiten anzuzeigen. Denn der Erfolg einer Suchmaschine steht und fällt mit der Qualität der Ergebnisse. Wenn Nutzer über eine Suchmaschine wiederholt nicht das Gesuchte finden, dann nutzen sie zukünftig vermutlich das Angebot eines anderen Anbieters. Das hätte natürlich negative Folgen für die Erlössituation einer Suchmaschine, die sich vor allem über die im Umfeld der Suche platzierten Anzeigen finanziert. Wird weniger (Such-)Nachfrage von einer Suchmaschine bedient, sinkt die Relevanz der Suchmaschine für Werbekunden.

Wenn Sie bei den für Sie relevanten Suchanfragen dauerhaft Top-Platzierungen erreichen möchten, sollten Sie der Nutzerintention, die sich in den Suchanfragen ausdrückt, mit relevanten und gut aufbereiteten Inhalten entsprechen. Nutzer finden dann, was sie suchen. Entsprechend haben Sie aus Sicht einer Suchmaschine das Anrecht auf eine gute Position und viele kostenfrei vermittelte Zugriffe.

Doch wie lässt sich Relevanz eigentlich möglichst objektiv von Computern bewerten? Welche Kriterien machen den Unterschied zwischen einer Platzierung auf dem ersten Platz und »unter ferner liefen« aus? Laut Aussage von Google fließen »über 200 Faktoren« in die Ranking-Bestimmung ein. Und diese Faktoren sind auf keinen Fall statisch: Neue Faktoren kommen hinzu, und einzelne Faktoren erhalten innerhalb der Ranking-Berechnung eine neue Gewichtung. Die Algorithmen der Suchmaschinen werden kontinuierlich weiterentwickelt, auch um Manipulationen entgegenzuwirken.

Im Kern gibt es zwei Bereiche, die Suchmaschinen zur Ranking-Berechnung heranziehen. Zum einen sind es Informationen, die durch die Analyse einer Webseite gewonnen werden. Das sind die sogenannten Onpage- oder Onsite-Faktoren. Zum anderen analysieren Suchmaschinen, wie eine Webseite mit anderen Webseiten verbunden ist. Die Faktoren dieses Bereichs werden als Offpage- oder Offsite-Faktoren bezeichnet.

Bei der Onpage-Bewertung geht es vor allem um die Frage der Relevanz, also vereinfacht gesagt: Worum geht es auf einer Seite? Richten Suchmaschinen den Blick auf Offpage-Faktoren, geht es darum, die Popularität einer Webseite oder eines Webauftritts insgesamt zu berechnen. Vereinfacht gesagt: Je mehr Wege und Verlinkungen es zu einer einzelnen (Unter-)Seite gibt, desto wichtiger scheint diese zu sein. Offpage-Signale können in der Regel als objektiver angesehen werden, da hier

Dritte die Relevanz von Inhalten dokumentieren, indem sie auf diese Inhalte verlinken. Es ist deshalb sinnvoll, dass Offpage-Signale einen (vermutlich) großen Einfluss auf das Ranking haben.

Jeder kann für sich reklamieren, der beste Suchmaschinenoptimierer Deutschlands zu sein. Sagen das hingegen Außenstehende, bekommt diese Aussage mehr Gewicht. Eine Top-Position in einer »SEO-Bestenliste« erscheint dann angemessen.

Mit den Faktoren Relevanz (durch die Onpage-Optimierung) und Popularität (mittels Offpage-Maßnahmen) im Hinterkopf lässt sich Suchmaschinenoptimierung einfach umsetzen. Habe ich relevante Inhalte zu einem Thema? Wird sowohl Nutzern als auch Suchmaschinen klar, worum es auf der dazugehörigen Seite geht? Und sagen andere Webinhalte, dass ich zu einem bestimmten Thema relevante Inhalte biete? Dann bestehen gute Chancen auf ein gutes Ranking in den unbezahlten Suchergebnissen.

Den unbekannten Ranking-Faktoren auf der Spur

Wie Google und andere Suchmaschinen die Suchergebnisse genau ermitteln und berechnen, ist nicht bekannt. So sehr man sich als Website-Verantwortlicher eine einfache Liste der Ranking-Faktoren wünscht: Google & Co. tun gut daran, nur wenige Informationen über ihre Ranking-Berechnung preiszugeben.

Ansonsten würden sich Mitbewerber im Suchmaschinenmarkt diese Informationen zunutze machen und Webmaster die eigenen Inhalte vollständig auf die Algorithmen der Suchmaschinen ausrichten. Inhalte, die perfekt suchmaschinenoptimiert sind, müssen aber nicht unbedingt für Nutzer hilfreich sein.

Immerhin geben Google & Co. Hinweise darauf, welche Faktoren sie (vermutlich) in ihre Ranking-Berechnungen einbeziehen. Diese Hinweise findet man nicht nur in den Webmaster-Tools der Suchmaschinen, sondern auch in offiziellen Dokumenten wie Patentschriften und Präsentationen.

So bietet Google mit »Einführung in die Suchmaschinenoptimierung« ein kostenfreies PDF zum Download an (http://static.googleusercontent.com/media/www.google.de/de/de/webmasters/docs/einfuehrung-in-suchmaschinenoptimierung.pdf – http://seobuch.net/328), in dem Punkte genannt werden, auf die Webmaster bei der Erstellung von Webseiten achten sollten. Zudem lassen sich Ranking-Faktoren vermuten.

Diverse SEO-Toolanbieter geben jährlich anhand erhobener Daten, beispielsweise aus Expertenbefragungen oder durch Korrelationsanalysen, White Paper zur Bedeutung einzelner angenommener Ranking-Faktoren heraus. Bekannt sind in diesem Zusammenhang die Auswertungen von Searchmetrics (zu finden unter http://www.searchmetrics.com/de/knowledge-base/ranking-faktoren/ – http://seobuch.net/498) sowie die englischsprachige Erhebung von Moz.com (siehe https://moz.com/search-ranking-factors – http://seobuch.net/383). Eine umfassende englischsprachige Auflistung von vermuteten Ranking-Faktoren finden Sie unter http://backlinko.com/google-ranking-factors (http://seobuch.net/403).

Tipp Ob Expertenbefragungen oder Korrelationsanalysen: Die Ergebnisse können den tatsächlichen Ranking-Faktoren und deren Gewichtung höchstens näherungsweise entsprechen. Womöglich sind manche Annahmen von Experten oder einzelne Gewichtungen auch vollkommen falsch.

So erfassen Suchmaschinen (neue) Inhalte

In der frühen Phase des Internets waren es vor allem Webkataloge, die zur Recherche neuer Informationsquellen herangezogen wurden. Doch die Katalogisierung von Webseiten stellte sich schnell als schwer skalierbarer Prozess dar. Denn immer mehr Inhalte wurden im Web veröffentlicht und mussten in vordefinierte Kategorien einsortiert werden.

Wie fein oder granular sollten diese Kategorien sein? Wo sollte eine Hörbuchseite auftauchen? Unter »Büchern«? Oder unter »Audio«? Oder unter »Musik«? Oder in allen Kategorien? Und wäre es nicht sinnvoll, eine eigene »Hörbuch«-Kategorie anzulegen, wenn es zu diesem Thema immer mehr Seiten gibt? Aber ist »Hörbuch« mehr mit der Kategorie »Audio« verwandt oder mehr mit »Büchern«? Sollte die Kategorie dann entsprechend als Subkategorie von »Audio« oder von »Bücher« angelegt werden?

Doch nicht nur die Ersterfassung stellte Webkataloge vor Probleme: Wie kann man idealerweise automatisiert feststellen, ob ein bereits kategorisierter Inhalt überhaupt noch erreichbar ist? Und nach welchem Kriterium sollen die Seiten sortiert werden? Ist ein neues Dokument relevanter als ein altes und somit die Sortierung von »Neu nach Alt« sinnvoll? Oder ist die Textlänge ein guter Indikator für Relevanz? Oder die absolute Anzahl an Klicks, die ein Dokument bisher gesammelt hat? Haben bei einem solchen Sortierkriterium ältere Dokumente nicht einen kaum aufholbaren Vorsprung? Oder ist es der Titel der Dokumente, der einfach von A nach Z sortiert werden müsste?

Bereits diese Fragen zeigen, dass sich ein immer stärker wachsendes Internet per Katalogisierung nicht sinnvoll erfassen lässt. Die Lösung: Computerprogramme sollten (neue) Dokumente automatisch erfassen, anhand definierter Algorithmen untersuchen und anschließend sortieren.

Um überhaupt Dokumente miteinander vergleichen und sortieren zu können, müssen sie erst einmal erfasst werden. Dazu setzen Suchmaschinen die sogenannten Crawler ein, die Webdokumente abrufen und zur weiteren Verarbeitung zur Verfügung stellen. Alternative Bezeichnungen für Crawler sind Spider oder auch Robots.

Den Aufbau einer Suchmaschine verstehen

Suchmaschinen bestehen – vereinfacht betrachtet – aus mehreren miteinander interagierenden Komponenten.

Abbildung 1-7: Schematischer Aufbau der Komponenten einer Suchmaschine

Crawler fragen Adressen ab

Die Aufgabe des Crawlers ist es, Adressen, die der Suchmaschine bekannt sind, (wieder) aufzurufen und deren Inhalt sowie deren Statuscode zur weiteren Verarbeitung zu ermitteln.

HTTP-Statuscodes

Um Webinhalte darstellen oder im Fall von Suchmaschinen auswerten zu können, werden Ressourcen (HTML-Seiten, Bilder, Videos ...) beim Server des Webauftritts angefragt.

Möchten Sie beispielsweise die Adresse https://www.trustagents.de/blog besuchen, wird von Ihrem Browser die Adresse beim Webserver von https://www.trustagents.de angefragt. Einfach gesagt, fragt der Browser den Webserver, ob dieser einen Inhalt unter der Adresse /blog kennt. Auf diese Anfrage antwortet der Server unter anderem mit dem HTTP-Statuscode.

Ist ein Dokument unter der angefragten Adresse vorhanden, wird die Anfrage mit dem Statuscode 200 (»OK«) beantwortet. Ist das Dokument nicht mehr unter dieser Adresse zu finden, kann der Browser über die neue Adresse mittels einer Weiterleitung, beispielsweise mit dem Statuscode 301 (»Moved permanently« – deutsch: permanent umgezogen) oder 302 (»Moved temporarily« – deutsch: temporär umgezogen), benachrichtigt werden.

Ist unter der angefragten Adresse keine Ressource bekannt, antwortet der Webserver mit einem der Statuscodes 4xx. Der bekannteste HTTP-Statuscode für Fehler dürfte 404 (»Not found« – deutsch: nicht gefunden) sein. Wenn der Webserver die Anfrage gar nicht verarbeiten kann, wird diese mit einem Statuscode 5xx beantwortet, beispielsweise dem Statuscode 500 (»Internal Server Error« – deutsch: interner Serverfehler).

Alles Wichtige zu HTTP-Statuscodes finden Sie bei Wikipedia (https://de.wikipedia.org/wiki/HTTP-Statuscode – http://seobuch.net/424).

Vor der Anfrage einer URL muss der Crawler ermitteln, ob eine Adresse durch die Datei robots.txt (siehe Infokasten unten) vom Crawling ausgeschlossen ist. Eine solche Einstellung wird beispielsweise bei sensiblen Daten wie privaten Bildern oder Dokumenten vom Webmaster vorgenommen.

Wenn ein Crawling-Ausschluss über die Disallow:-Direktive vorliegt, greift der Crawler nicht auf diese Adresse zu. In diesem Fall liegen der Suchmaschine keine internen Signale des Dokuments vor. Der Statuscode und der Inhalt der Seite sind einer Suchmaschine folglich nicht bekannt.

Ist das Crawling einer Adresse erlaubt, wird der Quelltext der analysierten Adresse durch den Crawler abgefragt und zur weiteren Analyse an den Parser übergeben.

robots.txt

Über die robots.txt-Datei können Sie das Crawling einer Website beeinflussen. Dazu muss die Datei direkt im Hauptverzeichnis unter dem Hostnamen (dem sogenannten root-Ordner) abgelegt und als robots.txt benannt werden. Im Fall des Webauftritts https://www.google.de muss die robots.txt folglich unter https://www.google.de/robots.txt erreichbar sein.

Es ist nicht notwendig, Suchmaschinen den Zugriff auf eine Adresse explizit zu erlauben. Crawler gehen davon aus, dass alles, was nicht über die robotst.txt vom Crawling ausgeschlossen ist, analysiert werden darf.

Mögliche von Google unterstützte Angaben in der robots.txt sind:

• User-Agent:

• Disallow:

• Allow:

• Sitemap:

User-Agent

Jeder Crawler von (seriösen) Suchmaschinen hat eine eigene Kennung, den sogenannten User-Agent. Diese Kennung wird bei jedem Zugriff auf die Ressource eines Webservers übertragen. Über den User-Agent können Webmaster dem jeweiligen Crawler mitteilen, welche Inhalte des Webauftritts er nicht abrufen darf. Dazu wird der User-Agent über die robots.txt direkt angesprochen.

Google verwendet separate User-Agents für das Crawling unterschiedlicher Inhalte, beispielsweise für mobile Inhalte, Bilder oder News. Jeder dieser unterschiedlichen Crawler hat seine eigene Kennung und kann somit separat über die robots.txt angesprochen werden. Der normale Googlebot crawlt vor allem HTML-Dokumente und verwendet den User-Agent »Googlebot«. Dieser Crawler wird über User-Agent:Googlebot direkt adressiert. Die Auflistung der unterschiedlichen Google-Crawler finden Sie unter https://support.google.com/webmasters/answer/1061943?hl=de – http://seobuch.net/624.

Anstatt Crawler separat über die Crawling-Vorgaben zu informieren, kann über die Angabe User-Agent:* das Crawling für alle Suchmaschinen festgelegt werden.

Disallow

Über die Disallow-Angabe werden einzelne URLs oder URL-Muster vom Crawling durch Suchmaschinen ausgenommen. Durch die Angabe Disallow: / wird jeglicher Zugriff für die unter User-Agent definierten Crawler eingeschränkt.

Um den Zugriff auf alle URLs des Verzeichnisses /bilder/ zu sperren, muss Disallow: /bilder/ verwendet werden.

Allow

Eigentlich müssen Sie keine Crawling-Freigaben erteilen. Warum also die Allow-Angabe? Mit dieser können Sie gezielt vorherige Disallow-Angaben überschreiben.

Nehmen wir an, dass Sie für eine einzelne Datei des /bilder/-Ordners eine Freigabe erteilen möchten. Dann lässt sich das wie folgt lösen:

User-Agent: *Disallow: /bilder/Allow: /bilder/freigegebenes-bild.jpg

Sitemap

Über diese Angabe können Sie Suchmaschinen über die Adresse von beliebig vielen (XML-)Sitemaps auf dem Hostnamen informieren. Dazu muss die vollständige Adresse angegeben werden:

User-Agent: *Disallow: /bilder/Allow: /bilder/freigegebenes-bild.jpgSitemap: https://www.google.de/sitemap/sitemap.xml

Wissenswertes

Die meisten Webmaster müssen sich nicht detailliert mit der robots.txt auseinandersetzen. Eine Crawling-Einschränkung über diese Datei ist für viele kleine bis mittelgroße Websites kein SEO-Optimierungshebel. Die robots.txt kann aber ein sehr mächtiges Werkzeug für Webauftritte sein, die über mehrere Hunderttausend Adressen verfügen.

Achten Sie bei robots.txt-Befehlen darauf, dass Suchmaschinen zwischen Groß- und Kleinschreibung unterscheiden. Die Angabe Disallow:/Verzeichnis/ blockiert den Zugriff auf /verzeichnis/ nicht. Andersherum ist es genauso.

In der robots.txt ist es möglich, mit Mustern zu arbeiten. Dazu steht vor allem der Platzhalter * zur Verfügung. Dieser entspricht 0 bis zu unendlich vielen Zeichen. Mehr dazu finden Sie in der Google-Hilfe unter https://support.google.com/webmasters/answer/6062596?hl=de (http://seobuch.net/167).

Um die robots.txt-Einstellungen für Google-Crawler zu überprüfen, steht in der Search Console der robots.txt-Tester zur Verfügung. Diesen stelle ich Ihnen im Crawling-Kapitel (Kapitel 6) vor.

Parser lesen den Quelltext aus

Der englische Begriff »to parse« bedeutet so viel wie analysieren. Die Aufgabe des Parsers ist es, den vom Crawler gelieferten Quelltext einer Seite zu verarbeiten.

Dabei wird der Quelltext anhand der suchmaschinenspezifischen Ranking-Kriterien untersucht.

Um das Thema der Seite zu bestimmen, achtet der Parser möglicherweise darauf, welche Begriffe in HTML-Überschriften oder im Seitentitel vorkommen.

Die im Quelltext enthaltenen Adressen verlinkter Dokumente, sowohl interne Links also auch Links zu externen Websites, werden an den sogenannten Scheduler übermittelt, um (neue) Dokumente finden zu können.

Indexer bereiten Dokumente für den Index auf

Nur indexierte Dokumente können über die Websuche gefunden werden. Aus diesem Grund schaut der Parser beispielsweise, ob ein Dokument vom Webmaster möglicherweise nicht für die Indexierung freigegeben ist. Wie Sie als Webmaster diese Angabe vornehmen, erfahren Sie in diesem Kapitel unter »Metatags«, zu finden im Abschnitt »Wichtige Elemente der Onpage-Optimierung«.

Die Aufgabe der Indexer (engl. to index: indexieren) besteht darin, Dokumente für den Suchmaschinenindex aufzubereiten, das Dokument also »suchbar« zu machen.

Scheduler steuern die Crawler

Der Scheduler (engl. to schedule: etwas planen) ist dafür verantwortlich, dass bekannte Adressen erneut oder erstmalig aufgerufen werden. Er übernimmt die Steuerung der Crawler.

Wenn man sich die Größe des Netzes vor Augen führt, wird ersichtlich, warum nicht jede Webseite im gleichen zeitlichen Abstand analysiert werden kann und sollte. Denn wenn sich ein Dokument selten ändert, kann eine Suchmaschine ihre endlichen Ressourcen besser auf die Analyse anderer Dokumente verwenden: beispielsweise solche, die sich regelmäßig ändern und in der Suche prominent auftauchen, oder für die Entdeckung neuer Inhalte. Bei der Findung neuer Inhalte helfen Suchmaschinen unter anderem XML-Sitemaps. Deren Vorzüge stelle ich Ihnen im Abschnitt über Sitemaps in diesem Kapitel vor (Seite 64 f.).

So funktioniert die Suche

Wenn Sie tiefer in das Thema einsteigen möchten, werfen Sie einen Blick auf die von Google frei im Netz verfügbaren Informationen unter So funktioniert die Suche. Diese finden Sie unter http://www.google.com/insidesearch/howsearchworks/thestory/ (http://seobuch.net/246).

Keyword-Recherche: die richtigen Suchbegriffe finden

Als Website-Betreiber oder -Verantwortlicher möchten Sie im Rahmen Ihrer SEO-Maßnahmen in den Trefferlisten zu den Suchanfragen, die für Ihr Website-Angebot relevant sind, eine gute Platzierung erreichen. Hierfür ist es notwendig, sich darüber Gedanken zu machen, mit welchen Wörtern ein Nutzer das beschreibt, was er auf Ihrer Seite findet. Hier gibt es immer wieder gravierende Unterschiede in der verwendeten Terminologie von Experten, häufig vertreten durch die Website-Inhaber, und Laien.

Ein Beispiel: Auf der Website eines Herstellers wird das neue Produkt »dneasy« vorgestellt. Dieses wird zur Extraktion von DNA verwendet. Vermutlich sucht ein potenziell interessierter Käufer eher nach »DNA Extraktion« als nach »dneasy«. Das Produkt ist ihm möglicherweise noch kein Begriff. Der Hersteller sollte deshalb auch die generische Umschreibung »DNA Extraktion« auf seiner Seite verwenden.

Kunst- oder Markenbegriffe wie im Beispiel oben bekommen für einen Laien nur dann eine Bedeutung, wenn diese erlernt wird. Das findet beispielsweise über klassische Marketingmaßnahmen wie TV-Werbung oder Anzeigen in Zeitungen statt.

Im Suchmaschinenmarketing möchte man selbstverständlich nicht nur über eigene Markenbegriffe gefunden werden, sondern auch über generische Gattungs- oder Produktbegriffe. Durch eine Optimierung auf generische Begriffe können Besucher erreicht werden, die noch keinen speziellen Anbieter oder ein spezielles Produkt im Kopf haben – oder denen Anbieter und Produktname gerade nicht einfallen.

Es gibt eine Reihe von Quellen, die bei der Recherche nach passenden Suchwörtern herangezogen werden können. Nachfolgende Möglichkeiten geben Ihnen einen ersten Überblick darüber, wie Sie vorgehen können:

Keyword-Brainstorming

Es ist wichtig, sich selbst intensiv damit auseinanderzusetzen, wie man die Inhalte der eigenen Website beschreiben oder mit welchen Wörtern man nach ihnen suchen würde. Hilfreich ist es in diesem Zusammenhang außerdem, Experten und auch (potenziell am Angebot interessierte) Laien in Bezug auf ihre Keywords zu befragen.

Google AdWords Keyword-Planer: die Quelle für Ideen und Suchvolumina

Mit dem Keyword-Planer stellt Google ein kostenfreies Tool zur Verfügung, über das sich die (ungefähre) Suchwortnachfrage bestimmen lässt. Das Tool ist Teil von Googles Werbeprogramm Google AdWords. Es liefert nicht nur Suchvolumina für abgefragte Keywords, sondern auf Wunsch auch Keyword-Ideen.

Abbildung 1-8: Informationen zu Suchvolumina einzelner Keywords pro Monat bei Google

Tipp Beachten Sie die Möglichkeit, eine Webadresse einzutragen. Google liefert Ihnen Suchanfrageninformationen – in diesem Fall anhand der auf der Seite enthaltenen Wörter.

Um Keyword-Informationen basierend auf einer Adresse zu erhalten, wählen Sie im Keyword-Planer unter Neue Keywords finden und Daten zum Suchvolumen abrufen den Punkt Mithilfe einer Wortgruppe, einer Website oder einer Kategorie nach neuen Keywords suchen und tragen die Adresse im zweiten Eingabefeld unter Ihre Zielseite ein.

Ganz gleich über welche Methode Sie Keywords recherchieren, der Keyword-Planer wird Sie stets begleiten. Leider gibt es einen großen Wermutstropfen: Google hat im Sommer 2016 die Datenverfügbarkeit für AdWords-Konten mit geringen Werbeausgaben (ohne genauer zu spezifizieren, was das in Rechnungsbeträgen ausgedrückt bedeutet) eingeschränkt. Anstatt wie bisher einzelne Suchvolumina zu sehen, sehen die betroffenen Konten nur noch grobe Wertebereiche wie 1Tsd bis 10Tsd. Abhilfe können kostenpflichtige Tools leisten, die Suchvolumina weiterhin dank entsprechender eigener Werbeausgaben bei Google AdWords abfragen und Ihnen zur Verfügung stellen können. Einige dieser Tools stelle ich in diesem Kapitel vor.

Google Suggest als Keyword-Quelle

Wenn Nutzer eine Suchanfrage eingeben, versucht Google, anhand der bisherigen Zeichenfolge die Suchanfrage zu vervollständigen. Doch nicht nur das, auch die Suchergebnisse werden bereits im Hintergrund anhand der aktuellen Suche geladen.

Es gibt drei Faktoren, die entscheidend beeinflussen, welche Begrifflichkeiten in Google Suggest erscheinen:

• die Suchhäufigkeit

• der Nutzerstandort

• die Suchhistorie des Nutzers

Google ist in der Lage, aktuell besonders stark nachgefragte Suchbegriffe schnell in die Suchvorschläge zu integrieren. Das wird besonders bei »Trending Topics« deutlich. Ist ein Thema gerade besonders nachgefragt, erscheint es sehr schnell in den Suchvorschlägen.

Da Google Suggest von den (bisherigen) Nutzereingaben beeinflusst wird, geben die Suchvorschläge einen Hinweis darauf, welche Themen regelmäßig nachgefragt werden. Die Ergebnisse können deshalb ein sinnvoller Teil der eigenen Content-Strategie sein.

Schauen Sie sich für die Generierung von Keyword-Ideen hilfreiche Tools wie Keywordtool.io (http://keywordtool.io/ – http://seobuch.net/015) oder Ubersuggest (https://ubersuggest.io/ – http://seobuch.net/810) an, die sehr viele auf (Google-)Suchvorschlägen basierende Daten zur Verfügung stellen.

Abbildung 1-9: Das Tool Keywordtool.io hilft bei der Keyword-Recherche, indem es Suggest-Suchvorschläge zum abgefragten Keyword anzeigt.

Die interne Suche als Keyword-Quelle nutzen

Es gibt gute Gründe dafür, auch die internen Suchanfragen auszuwerten. Neben der Möglichkeit, auf diesem Weg neue Suchanfragen zu identifizieren, kann die Analyse der internen Suchen dabei helfen, den Aufbau der Website zu verbessern. Denn wenn ein Nutzer aktiv sucht, hat er den gewünschten Inhalt nicht auf Anhieb gefunden.

Tipp Neben dem »Was wurde gesucht?« ermöglicht auch das »Was wurde gefunden?« wichtige Einsichten. Denn womöglich liefert eine interne Suchanfrage irrelevante oder eben gar keine Ergebnisse, obwohl passende Ergebnisse zur Anfrage auf der Website zu finden wären. Besonders bei Onlineshops ist die Ergebnisqualität interner Suchen regelmäßig ernüchternd.

Verwandte Suchanfragen

Viele Suchmaschinen zeigen der abgegebenen Suchanfrage ähnelnde Begriffe an. Auch diese häufig als verwandte Suchanfragen bezeichneten Darstellungen können Ihnen weitere Keyword-Ideen liefern.

In der Google-Suche werden ähnliche Suchanfragen (engl. Related Search) am Ende der Suchergebnisseite angezeigt.

Abbildung 1-10: Am Seitenende zeigt Google zur Suchanfrage verwandte Begriffe an.

Wettbewerbsanalysen: Worauf optimiert mein Konkurrent?

Die Webauftritte von Konkurrenten zu analysieren ist ein legitimes Vorgehen, um die eigene Onlinestrategie zu verbessern. Das gilt selbstverständlich auch für die Keyword-Recherche.

Schauen Sie sich an, welche Themen Ihre Wettbewerber auf ihren Websites bedienen. Welche Themen werden in der Hauptnavigation verlinkt? Welche Untergruppen bildet ein Wettbewerber? Versuchen Sie, das Thema der einzelnen Seiten abzuleiten und in passende Suchanfragen zu übertragen. Wenn diese Themen zu Ihrem Angebot passen und für Sie wichtig sind, sollten Sie sie mit Ihrer Website ebenfalls abdecken. Hilfreich sind in diesem Zusammenhang SEO-Tools, da sie Ihnen sagen können, zu welchen (vom Tool erfassten) Suchanfragen eine Konkurrenzseite gefunden wird. Mehr dazu im nächsten Abschnitt.

SEO-Tools zeigen Ihnen ähnliche Begriffe und Keywords der Konkurrenz

Beim Aufspüren von Suchbegriffen mit (hohem) Suchpotenzial können Ihnen aber auch SEO-Tools, beispielsweise Sistrix, Searchmetrics oder SEMrush, helfen, denn diese zeigen Ihnen ein paar der Begriffe an, zu denen die Websites Ihrer Wettbewerber in der unbezahlten (und bezahlten) Google-Suche erscheinen.

Dazu werden regelmäßig, in der Regel einmal pro Woche, die ersten 100 Ergebnisse für die vom Toolanbieter definierten Suchbegriffe abgefragt. Durch die Kombination aus Suchvolumen und Position stellen SEO-Tools dar, wie sich eine Domain in der Google-Suche entwickelt.

Üblicherweise werden die von den Tools erhobenen Zahlen als »Sichtbarkeitswerte« bezeichnet. Vereinfacht gesagt: Zu je mehr Suchbegriffen mit einer möglichst hohen regelmäßigen Nachfrage (dem Suchvolumen) eine Website auf den vorderen Plätzen gefunden wird, desto sichtbarer ist sie.

Abbildung 1-11: Im SEO-Tool Sistrix ist Mitte 2015 ein deutlicher Sichtbarkeitsverlust bei der Website schleswig-holstein.de zu sehen. (Quelle: sistrix.de)

Mit diesen Tools können Sie jede beliebige Website analysieren, die zu mindestens einem der vom Tool kontrollierten Begriffe gefunden wird. Aber Achtung: Das müssen nicht zwingend alle oder die relevanten Suchanfragen für Ihre Website sein.

Dank der breiten Streuung der überwachten Begriffe ergibt sich dennoch ein aussagekräftiges Bild über die verschiedensten Branchen hinweg.

Da jedes Tool andere Suchbegriffe auswertet und andere Faktoren sowie eine andere Gewichtung für seine Sichtbarkeitsberechnungen verwendet, sind die Zahlen verschiedener Tools nicht untereinander vergleichbar.

Die nachfolgend genannten SaaS-Tools (SaaS – Software as a Service) zählen zu den bekanntesten in Deutschland. Die monatlichen Kosten belaufen sich in der Regel auf rund 100 Euro, abhängig vom gewünschten Funktionsumfang können die Kosten aber steigen.

• Sistrix (www.sistrix.de – http://seobuch.net/578)

• Searchmetrics (www.searchmetrics.de – http://seobuch.net/376)

• SEMrush (de.semrush.com – http://seobuch.net/621)

• Xovi (www.xovi.de – http://seobuch.net/680)

Tipp SEO-Tools bieten etwas, das Google Search Console nicht leisten will und kann: den Blick auf die Konkurrenz. Mit der Search Console können nur eigene Websites analysiert werden. Daten über Ihre Konkurrenten erhalten Sie nicht.

Suchtrends mit Google Trends ermitteln

Unterschiedliche Ereignisse sind in der Lage, das Suchvolumen stark zu beeinflussen. Um Suchtrends zu identifizieren und zu analysieren, kann Google Trends (https://www.google.de/trends/ – http://seobuch.net/922) verwendet werden. Auch dieses Tool wird kostenfrei von Google zur Verfügung gestellt.

Zu bestimmten Themen bietet es detaillierte Themenseiten, wie beispielsweise die in Abbildung 1-12 gezeigte Aufbereitung des Themas »Blitzer-Marathon«.

Abbildung 1-12: Google Trends-Seite zum Thema Blitzer-Marathon

Doch auch einzelne Begriffe können ausgewertet und mit anderen verglichen werden. Zwar erhält man über Google Trends keine absoluten Suchvolumina (wobei auch die Suchvolumenangaben des Keyword-Planer von Google, wie bereits beschrieben, eher Richtwerte als absolute Zahlen darstellen), aber die Nachfrage nach unterschiedlichen Begriffen wird ins Verhältnis gesetzt, und regionale Unterschiede können verglichen werden.

So lässt sich aus Abbildung 1-13 ablesen, dass »Brötchen« bundesweit gesehen der relevanteste der drei abgefragten Begriffe ist und »Semmel« in Bayern die stärkste regionale Nachfrage genießt.

Abbildung 1-13: Die Suchanfragen »Brötchen«, »Schrippen« und »Semmel« im regionalen Vergleich

Relevante Inhalte für Suchintentionen erstellen

Eine Keyword-Recherche und die Bewertung der einzelnen Suchthemen ist ein wichtiger Schritt der Suchmaschinenoptimierung. Vor der Erstellung oder Aktualisierung vorhandener Inhalte ist es wichtig, sich über die Nutzerintention Gedanken zu machen. Ansonsten erstellt man Inhalte an der Intention der Nutzer vorbei.

So wird sich ein Nutzer, der »Unboxing«-Themen (also das Auspacken von Produkten und deren Beschreibung) interessant findet, wahrscheinlich weniger für die Lektüre langer Texte begeistern können, sondern vermutlich eher Videoinhalte als relevanten Inhalt ansehen. Auch andere Suchanfragecluster lassen sich viel besser mit Bildern oder Videos aufbereiten als mit geschriebenem Text.

Bei der Erstellung von textlichen Inhalten können Sie typische Fragen als Inspirationsquelle für Ihre Texte verwenden. Beispielsweise Answerthepublic http://answerthepublic.com/ – http://seobuch.net/188 zeigt Ihnen Fragestellungen rund um ein Thema. Alternativ können Sie bei Google nach sogenannten »W-Fragen-Tools« suchen.

Bei der Formulierung von Texten können Sie auf Textanalysetools wie das von Wortliga (http://wortliga.de/textanalyse/ – http://seobuch.net/221) oder Schreiblabor (http://www.schreiblabor.com/textanalyse/ – http://seobuch.net/730) zurückgreifen, um die Formulierung Ihrer Texte zu optimieren.

Der Mythos Keyworddichte

Selbstverständlich hat das Auftreten der im Zusammenhang mit dem optimierten Seitenthema besonders häufig gesuchten Begriffe einen Einfluss auf die Relevanz Ihrer Seiten und damit auf das Ranking in der unbezahlten Suche. Aus diesem Grund sollten Sie versuchen, die wichtigsten Keywords im Text zu nennen und – im natürlichen Umfang – zu wiederholen.

Lange Zeit galt eine Keyworddichte (oder auch Keyword-Density) von 3 % als guter Indikator für eine solide textliche Optimierung. Innerhalb von 100 geschriebenen Wörtern sollte das Hauptsuchwort dreimal vorkommen. Von solchen starren Regeln nehmen Sie aus meiner Sicht besser Abstand. Ein sehr gut optimierter Text wiederholt nicht eisern wichtige Begriffe, sondern hilft Nutzern dabei, das Gesuchte zu finden, und zwar in der Sprache der Zielgruppe. Als Daumenregel gilt: Wenn ein Wort beim normalen Lesen wegen zu vieler Wiederholungen auffällt, dann ist der Text wahrscheinlich zu stark optimiert und sollte überarbeitet werden.

Termgewichtung mit WDF*IDF

Wenn Sie sich intensiv mit der textlichen Optimierung von Webseiten beschäftigen, werden Sie früher oder später über die Termgewichtung mittels WDF*IDF stolpern. Mit WDF*IDF-Analysen kann das (Haupt-)Thema eines Dokuments bestimmt werden. Dabei steht WDF für Within Document Frequency, also wie häufig ein Suchbegriff im analysierten Dokument vorkommt, und IDF steht für Inverse Document Frequency. IDF beschreibt das Verhältnis aller (bekannten) Dokumente zu den Dokumenten, die den gesuchten Suchbegriff (oder Term) enthalten.

Da WDF*IDF-Analysen den gesamten Textkorpus untersuchen und sich nicht nur auf einen einzelnen Begriff fokussieren, bekommt man einen guten Überblick darüber, welche Themen miteinander in Verbindung stehen.

Abbildung 1-14: In Texten zum »Wiener Kongress« scheinen unter anderem die Begriffe Preussen und Napoleon relevant zu sein. (Quelle: seolyze.com)

Eines darf man bei der Diskussion nicht vergessen: Es ist nicht klar, ob diese Term-gewichtungsmöglichkeit von Suchmaschinen wie Google eingesetzt wird. Zudem ist unbekannt, inwieweit einzelne Begriffe bei der Berechnung berücksichtigt werden. So wäre es möglich, dass Suchmaschinen am Anfang eines Texts vorkommende Wörter oder solche, die durch HTML-Angaben anders ausgezeichnet sind, anders bewerten. Wie dem auch sei: WDF*IDF kann Textern helfen, bessere (und thematisch umfassendere) Texte zu erstellen.

Am Markt gibt es eine ganze Reihe von Tools, die WDF*IDF-Analysen anbieten. Dazu zählen allgemeine SEO-Tools wie Xovi (www.xovi.de – http://seobuch.net/680), Searchmetrics (www.searchmetrics.de – http://seobuch.net/376) oder Onpage.org (https://de.onpage.org – http://seobuch.net/929).

Google ändert sich kontinuierlich: Google-Updates im Überblick

Im deutschsprachigen Raum hat Google einen erdrückenden Marktanteil bei allgemeinen Websuchen. Das führt letztendlich dazu, dass viele Websites von dem durch Google vermittelten Nutzerstrom abhängig sind. Eine schlechte Auffindbarkeit über Googles Suche bedeutet, dass diese Webseiten für viele Internetnutzer quasi unsichtbar sind.

Der Algorithmus von Google wird wie der vieler anderer Suchmaschinen ebenfalls ständig überarbeitet und in Form von Updates aktualisiert. Neue Faktoren kommen hinzu, alte verlieren oder gewinnen an Gewicht oder entfallen. Google führt jedes Jahr unzählige Tests (mit kleinen oder größeren Testgruppen) der Suchergebnisse und ihrer Berechnung durch.

Von Zeit zu Zeit gibt es größere Aktualisierungen, die sogenannten Google-Updates, die zu deutlichen Verschiebungen in den Suchergebnissen führen. Viele dieser Anpassungen wurden von Google entwickelt, um eine bestimmte Herausforderung bei der Ergebnisqualität abzumildern oder zu beseitigen, beispielsweise exzessiver Linkaufbau.

Nachfolgend sind einige signifikante Anpassungen der letzten Jahre aufgelistet. Die angegebene Jahreszahl bezieht sich auf das Jahr, in dem das Update erstmalig von Google kommuniziert wurde. Die meisten Updates werden in unregelmäßigen Abständen aktualisiert oder sind heute Teil des Kernalgorithmus von Google geworden.

Der Unterschied zwischen einem Update und dem Kernalgorithmus besteht darin, dass sich Ranking-Veränderung durch ein Update immer so lange auf eine Website auswirken, bis das Update selbst aktualisiert wurde. Dafür sind meistens umfassende Neuberechnungen notwendig, die Google separat anstoßen muss. Die Zeiträume zwischen Aktualisierungen von Updates sind dabei unterschiedlich lang. Auch das Ausrollen eines Updates kann mehrere Wochen dauern.