Content Optimierung für Suchmaschinen – SEO meets gute Inhalte

Der Begriff Content Optimierung ist in aller Munde. Renommierte Online Experten raten Webmastern dazu, ihre Inhalte für Suchmaschinen zu optimieren: seien es Bilder, Texte oder Überschriften. Aber was genau bedeutet Content Optimierung? Mit wie viel Aufwand ist sie verbunden und welchen Maßstab für guten oder schlechten Content gibt es? Im folgenden Artikel sollen diese Fragen geklärt und eine Vorgehensweise für Content Optimierung aufgezeigt werden.

Am Anfang war die Keywordanalyse

Ehe ihr euch der Optimierung eures Contents widmet, ist eine fundierte Keywordanalyse das A und O. Sie bildet die Grundlage für eure Arbeit. Plant ausreichend Zeit für diesen Arbeitsschritt ein, damit ihr das Themengebiet umfassend und, wenn es erforderlich ist, auch saisonal recherchieren könnt. Ermittelt relevante Keywords und deren Suchvolumina. Berücksichtigt neben Brandbegriffen, sofern ihr für eine Firma oder eine Marke arbeitet, auch generische Keywords und vergesst die Longtail Keywords nicht.

Es ist vor allem bei Themen, zu denen man bis dato keinen Zugang hatte, nicht immer leicht, Keywords geschickt zu recherchieren. Fragt an dieser Stelle Kollegen oder Freunde, was sie mit dem jeweiligen Thema verbinden. Zudem hilft euch bei eurer Recherche Google Suggest

Beispiel Suchanfrage zu plexiglas

Beispiel Suchanfrage zu plexiglas 

oder die ähnlichen Suchanfragen, die ihr am Ende der Suchergebnisse findet:

Beispiel Suchanfrage zu plexiglas

Beispiel Suchanfrage zu plexiglas

Der Keyword Planer von Google ist ebenfalls ein hilfreiches Tool bei der Recherche. Er ist kostenlos und zeigt nicht nur die Suchvolumina von bestimmten Keywords an, sondern liefert auch weitere Keyword Ideen, die ihr eventuell nutzen könnt.

Habt ihr ausreichend Keywords zusammen, sollten diese sinnvoll in Gruppen gegliedert werden. Eine ausführliche Anleitung, wie ihr bei einer Keywordanalyse vorgeht, findet ihr in unserem Blog.

Eine stimmige Gruppierung ist vor allem für den nächsten Arbeitsschritt sehr sinnvoll. Optimaler Weise stimmen diese Gruppen mit den Bereichen der Website überein, sodass ihr einzelnen Unterseiten schneller Haupt- und Nebenkeywords zuordnen könnt.

Zuordnung der Keywords

Im nächsten Schritt ordnet ihr euren Keywords den passenden Unterseiten zu. Bei dem sogenannten Keyword-Mapping solltet ihr auf zwei Dinge besonders achten:

  1. Sind alle wichtigen Themen und Keywords, die ihr in der Analyse ausgearbeitet habt, auf der Website vorhanden?

Ist dies nicht der Fall, solltet ihr euch für eure Content Optimierung direkt vormerken, dass ein Ausbau der jeweiligen Themen ratsam wäre.

  1. Gibt es zu jedem Keyword eine Seite oder sind mehrere Unterseiten, die dasselbe Keyword behandeln, vorhanden?
    Ist dies der Fall, solltet ihr das ebenfalls für eure Content Optimierung vormerken. Hier sind weitere Schritte erforderlich, um Duplicate Content zu vermeiden. Abhilfe leisten kann hier zum Beispiel ein Canonical Tag oder die Zusammenlegung der Inhalte.

Nach der Zuordnung habt ihr ein Dokument, in dem alle eure Unterseiten oder ausschließlich die Unterseiten, die ihr optimieren wollt, aufgelistet sind. Jeder URL ist dann ein individuelles Hauptkeyword und mehrere Nebenkeywords zugeordnet. Wie genau ihr bei einem Keyword-Mapping vorgeht, haben wir ebenfalls für euch im Blog zusammengefasst.

Mit der Keywordanalyse und dem -mapping habt ihr nun den Grundstein für eine erfolgreiche Content Optimierung gelegt. Als nächstes gilt es sich zu überlegen, mit welchen Unterseiten ihr beginnen wollt. Ein möglicher Ansatz ist zu schauen, welche Unterseiten am meisten Potential bieten. Wie hoch ist das Suchvolumen des jeweiligen Keywords? Gibt es für das Keyword bereits gute Wettbewerber oder sind die ersten Rankingplätze mit dürftigen Seiten besetzt? Ein weiterer wichtiger Faktor ist, ob das Thema der Unterseite saisonalen Schwankungen unterliegt. Bietet eine Tourismus-Website Unterseiten zu den Themen Wintersport und Freibäder, macht es durchaus Sinn, die Freibäder im Frühling und den Wintersport im Herbst zu optimieren.

Erstellt euch einen Optimierungsplan, in dem ihr euer Vorgehen für die nächsten sechs bis zwölf Monate plant und tragt hier auch eure Fortschritte ein.

Detaillierte Content Optimierung

Bei der detaillierten Optimierung betrachtet ihr folgende Faktoren auf den URLs, die ihr optimieren möchtet:

  • Meta-Daten
  • Überschriften
  • Text
  • Bilder
  • Interne Verlinkung

Dabei steht bei den unterschiedlichen Prüfpunkten stets das zuvor definierte Keyword der jeweiligen Unterseite im Vordergrund.

Meta-Daten

Der erste Berührungspunkt mit eurer Website ist für potenzielle Nutzer das Suchergebnis, das sogenannten Snippet. Dieses setzt sich aus den Meta-Daten Title und Description zusammen.

Schaut euch zunächst das bestehende Snippet an. Hierbei helfen euch unterschiedliche Tools, wie zum Beispiel das kostenlose Snippet-Tool von Sistrix. Wichtig beim Title und bei der Description ist, dass vor allem im Title das relevante Keyword erwähnt wird. Die Description bietet Platz für Nebenkeywords. Das Snippet sollte so formuliert sein, dass es zum Klicken anregt. Das Keyword sollte dabei im Title möglichst weit vorne stehen. Die Description sollte beschreiben, worum es auf der Seite geht und bestenfalls ein Call-To-Action-Element enthalten.

Snippet der lunapark Startseite

Snippet der lunapark Startseite

Auch hinsichtlich der Länge gibt es konkrete Vorgaben. Ein optimierter Title ist 55 bis 60 Zeichen inklusive Leerzeichen lang, bei der Description liegt der Richtwert zwischen 140 und 156 Zeichen. Ist das Snippet eurer Unterseite nicht optimiert, macht an dieser Stelle Vorgaben oder passt es direkt im CMS an. In unserem Blog findet ihr eine Anleitung für das Verfassen von Snippets.

Überschriften

Bei der detaillierten Content Optimierung prüft ihr auch die Überschriften. Hier könnt ihr entweder händisch vorgehen oder die Hilfe von Tools nutzen. Wenn ihr die Überschriften händisch kontrolliert, schaut euch die h-Tags im Quellcode an.

H-Tags im Quellcode überprüfen

H-Tags im Quellcode überprüfen

Alternativ gibt es Tools, die euch alle Überschriften übersichtlich zeigen. Das Website Success Tool von Ryte liefert euch folgende Informationen, wenn ihr die URL der jeweiligen Unterseite eingebt.

Website Success von Ryte

Website Success von Ryte

Hier seht ihr alle h-Überschriften geordnet, wie sie auf der Unterseite auftauchen. Neben Ryte gibt es auch kostenlose Tools, die euch eine solche Übersicht liefern. SEORCH ist ein Gratis-Tool, mit dem ihr eure Unterseiten analysieren könnt, unter anderem zeigt das Tool auch die Überschriften Hierarchie an.

Seitenanalyse mit SEORCH

Seitenanalyse mit SEORCH

Unabhängig davon, welches Tool ihr nutzt, ist es wichtig, dass auf jeder Unterseite nur eine h1-Überschrift vorhanden ist. Diese sollte nach Möglichkeit das wichtigste Keyword enthalten. Unterüberschriften sollten als h2 oder h3 formatiert sein.

Im Footer, in der Sidebar sowie in der Navigation ist die Verwendung von h-Tags nicht empfehlenswert.

Text

Der Text, der sich auf der Seite befindet, sollte zu dem jeweiligen Thema passen und informativ sein. Wichtig an dieser Stelle ist, dass er die Suchintention des Nutzers befriedigt. Der Text muss also genau die Antwort liefern, die der Nutzer haben möchte. Der Fokus liegt also auf dem Inhalt. Die Zeiten, in denen Keywordstuffing das Ranking positiv beeinflusst hat, sind längst vorbei.

Mittlerweile gibt es auch für das Texten einige Tools, die einem helfen, die richtigen Fragen zu beantworten und die richtigen Keywords zu nutzen. Wenn ihr nicht auf kostenpflichtige Tools zurückgreifen möchtet, ist ein geschicktes Vorgehen der Blick auf die Konkurrenz. Bleiben wir bei dem Beispiel Plexiglas. Wenn ihr den Begriff googlet und euch die ersten fünf Positionen anseht, bekommt ihr einen Eindruck davon, was ihr tun müsst, um besser zu ranken.

  • Welche Fragestellungen werden auf den Websites der Konkurrenz beantwortet?
  • Welche Keywords kommen vor und wie lang sind die Texte?
  • Gibt es Bilder auf der Seite?
  • Schaut euch auch das Snippet an, um hier Inspirationen zu erhaschen.

Wenn ihr die ersten vier oder fünf Positionen genau untersucht, notiert euch die Fragestellungen und die Themen, die auf der Seite behandelt werden. Daraus erarbeitet ihr eine stimmige Struktur für den Text für eure Unterseiten. Ist bereits Text auf eurer Seite vorhanden, baut diesen aus und schaut dabei, welche Fragestellungen ihr bereits beantwortet habt. Optimaler Weise ist euer Text am Ende länger, als der Text auf einer der Seiten, die auf den ersten vier oder fünf Positionen ranken.

Schaut auch, ob ihr in eurem Text relevante Keywords genutzt habt oder ob sich an der ein oder anderen Stelle noch einige ergänzen lassen. Hierbei hilft euch das Content Optimize Tool von Ryte.

Content Optimize Tool von Ryte

Content Optimize Tool von Ryte

Mit dem Tool könnt ihr entweder einen neuen Text schreiben oder einen bestehenden Text optimieren. Dazu gebt ihr in dem Feld einfach den Text ein und definiert ein Hauptkeyword. Ihr trefft eine Länder- und Sprachwahl. Das Tool liefert euch dann Vorschläge an Wörtern, die ihr häufiger, bzw. weniger häufiger benutzen solltet.

Bestehenden Text optimieren mit Ryte

Bestehenden Text optimieren mit Ryte

Lest den Text gründlich Korrektur und verlinkt andere Unterseiten an den Stellen, an denen es Sinn macht.

Bilder

Wenn ihr auf eurer Seite Bilder verwendet, prüft die Alt-Tags. Das Alt-Tag sollte grob beschreiben, worum es auf dem Bild geht.

Alt-Tags von Bildern im Quell-Code prüfen

Alt-Tags von Bildern im Quellcode prüfen

Wenn die Alt-Tags bei euch fehlen, ergänzt sie. Wenn sie nicht aussagekräftig sind, verbessert sie.

Es gibt unterschiedliche Wege, wie ihr die Alt-Tags prüfen könnt. Ihr findet sie im Quellcode der Seite, aber auch im Screaming Frog, bei Ryte oder SEORCH findet sich eine Übersicht der Alt-Tags.

Seitenanalyse mit SEORCH

Seitenanalyse mit SEORCH

Mehr zum Thema Bildoptimierung findet ihr im Artikel Bilder SEO: Bildoptimierung für Websites.

Interne Verlinkung

Ein weiteres Prüfkriterium bei der Content Optimierung ist die interne Verlinkung. Achtet hier darauf, dass ihr sowohl von der jeweiligen Unterseite aus auf andere Seiten verlinkt, als auch von anderen Seiten auf die jeweilige Unterseite.

Dabei ist es wichtig, dass der Anchortext (also der Linktext) des Links aus dem Haupt- oder den Nebenkeywords der Unterseite besteht, auf die der Link zeigt. Wichtig ist auch, dass ein Anchortext jeweils nur einer Seite zugeordnet ist und nicht auch für eine andere Unterseite verwendet wird.

Wenn ihr wissen wollt, wo die jeweilige Unterseite bereits verlinkt ist und welche Links sich auf ihr befinden, findet ihr das mit dem Screaming Frog heraus. Dazu müsst ihr zuvor einen kompletten Crawl der Website machen.

Interne Verlinkung mit dem Sreaming Frog prüfen

Interne Verlinkung mit dem Sreaming Frog prüfen

Hier könnt ihr euch die Inlinks (eingehenden Links) und die Outlinks (ausgehenden Links) einer Unterseite und auch die dazu gehörigen Anchortexte anzeigen lassen.

Besitzt eure Website eine schlecht ausgebaute interne Verlinkung, solltet ihr dies verbessern. Schaut hierzu, an welchen Stellen sich eine Verlinkung anbietet und achtet dabei darauf, dass ihr stets passende Anchortexte wählt. Übrigens: Die Suchmaschine wertet Links im Fließtext stärker, als an anderen Stellen. Achtet also besonders im Fließtext auf eine gute interne Verlinkung.

Wie kann ich überprüfen, ob meine Optimierungen etwas gebracht haben?

Eure Arbeit ist mit der Optimierung natürlich noch nicht getan. Schließlich wollt ihr ja wissen, ob eure Maßnahmen einen positiven Effekt haben. Also müsst ihr einen geeigneten Weg finden, um die Entwicklung der Unterseite zu monitoren. Hierzu ist es zunächst wichtig, dass ihr euch notiert, wann ihr die Änderung vorgenommen habt. Vor allem Textoptimierungen brauchen einige Zeit, bis sich ihre Auswirkungen zeigen. Ihr solltet euch also ein paar Wochen gedulden.

Wenn ihr ein Webanalyse-Tool verwendet, könnt ihr Fortschritte anhand des Traffics und anderen Kennzahlen nachverfolgen. Im Google Analytics Konto könnt ihr zum Beispiel unter Verhalten > Website Content > alle Seiten eure Unterseite auswählen. Wählt dann den Zeitraum aus, den ihr angezeigt bekommen wollt und stellt das Segment „organischer Traffic“ ein.

Optimierungserfolge mit Google Analytics nachvollziehen

Optimierungserfolge mit Google Analytics nachvollziehen

Wenn ihr gezielt die Keyword Rankings beobachten wollt, könnt ihr dafür bestimmte Monitoring Tools, wie Sistrix, AWR Cloud oder Keywordmonitor nutzen. Notiert euch den Traffic und die Rankings einmal monatlich, sodass ihr einen dokumentierten Verlauf erhaltet.

Fazit

Mit gezielten, auf die Wettbewerber abgestimmten Maßnahmen habt ihr die Möglichkeit, eure Rankings zu verbessern und den SEO Traffic zu steigern. Einige Maßnahmen funktionieren schneller, wie zum Beispiel die Snippet Optimierung. Andere Maßnahmen brauchen, wie oben bereits erwähnt, etwas Zeit. Natürlich ist die Content Optimierung kein Garant dafür, dass ihr irgendwann die Top Positionen in den Google Suchergebnissen erreicht. Wenn eure Seite technische Probleme oder andere Defizite aufweist, hilft auch die Content Optimierung nicht viel. Mit einem geschickt ausgearbeiteten Reporting könnt ihr die Entwicklung der jeweiligen Unterseite oder Unterseiten gut beobachten.

Daten Analyst und Chief Data Officer – Wen braucht mein Unternehmen für die Webanalyse?

Wir haben euch in unseren Artikeln „Finde das richtige Webanalyse-Tool“ und „Neues Webanalyse-Tool implementieren – Planung ist alles!“ bereits gezeigt, wie ihr das richtige Tool auswählt und wie ihr die Implementierung planen könnt. In diesem dritten Artikel möchten wir uns einem Bereich zuwenden, der häufig unterschätzt wird: Die Menschen, die mit dem Tool arbeiten.

Es reicht leider nicht, euren Mitarbeitern ein Tool aufzusetzen und diese dann mit dem Tool allein zu lassen. Um wirklich wertschöpfend mit einem Analyse-Tool zu arbeiten, braucht es ausreichend Ressourcen und eine sinnvolle Einarbeitung der beteiligten Mitarbeiter.

Dabei muss für euer Unternehmen geklärt werden, ob ein spezieller Analyst die Datenauswertung übernehmen soll, ob das Marketing die Aufgabe zusätzlich übernimmt oder ob jeder betroffene Bereich seine eigenen Daten analysiert. Dabei ist natürlich entscheidend, welche Ressourcen im Unternehmen freigemacht werden können.

Was sollte ein guter Daten Analyst mitbringen?

In den letzten 1,5 Jahren hat ein Umdenken stattgefunden und den Unternehmen ist die Wichtigkeit der Datenanalyse bewusster denn je. Daher sind erfahrene Analysten heiß begehrt – aber auch schwierig zu finden. Der Aufbau von internem Know-how kann daher entscheidend sein.

Habt ihr Glück und euer Unternehmen verfügt über einen eigenen Analysten, so sollte dieser innerhalb des Unternehmens eine Schnittstellenposition einnehmen. Er arbeitet mit allen betroffenen Abteilungen zusammen und hat so eine Gesamtsicht auf das Thema. Er ist in der Lage, die einzelnen Arbeitsbereiche der Webanalyse zu bündeln – auch gegenüber der Geschäftsführung.

Was sollte ein Analyst mitbringen? Noch gibt es keine einheitliche Ausbildung zum Analysten, daher können Analysten sowohl aus der IT, als auch aus dem Marketing oder anderen Fachbereichen stammen. Technisches Basiswissen ist auf jeden Fall von Vorteil. Ein guter Analyst sollte zudem gerne und viel hinterfragen und sich mit anderen Beteiligten auseinandersetzen können – Kommunikationsbereitschaft ist daher essenziell wichtig. Oft reden einzelne Abteilungen (Technik, IT, Marketing, Vertrieb etc.) aneinander vorbei – der Analyst nimmt hier eine moderierende Rolle ein. Ein guter Analyst verfügt zudem über die Fähigkeit, Daten zu verdichten, sodass sie auch jemand versteht, der nicht so tief in den Daten steckt.

Ein guter Analyst ist also nicht auf reine Technik beschränkt. Allerdings ist die Rolle des Analysten vor allem dafür verantwortlich, aufzuzeigen, was auf der Webseite noch nicht so gut funktioniert – sicherlich nicht für jeden eine geeignete Aufgabe.

Webanalyse-Wissen intern aufbauen

Wenn euer Unternehmen intern Mitarbeiter für die Webanalyse ausbilden möchte (oder muss), ist es sinnvoll Unterstützung durch eine externe Agentur oder einen externen Berater in Anspruch zu nehmen. Wenn intern Kompetenzen fehlen, beschleunigt Hilfe von außen den Prozess, denn man profitiert von der externen Erfahrung. Muss das Wissen intern, ohne Hilfe von außen aufgebaut werden, braucht dies deutlich mehr Zeit.

Im Unternehmen muss ein Bewusstsein für die Arbeit mit Daten geschaffen werden: Das Tool ist nur Mittel zum Zweck, die eigentliche Analyse durchführen und damit Antworten auf das „Warum“ finden, können nur die Menschen hinter dem Tool.

Gerade für Personen, die noch nie mit Analytics gearbeitet haben, müssen Basics erklärt werden und es muss ein gewisses Grundvertrauen in die Daten geweckt werden. Denn: Bestehen Zweifel an der Richtigkeit der Daten, so werden auch alle Analysen in Zweifel gezogen. Grundlage muss daher sein, den Mitarbeitern zu vermitteln, wie Daten gesammelt und Metriken überhaupt berechnet werden.

Bei der Schulung der Mitarbeiter müssen alle beteiligten Personen einbezogen werden, um ein unabhängiges Arbeiten zu ermöglichen. Dafür ist wichtig, vorab genau festzulegen, wer mit den Daten arbeiten wird und dementsprechende Schulungen braucht. Es ist außerdem sinnvoll nicht nur einen einzelnen Mitarbeiter fortzubilden, damit das Wissen nicht mit dem Mitarbeiter das Unternehmen verlassen kann.

Neben Seminaren zu Grundlagen, bietet sich auch ein individuelles Coaching an. Jede Abteilung, die mit Webanalyse arbeitet, hat andere Bedürfnisse und benötigt unterschiedliche Daten und Analysen. Ganz konkrete Fragen können daher in diesem Rahmen besser beantwortet werden, als durch Seminare, die das Thema eher umfassend behandeln. Zusätzlich können externe Agenturen und Berater helfen, eine Nutzersicht einzunehmen und der natürlichen Betriebsblindheit entgegenzuwirken, die sich gerne einstellt.

Was den Mitarbeitern oft noch fehlt, selbst wenn die Bedienung des Tools bereits bekannt ist, sind die wichtigen Fragestellungen hinter der Analyse: Was kann ich mit den Daten anfangen? Was kann ich daraus lesen? Wie sieht unser Plan aus? Ziel eines sinnvollen Coachings dürfen also nicht nur technische Fragen sein, sondern auch der Blick auf das große Ganze: Wofür machen wir das überhaupt?

Die Erfahrung zeigt, dass es sich lohnt ein weiteres Coaching anzusetzen, wenn bereits einige Zeit mit dem neuen Tool gearbeitet wurde. Hier können ganz konkrete Fragen zur alltäglichen Arbeit mit dem Tool beantwortet werden, die vielleicht erst während der Nutzung aufgekommen sind.

Förderlich ist auch ein reger Austausch unter den Nutzern, beispielsweise im Rahmen eines monatlichen Meetings, in dem die aktuellen Herausforderungen oder Lösungen für angefallene Probleme besprochen werden. So wird auch der interne Wissenstransfer gefördert und wertvolle Arbeitszeit eingespart, weil sich nicht jeder einzeln mit einem Problem auseinandersetzen muss, das ein anderer vielleicht schon für sich gelöst hat.

Brauche ich einen Chief Data Officer?

In großen Unternehmen stellt sich zusätzlich zur Position des Analysten die Frage, ob ein Chief Data Officer (CDO) eingesetzt werden sollte. Gerade in Unternehmen, die viele oder besonders sensible Daten erheben, ist dies sinnvoll. Ob es sich dabei tatsächlich namentlich um einen CDO handelt, oder ob jemand anderes sich in dieses Thema einarbeitet und Verantwortung übernimmt, ist dabei zweitrangig. Wichtig ist, dass jemand im Unternehmen den Überblick behält, wo und wie Daten gesammelt und verarbeitet werden. Diese Person kann auch als Ansprechpartner fungieren, wenn Abteilungen spezielle Daten benötigen oder Fragen zur Datenerhebung haben.

Fazit

Die Webanalyse ist kein Selbstläufer, sondern benötigt Mitarbeiter, die den Sinn hinter den Daten verstehen und wissen, wie sie interpretiert werden können. Hierzu muss euer Unternehmen Ressourcen bereitstellen, um passendes Personal einzustellen oder Mitarbeiter intern weiterzubilden.

Domain-Wechsel: Von der ccTLD zur geoTLD und die Folgen für SEO

Bei der Suchmaschinenoptimierung internationaler Websites spielt die Wahl der richtigen Domain-Strategie eine entscheidende Rolle. Unter Umständen werden relevante Inhalte nicht oder nur sehr eingeschränkt im passenden Land ausgespielt, wenn ihr hier auf die falsche Domain setzt. In einem Fallbeispiel zeige ich euch, welchen Zuwachs an Sichtbarkeit die Umstellung von einer länderspezifischen Top-Level-Domain auf eine regionale Top-Level-Domain haben kann und dass sich der Aufwand durchaus lohnen kann.

Länderspezifische Top-Level-Domain vs. generische Top-Level-Domain

Kurz zum Hintergrund: Google bewertet länderspezifische Top-Level-Domains (ccTLD) anders als generische Top-Level-Domains (gTLD). Länderspezifische Domains besitzen eine Endung, die sich aus dem Country Code eines Landes zusammensetzt, wie zum Beispiel .de für Deutschland oder .it für Italien. Im zur Endung passenden Land haben diese Domains häufig einen Ranking-Vorteil. In anderen Ländern ranken sie tendenziell schlechter.

Generische Top-Level-Domains besitzen eine neutrale Endung wie .com oder .info. Sie haben keinen Ranking-Vorteil in einem bestimmten Land, dafür aber auch keinen Nachteil in anderen Ländern. Befinden sich auf einer Website Inhalte, die in mehreren Ländern gefunden werden sollen, macht es Sinn, eher eine generische Domain zu verwenden. Alternativ kann aber auch für jedes Land eine eigene länderspezifische Domain verwendet werden. Die Nutzung einer länderspezifischen TLD für alle Zielländer ist hingegen nicht zu empfehlen.

Seit einigen Jahren gibt es auch noch die geoTLDs. Diese Domains setzen sich zwar nicht aus dem Country Code eines Landes zusammen, weisen aber trotzdem einen geografischen Bezug auf. Zu ihnen zählen zum Beispiel Endungen wie .berlin oder .nrw. Bisher werden diese Domains von Google wie ganz normale generische TLDs behandelt. Es ist allerdings nicht auszuschließen, dass sich dies irgendwann ändert. Sollte Google Daten sammeln, die nahelegen, dass es sich bei den Inhalten auf Websites, die diese Domains nutzen, um regionale Inhalte handelt und diese vor allem in einem bestimmten Gebiet nachgefragt sind, können sich hier neue Ranking-Vorteile und -Nachteile ergeben.

Die Ausgangssituation

In meinem Beispiel geht es um eine Website, die eine österreichische Länder-Domain verwendete (.at). Auf der Website befinden sich Inhalte in Deutsch, Englisch, Niederländisch und Italienisch. Für jede Sprache gibt es ein eigenes Unterverzeichnis. Außerdem werden hreflang-Tags verwendet, um die Inhalte den entsprechenden Sprachen zuzuordnen.

Die Website wird regelmäßig gepflegt und erhält kontinuierlich neuen Content. In Österreich entwickelte sich die Sichtbarkeit entsprechend positiv.

Sichtbarkeit im österreichischen Google-Index (Quelle: Sistrix)

Sichtbarkeit im österreichischen Google-Index (Quelle: Sistrix)

In den anderen Ländern war zwar auch eine leichte Steigerung zu erkennen, im Vergleich zum österreichischen Google-Index blieb sie hier aber auf einem deutlich niedrigeren Niveau.

Vergleich: Sichtbarkeit in Österreich, Deutschland, den Niederlanden und Italien (Quelle: Sistrix)

Vergleich: Sichtbarkeit in Österreich, Deutschland, den Niederlanden und Italien (Quelle: Sistrix)

Hauptzielmarkt der Website war aber vor allem Deutschland und speziell die deutschen Inhalte sollten hier deutlich besser gefunden werden.

Das Ziel: Mehr Sichtbarkeit in anderen Ländern

Da die Inhalte der Website nicht nur für den österreichischen Markt von Interesse waren, beschlossen wir die bisherige länderspezifische Top-Level-Domain auf eine generischere Domain umzuziehen. Dadurch versprachen wir uns eine höhere Sichtbarkeit in den anderen Ländern. Als Alternative gab es eine geoTLD, die wir nutzen konnten.

Risiken, die gegen den Domain-Wechsel sprachen, waren:

  • Einbruch der Sichtbarkeit im österreichischen Google-Index, da der Ranking-Vorteil der ccTLD wegfiele
  • Bei der Bewertung einer Domain durch Google spielt auch ihr Alter eine Rolle. Je älter eine Domain ist, desto höher wird sie tendenziell eingestuft.
  • Backlinks: Die alte Domain hatte bereits eine ganze Reihe guter Backlinks, welche ihr eine Stärke verliehen, die eine neue Domain erst einmal aufbauen musste.

Durch die richtigen Weiterleitungen (per 301-Redirect) der alten Domain auf die neue Domain lässt sich die Stärke der alten Domain zu einem großen Teil übertragen. Allerdings konnte nicht ganz ausgeschlossen werden, dass dabei ein bestimmter Teil verloren ginge. Trotzdem entschieden wir uns dafür, dieses Risiko einzugehen.

Der Domain-Wechsel

Dem Domain-Wechsel stand also nichts mehr im Wege. Wichtig bei einem Domain-Wechsel sind folgende Punkte:

  • Teilt Google mit, dass es einen Domain-Wechsel gibt. Ihr müsst dazu beide Domains in der Google Search Console hinterlegt haben und die Inhaberrechte besitzen.
  • Richtet 301-Redirects ein, so dass jede Unterseite der alten Domain auf die entsprechende Unterseite der neuen Domain weiterleitet.
  • Überprüft die interne Verlinkung: Tauscht hier alle Links aus, die auf Unterseiten der alten Domain zeigen, auch wenn diese weitergeleitet werden. Die Links sollten auf die jeweilige URL auf der neuen Domain zeigen. Habt ihr ausschließlich relative Pfade bei der internen Verlinkung verwendet, entfällt dieser Punkt.

Eine detailliertere Anleitung zu diesem Thema findet ihr bei Sistrix.

Nach der Umstellung solltet ihr einige Monate beobachten, wie Google die Seite crawlt (ihr habt die Möglichkeit, dies in der Google Search Console einzusehen). Und behaltet auch die Indexierung im Auge. Hilfreich ist dabei die Erstellung einer XML-Sitemap, die ihr dann in der Google Search Console hinterlegt.

Das Ergebnis

Wir sind beim Domain-Wechsel wie oben aufgeführt vorgegangen und konnten schon nach wenigen Wochen die ersten Resultate beobachten.

Österreich (AT)

Nach der Umstellung auf die neue Domain zeigte die Sichtbarkeit im österreichischen Google-Index zunächst einen Rückgang. Dies lag daran, dass die hreflang-Tags die deutschsprachigen Inhalte fälschlicherweise nur für Deutschland auswiesen und so die Bedeutung für den österreichischen Markt zurückging. Nachdem dies korrigiert war, entwickelte sich die Sichtbarkeit wieder positiv.

Entwicklung im österreichischen Google-Index (Quelle: Sistrix)

Entwicklung im österreichischen Google-Index (Quelle: Sistrix)

Deutschland (DE)

Im deutschen Index ist mit der Umstellung ein Sprung der Sichtbarkeit zu erkennen, der auch Monate später noch weiter anhält.

Entwicklung im deutschen Google-Index (Quelle: Sistrix)

Entwicklung im deutschen Google-Index (Quelle: Sistrix)

Schweiz (CH)

Im schweizerischen Index konnten wir eine ähnlich positive Entwicklung beobachten, die ebenfalls dauerhaft anhielt.

Entwicklung im schweizerischen Google-Index (Quelle: Sistrix)

Entwicklung im schweizerischen Google-Index (Quelle: Sistrix)

Niederland (NL)

Entsprechend entwickelte sich auch die Sichtbarkeit in den Niederlanden.

Entwicklung im niederländischen Google-Index (Quelle: Sistrix)

Entwicklung im niederländischen Google-Index (Quelle: Sistrix)

Italien (IT)

Und auch im italienischen Google-Index ist eine deutliche Steigerung der Sichtbarkeit zu erkennen.

Entwicklung im italienischen Google-Index (Quelle: Sistrix)

Entwicklung im italienischen Google-Index (Quelle: Sistrix)

United Kingdom (UK)

Lediglich der UK-Index zeigt abweichende Werte. Hier scheint der Wechsel der Domain keine positiven Einflüsse zu haben.

Entwicklung im UK Google-Index (Quelle: Sistrix)

Entwicklung im UK Google-Index (Quelle: Sistrix)

USA (US)

Der US-Index zeigt hingegen eine positive Entwicklung. Allerdings ist die Sichtbarkeit hier nach wie vor sehr gering.

Entwicklung im US Google-Index (Quelle: Sistrix)

Entwicklung im US Google-Index (Quelle: Sistrix)

Fazit

Insgesamt sind wir mit dem Ergebnis der Domain-Umstellung von der länderspezifischen Top-Level-Domain (ccTLD) auf die generischere geoTLD sehr zufrieden. In fast allen Ländern, die berücksichtigt wurden, konnten wir eine positive Entwicklung erkennen. Lediglich die Sichtbarkeit im UK-Index zeigt keine Steigerung. Insgesamt liegt die Sichtbarkeit in Österreich allerdings immer noch deutlich über der in den anderen Ländern. Möglich, dass hier durch die geoTLD doch ein regionaler Ranking-Vorteil gegeben ist. Zumindest konnten wir keine negativen Entwicklungen beobachten.

Vergleich der Sichtbarkeit in Österreich, Deutschland, den Niederlanden und Italien nach Domain-Wechsel (Quelle: Sistrix)

Vergleich der Sichtbarkeit in Österreich, Deutschland, den Niederlanden und Italien nach Domain-Wechsel (Quelle: Sistrix)

Neues Webanalyse-Tool implementieren – Planung ist alles!

Euer Unternehmen nutzt die Möglichkeiten der Webanalyse noch nicht und ihr überlegt, ob es sinnvoll wäre dies zu ändern? Dann stellt euch einfach nur diese eine Frage:

Seid ihr mit eurem Unternehmen in irgendeiner Form online präsent?

Wenn ihr diese Frage mit „Ja“ beantwortet, dann ist ziemlich sicher: Euer Unternehmen kann von der Webanalyse profitieren und sollte die Möglichkeiten auf jeden Fall nutzen. Heißt im Klartext – Betroffen ist so ziemlich jedes Unternehmen.

Wie tief eure Einblicke durch die Webanalyse sind, kann variieren und hängt auch von der verfügbaren Manpower in eurem Unternehmen ab. Doch gerade größere Unternehmen, die das Thema Webanalyse professionell angehen möchten, brauchen einen Plan, damit die Implementierung nicht im Chaos versinkt oder nur halbherzig durchgeführt wird. Schließlich möchtet ihr am Ende Insights von wirklichem Wert erhalten.

Schritt für Schritt zur Webanalyse

Die meisten größeren Unternehmen haben in der Regel schon mal in irgendeiner Form Analytics eingesetzt, in den meisten Fällen mit dem Standardprogramm Google Analytics. Das Bewusstsein für die Bedeutung von Analytics ist in den letzten Jahren stark gestiegen. Unternehmen müssen in der Regel also nicht mehr überzeugt werden, dass sie etwas tun müssen, sondern in welchem Umfang dies geschehen sollte.

Meist gibt es einen Auslöser, wie beispielsweise einen Relaunch, der dazu führt, dass sich Unternehmen näher mit der Webanalyse auseinandersetzen. Vielleicht ist sogar schon ein Analyse-Tool im Einsatz. Wenn es allerdings darum geht, die Daten zu analysieren, tauchen plötzlich jede Menge Fragen auf.

Wer den Bereich Webanalyse aktiv aufbauen (oder ausbauen) möchte, muss daher bereits vor Projektbeginn entscheiden, ob das Wissen intern aufgebaut werden soll oder ob externe Hilfe und Beratung hinzugezogen wird. Zu den Vor- und Nachteilen später mehr.

Die Anforderungen an ein Analytics-System können ganz unterschiedlich sein. Während ein Teil der Unternehmen ihren Umsatz direkt über die Seite generieren, nutzen andere die eigene Webseite zur Steigerung der Brand-Awareness. Lohnenswert ist die Analyse der Webseitenaktivitäten aber für alle gleichermaßen.

Wie tief die Analysen dann tatsächlich werden und wie intensiv die Daten aufbereitet und genutzt werden sollen, hängt auch immer von den unternehmenseigenen Ressourcen ab.

Die Projektplanung können wir in drei wichtige Schritte unterteilen:

  1. Finde das richtige Tool: Was genau soll überhaupt getrackt werden? Welche Anforderungen muss mein Tool erfüllen? Welches Tool entspricht am ehesten meinen Bedürfnissen? Schaut hierzu auch in unseren Blogartikel Finde das richtige Webanalyse-Tool.
  2. Die Implementierung: In welchem Zeitrahmen möchte ich das Projekt umsetzen? Welche Ressourcen stehen mir zur Verfügung? Nutze ich vorhandenes Personal oder stelle ich neu ein? Hole ich mir externe Hilfe?
  3. KPIs festlegen: Definiere die wichtigsten Kennzahlen, um Erfolge oder Probleme sichtbar zu machen.

Die Implementierung so detailliert wie möglich planen

Vor Projektbeginn muss nicht nur der Ablauf geplant werden, sondern auch der Zeitrahmen realistisch abgesteckt werden.

Zur Ermittlung des Status Quo sollten alle Beteiligten an einen Tisch geholt werden. Es geht darum, einen Überblick über eure Baustellen zu bekommen. Legt fest, welche Aufgaben Priorität haben, welche mit wenig Aufwand bewerkstelligt werden können und welche Schritte mehr Zeit beanspruchen werden. Oft kommen Unternehmen zu uns, die bereits über ein solides Vorwissen verfügen, denen aber die Struktur fehlt.

Zu diesem Zeitpunkt sollte das Tool bereits feststehen und Gegenstand der Planung sollten Implementierung, Umsetzung und Nutzung des Webanalyse-Tools sein.

Überprüft, ob ihr alle Fragen für euer Unternehmen beantworten könnt:

  • Sind die technischen Grundlagen vorhanden oder gibt es Punkte, die vor der Implementierung angefasst werden müssen?
  • Möchte ich das nötige Wissen zuerst intern aufbauen oder arbeite ich mit Dienstleistern zusammen?
  • Welche Abteilungen und Mitarbeiter sind in das Projekt involviert?
  • Habe ich ausreichend Manpower um ein solches Projekt intern umzusetzen?
  • Welche Aufgaben kann ich selbst erledigen und für welche bräuchte ich Hilfe externer Berater oder Agenturen?
  • Wie lange dauert die Schulung der Mitarbeiter, damit diese die Tools bedienen können und mit den Daten arbeiten können?

Google Analytics ist zwar relativ schnell implementiert, wenn ihr die Möglichkeiten der Webanalyse jedoch umfassend und vor allem auf die Bedürfnisse eures Unternehmens abgestimmt nutzen wollt, dann benötigt die Implementierung Zeit und ist ein längerer Entwicklungsprozess. Zudem ist jedes Unternehmen in Webanalyse-Fragen unterschiedlich aufgestellt. Einige verfügen schon über Tools und Daten und möchten die Abläufe nur professionalisieren oder optimieren, andere fangen bei null an.

Daher ist es oft schwierig genau vorherzusagen, wie lang die Umsetzung eines solchen Projektes tatsächlich dauert. Die Erfahrung zeigt aber, dass in größeren Unternehmen ein Zeitraum von 3-6 Monaten realistisch ist. In der Regel läuft die Umsetzung in zwei Schritten: Zuerst wird das Tool implementiert und die Mitarbeiter entsprechend geschult. Erfahrungsgemäß kommen bei der aktiven Nutzung weitere Fragen auf, daher empfiehlt sich eine weitere Schulungsrunde mit etwas zeitlichem Abstand.

KPIs und Ziele der Webanalyse festlegen

Ein KPI (Key Performance Indicator) ist eine Kennzahl, anhand derer ein Fortschritt gemessen werden soll. Auch in der Webanalyse ist es wichtig, die für euer Unternehmen relevanten KPIs festzulegen, um vergleichbare Werte zu schaffen. Es ist wenig sinnvoll sich mal die eine, mal die andere Metrik anzusehen – die Datenanalyse braucht konstante, langfristige Datenerhebungen der gleichen Metriken, um Veränderungen sichtbar machen zu können. Viele Unternehmen würden ihre KPIs am liebsten bereits im ersten Schritt festlegen, die Erfahrung zeigt aber: Die (richtigen) KPIs ergeben sich oft erst in der Praxis.

Daher verfolgen wir den Ansatz: Erstmal das Tool sauber aufsetzen, dann um die KPIs kümmern. Entkoppelt das Festlegen der KPIs vom Implementierungsprozess und überstürzt nichts.

Bei der Definition der KPIs ist die zentrale Frage: Was will euer Unternehmen anhand der Daten herausfinden und welche Zielwerte setzt ihr zur Orientierung an?

Häufig sind die Gedanken hinter den KPIs bereits richtig, bei rund 120 verschiedenen Metriken werden aber leider zu häufig die falschen Kennzahlen zugeordnet.

Im Gegensatz zu generellen KPIs sollten Campaign Parameter hingegen schon in den ersten Kick-Offs definiert werden. Zum einen, um festzulegen, welche Kanäle überhaupt genutzt werden und relevant sind. Zum anderen können, eventuell zum Tracking notwendige, UTM-Parameter nicht nachträglich eingefügt werden und sollten von Beginn an berücksichtigt werden.

Um die Datenqualität abschätzen zu können, braucht es stetige Kontrollen. Werden alle wichtigen Parameter berücksichtigt? Funktioniert alles? Können Daten nachvollzogen werden? Eine besonnene Vorgehensweise und intensives Testing sind Grundlage für saubere Auswertungen.

Bei Änderungen an der Webseite müssen Einstellungen zudem immer wieder nachjustiert werden, hierfür sollte auf jeden Fall ausreichend Manpower eingeplant werden. Es macht Sinn, sich selbst Alerts zu setzen, um über Schwankungen direkt informiert zu werden.

Die 3 wichtigsten Webanalyse-Tipps zum Abschluss

  1. Beim Versuch das Nutzerverhalten auf der Seite darzustellen und nachzuvollziehen, müssen Einstellungen, KPIs, Reports und Analysen immer wieder überprüft und angepasst werden. Die Webanalyse ist kein Selbstläufer, sondern erfordert konstante Anpassungen auch nach der Implementierungsphase.
  2. Es muss ein gewisses technisches Verständnis bei den Nutzern des Tools vorhanden sein, um das nötige Vertrauen in die Daten aufzubauen. Versucht zu hinterfragen, wie Daten überhaupt gesammelt werden, um ein tieferes Verständnis zu entwickeln.
  3. Vergesst nicht die Dokumentation! Besonders wenn mehrere Leute mit einem Tool arbeiten, kann nach gewisser Zeit nicht mehr nachvollzogen werden, wer welche Änderungen vorgenommen hat. Kommt es dann zu Fehlern oder Problemen, seid ihr mit einer gewissenhaften Dokumentation im Vorteil, weil Fehler schneller identifiziert und Verantwortliche ausfindig gemacht werden können. Wichtige Aktionen und Änderungen sollten daher immer aufgezeichnet werden.

Ihr habt jetzt richtig Lust bekommen mit der Webanalyse durchzustarten? Kein Problem, ihr müsst nicht auf ein besonderes Ereignis, wie z.B. einen Relaunch, warten. Plant lieber unabhängig, am Ende bekommt man ohnehin nicht alles unter einen Hut.

Ihr fühlt euch vom Umfang der Aufgabe noch etwas erschlagen? Das ist ganz normal! Es ist absolut sinnvoll, sich der Komplexität bewusst zu sein, nur Angst vor der Aufgabe dürft ihr nicht haben. Am Ende wird euer Unternehmen profitieren – Wir wünschen gutes Gelingen!

Segmente in Google Analytics: Segmente anlegen und nutzen

Möchtet ihr euch in Google Analytics das Verhalten einer bestimmten Nutzergruppe eurer Website ansehen? Zum Beispiel nur die Nutzer, die über die organische Suche auf eure Website gelangt sind? Oder ausschließlich Nutzer, die eine Bestellung getätigt haben? In Google Analytics könnt ihr Daten genau nach solchen Kriterien segmentieren und auswerten. Wie ihr Segmente anwendet, welche Möglichkeiten sie euch bieten und wie ihr eigene benutzerdefinierte Segmente anlegt, erfahrt ihr hier.

Was sind Segmente in Google Analytics?

Segmente helfen euch dabei, unterschiedliche Nutzergruppen in Google Analytics genauer zu analysieren und miteinander zu vergleichen. Im Grunde ist die Segmentierung eine Filterung der Analyse Daten auf Grundlage bestimmter Nutzergruppen. Der Vorteil, den euch Segmente gegenüber anderen Filtermöglichkeiten in Google Analytics bieten, besteht darin, dass sie sich auch rückwirkend auf die Daten anwenden lassen. Filter, die ihr auf Property oder Datenansicht-Ebene vornehmt, gelten hingegen immer nur ab dem Zeitpunkt, an dem sie vorgenommen wurden.

Mögliche Nutzergruppen sind zum Beispiel:

  • Nutzer, die über eine organische Suche auf eure Website gelangt sind
  • Nutzer, die durch eine bestimmte Kampagne auf eure Website aufmerksam geworden sind
  • Nutzer, die eure Website über ein bestimmtes Gerät aufrufen, etwa ein Mobilgerät

Für all diese und noch viele weitere Besuchergruppen bietet Google Analytics eine Fülle an vorgefertigten Segmenten, die sich auf fast alle Standard-Reports und benutzerdefinierte Reports anwenden lassen.

Übersichts-Report mit Segmenten in Google Analytics

Übersichts-Report mit Segmenten in Google Analytics

Für spezifischere Auswertungen könnt ihr außerdem auch eigene benutzerdefinierte Segmente anlegen. Sie sind dann genau auf eure Anforderungen zugeschnitten. Dies bietet euch die Möglichkeit, Segmente für sehr kleinteilige Nutzergruppen anzulegen. Dabei sind euch kaum Grenzen gesetzt.

Mögliche benutzerdefinierte Segmente sind:

  • Sitzungen, die über eine Kampagne auf eure Seite gelangt sind und ein mobiles Endgerät genutzt haben
  • Nutzer, die zwischen 18 und 24 Jahre (funktioniert nur mit freigeschalteten demografischen Daten) alt sind und eine bestimmte Abfolge von Seiten aufgerufen haben
  • Nutzer, die einen Conversion-Wert von mehr als 50 € erzielt haben und die über eine organische Suche auf eure Website gekommen sind

Standardsegmente in Google Analytics anwenden

Die Segmente könnt ihr in fast allen Reports anwenden. Ihr findet das Segmente-Menü in den Berichten oberhalb der Trendgrafik. Hier könnt ihr das passende Segment auswählen.

 Segmente-Menü öffnen

Segmente-Menü öffnen

Wenn ihr auf ALLE NUTZER klickt, öffnet sich das Segmente-Menü, und es erscheint eine Übersicht der Standardsegmente.

Übersicht der Standardsegmente

Übersicht der Standardsegmente

Hier könnt ihr nun zwischen den verschiedenen bereits integrierten Segmenten wählen. Sehr praktische Segmente sind die zu den einzelnen Kanälen: DIREKTE ZUGRIFFE, ORGANISCHE ZUGRIFFE, VERWEISZUGRIFFE oder BEZAHLTE ZUGRIFFE. Sie beziehen nur solche Sitzungen in die Auswertung mit ein, die über den genannten Kanal auf eure Website gelangt sind.

Außerdem gibt es Segmente zu Nutzertypen, zum Beispiel:

  • NUTZER MIT EINER SITZUNG
  • NEUE NUTZER
  • WIEDERKEHRENDE NUTZER
  • NUTZER MIT MEHREREN SITZUNGEN

Und Segmente, die sich auf das Gerät beziehen, mit dem die Nutzer eure Website aufgerufen haben:

  • ZUGRIFFE ÜBER TABLETS UND DESKTOPS
  • ZUGRIFFE ÜBER TABLETS
  • ZUGRIFFE ÜBER MOBILTELEFONE.

Anstatt der Kacheln könnt ihr euch die Segmente auch als Liste anzeigen lassen. Dann werden die Beschreibungen nicht abgeschnitten und es ist zum Teil klarer, was genau das einzelne Segment für Sitzungen beinhaltet.

Ausschnitt aus der Listendarstellung der Segmente inklusive Filtermöglichkeiten und Suche

Ausschnitt aus der Listendarstellung der Segmente inklusive Filtermöglichkeiten und Suche

TIPP: Wenn ihr nicht genau wisst, welche Nutzergruppe ein Segment beinhaltet, klickt einfach innerhalb der Segmente-Kachel des Segmentes oben rechts auf den Pfeil und wählt KOPIEREN aus.

Kopieren eines Standardsegments

Kopieren eines Standardsegments

Anschließend zeigt euch Google Analytics die Bedingungen an, die das Segment erfüllen muss.

Bedingung des Standardsegments »Zugriffe über Tablets und Desktops«

Bedingung des Standardsegments »Zugriffe über Tablets und Desktops«

Wenn ihr bestimmte Segmente sehr häufig verwendet, könnt ihr diese mit einem gelben Stern markieren. Die favorisierten Segmente sind so besser sichtbar. Außerdem habt ihr in der Navigationsleiste die Möglichkeit, nur markierte Segmente anzeigen zu lassen.

Auch über die Suche oben rechts im Menü findet ihr schnell das passende Segment. Ansonsten hilft euch auch die Filterung zwischen ALLE, SYSTEM, BENUTZERDEFINIERTE und MARKIERTE weiter, um die Segmentgruppen einzeln anzuzeigen. Unter GEMEINSAM GENUTZT findet ihr die Segmente, die euch ein anderer Google-Nutzer freigegeben hat.

Wenn ihr nun ein Segment ausgewählt habt und es auf einen Report anwenden wollt, könnt ihr das einfach durch einen Klick auf das betreffende Segment oder mittels Drag & Drop umsetzen. Dazu zieht ihr das gewählte Segment in die Zeile oberhalb des Segmente-Menüs.

Auf einen Report lassen sich bis zu vier Segmente gleichzeitig anwenden. Wählt also gezielt aus, welche Segmente ihr miteinander vergleichen möchtet. Um ein Segment zu entfernen, klickt ihr oben rechts auf den Pfeil im Segment und wählt ENTFERNEN. Wenn ihr mit der Auswahl zufrieden seid, klickt ihr auf den Button ANWENDEN und der Bericht wird für diese Segmente neu erstellt. Um die Segmente zu ändern, klickt ihr wieder in das Segmente-Menü und könnt dann wie oben beschrieben erneut Anpassungen vornehmen.

Nachdem ihr die Segmente ausgewählt habt, werden sie zum Vergleich in den Reports angezeigt.

Zielseiten Report segmentiert nach „Zugriffe über Mobiltelefone“ und „Zugriffe über Tablets“

Zielseiten Report segmentiert nach „Zugriffe über Mobiltelefone“ und „Zugriffe über Tablets“

Benutzerdefinierte Segmente

Mit den Standardsegmenten könnt ihr bereits sehr gute Auswertungen durchführen. Doch was ist, wenn die Segmente in Google Analytics nicht aussagekräftig genug sind? Dann helfen euch die benutzerdefinierten Segmente weiter.

Google Analytics bietet euch die Möglichkeit, Segmente auf Basis von

  • Metriken
  • Dimensionen
  • Datum
  • Aktionen
  • und sogar Abfolgen

zu erstellen. Ihr könnt Segmente anhand von Sitzungsdaten oder Nutzerdaten anlegen, oder ihr kombiniert beide miteinander.

Was sind Sitzungsdaten und was sind Nutzerdaten?

Sitzungsdaten beschränken sich auf das Verhalten eines Nutzers während einer Sitzung. Darunter fallen zum Beispiel die Anzahl der Ziele, die er erreicht hat, oder auch der Umsatz, der bei der Sitzung erzielt wurde.

Bei Nutzerdaten werden die Daten aller Sitzungen innerhalb des gewählten Zeitraums (maximal aber 90 Tage) mit eingerechnet. Das heißt, es können auch mehrere Zielvorhaben oder Transaktionen in diesem Zeitraum addiert werden.

Benutzerdefinierte Segmente in Google Analytics anlegen

Um ein eigenes Segment anzulegen, navigiert ihr zuerst in das Segment-Menü, und klickt von dort aus auf den Button + NEUES SEGMENT. Nun öffnet sich ein weiteres Menü, in dem ihr in der linken Navigation zwischen verschiedenen Kategorien wählen könnt.

Einrichtung von benutzerdefinierten Segmenten

Einrichtung von benutzerdefinierten Segmenten

Standardmäßig sind die Bedingungen zu den demografischen Merkmalen eingeblendet. Nutzt die linke Navigation, um zu den einzelnen Elementen zu gelangen. Nachdem ihr die einzelnen Bedingungen ausgefüllt habt, werden sie in der rechten Bildhälfte angezeigt. So behaltet ihr den Überblick, welche Bedingungen für dieses Segment erfüllt sein müssen.

Ihr könnt bei der Einstellung der Bedingungen viele Filtermöglichkeiten nutzen, darunter die gleichen wie bei der normalen Report-Filterung. Ihr könnt auch reguläre Ausdrücke verwenden. Diese bieten euch die Option, mehrere Bedingungen in einem Element zusammenzufassen und somit effektiver zu arbeiten.

Beispiele für benutzerdefinierte Segmente

Um die Möglichkeiten, die benutzerdefinierte Segmente euch bieten, besser aufzuzeigen, findet ihr hier einige Bespiele:

Beispiel für ein benutzerdefiniertes Segment

Beispiel für ein benutzerdefiniertes Segment

Die Sitzungen aus dem obigen Beispiel-Segment müssen folgende Anforderungen erfüllen: Die Sitzungen müssen über die AdWords-Kampagne „Rabatt Aktion“ mit dem Keyword „Korkenzieher“ auf die Website gelangt sein.

Hier ist noch ein weiteres Beispiel, das ihr mit den beiden Punkten BEDINGUNGEN und ABFOLGEN umsetzen könnt.

Weiteres Beispiel für ein benutzerdefiniertes Segment

Weiteres Beispiel für ein benutzerdefiniertes Segment

Das zweite Beispiel-Segment umfasst

  • alle männlichen Nutzer,
  • die zwischen 25 und 34 Jahren alt sind,
  • über die Anzeigengruppe der Kampagne „Vinothek“ auf die Seite gekommen sind
  • und die Registrierungsseite aufgerufen haben.

Hier ein paar weitere Beispiele für benutzerdefinierte Segmente:

DEMOGRAFISCHE MERKMALE: Hiermit segmentiert ihr die Nutzer nach demografischen Merkmalen wie Alter, Geschlecht und Interessen. Das funktioniert nur, wenn demografische Daten aktiviert sind.

  • Weibliche Nutzer, die zwischen 25 und 34 Jahren alt sind und gerne TV schauen
  • Männliche Nutzer, die zwischen 35 und 44 Jahren alt sind, sich für Essen interessieren und aus München kommen

TECHNOLOGIE: Hier könnt ihr die Sitzungen der Nutzer nach Betriebssystem, Browser oder Gerät segmentieren.

  • Sitzungen, die durch einen Windows 8-PC erfolgt sind und in denen ein Chrome-Browser genutzt wird
  • Sitzungen, die mittels Mobilgerät (inklusive Tablet) erfolgt sind

VERHALTEN: Hier segmentiert ihr eure Nutzer nach Anzahl der Sitzungen oder durchgeführten Transaktionen.

  • Nutzer, die pro Sitzung länger als fünf Minuten auf der Seite waren
  • Nutzer, die mehr als drei Transaktionen durchgeführt haben

DATUM DER ERSTEN SITZUNG: Hier könnt ihr Nutzer auswerten, deren erste Sitzung nach einem bestimmten Datum stattgefunden hat.

  • Nutzer, deren erste Sitzung nach dem Startdatum der Kampagne erfolgt ist

BESUCHERQUELLEN: Segmentiert die Nutzer nach den Quellen, über die sie auf eure Website gekommen sind.

  • Sitzungen, die über eine bestimmte AdWords-Kampagne auf die Seite gelangt sind
  • Nutzer, die in organischen Suchmaschinen ein bestimmtes Keyword gesucht haben und so auf die Website gekommen sind

E-COMMERCE: An dieser Stelle könnt ihr Nutzer nach gekauften Produkten oder Umsatz segmentieren.

  • Nutzer, die mehr als 300 € Umsatz generiert haben
  • Nutzer, die ein bestimmtes Produkt gekauft haben

BEDINGUNGEN: Hier könnt ihr mehrere Bedingungen angeben, die gelten sollen. Diese Funktion könnt ihr nutzen, um Bedingungen zu konfigurieren, die euch die anderen Punkte nicht liefern.

  • Nutzer, die in der internen Suche einen bestimmten Begriff eingegeben haben
  • Nutzer, die ein Ereignis der Kategorie „Download“ ausgeführt haben
  • Neue Besuche, die das Zielvorhaben „Kontaktanfrage abgeschickt“ erreicht haben und über einen Direkteinstieg gekommen sind

ABFOLGEN: Hiermit segmentiert ihr Nutzer und deren Besuche nach bestimmten Schrittabfolgen, die sie gemacht haben müssen.

  • Besuche, die über die Quelle „Verweis“ gekommen sind und auf der Zielseite /produkte/korkenzieher/uebersicht gelandet sind
  • Besuche, die zuerst die Seite /kampagnenzielseite und dann die Seite /produkte/warenkorb aufgerufen haben

Einschränkungen bei benutzerdefinierten Segmenten

Allerdings gibt es bei den benutzerdefinierten Segmenten auch ein paar Einschränkungen, die ihr beachten solltet:

  • Ihr könnt maximal 100 Segmente pro Datenansicht und Nutzer festlegen.
  • Wenn ihr benutzerdefinierte Segmente anlegt, die auf nutzerbasierten Daten beruhen, können diese über einen Zeitraum von maximal 90 Tagen erstellt werden. Diese 90 Tage beginnen ab dem von euch festgelegten Startdatum. Es kann also sein, dass neuere Daten nicht mit einbezogen werden.
  • Auch bei der Bedingung zum DATUM DER ERSTEN SITZUNG gibt es eine Einschränkung: Der Zeitraum, den ihr hier auswählen könnt, ist auf maximal 31 Tage beschränkt.
  • Demografische Daten werden nur auf einen Teil der Nutzer angewandt. Daher geben Segmente mit dieser Bedingung auch nur einen Teil der Nutzer wieder.

Benutzerdefinierte Segmente testen

Wenn ihr benutzerdefinierte Segmente anlegt, zeigt euch Google Analytics sofort an, wie viele Nutzer und Sitzungen eure Kriterien erfüllen.

Beispielhafter Test eines benutzerdefinierten Segments

Beispielhafter Test eines benutzerdefinierten Segments

So könnt ihr sicher sein, dass die Bedingungen, die ihr für eure Segmente ausgewählt habt, auch funktionieren. Manchmal sind die Einstellungen nämlich so eng gewählt, dass es kaum Sitzungen gibt, die alle Bedingungen erfüllen. Oder ihr kombiniert Bedingungen so unglücklich, dass sie sich gegenseitig ausschließen. Ihr erhaltet dann keine Daten in den Auswertungen.

Außerdem habt ihr die Möglichkeit das Segment im geöffneten Report zu testen, indem ihr auf den Vorschau-Button klickt. Dann seht ihr direkt, welche Daten sich im Report ändern.

Fazit

Segmente in Google Analytics helfen euch dabei, Daten bestimmter Nutzergruppen getrennt voneinander zu betrachten und sie miteinander zu vergleichen. Sollten die von Google zur Verfügung gestellten Standard-Segmente nicht ausreichen, habt ihr die Möglichkeit benutzerdefinierte Segmente anzulegen, die noch kleinteiligere Analysen ermöglichen.

Alternativen zum Google Keyword Planer

Kostenlose Alternativen zum Keyword Planer

Der Keyword Planer ist für viele im Online-Bereich – sowohl für SEOs als auch SEAs – eines der wichtigsten kostenlosen Tools und Hilfsmittel bei Keyword Recherchen, Content Analysen und vielem mehr. Seit einem Update im Sommer 2016 können vor allem kleinere Unternehmen oder Blogger ohne große AdWords Ausgaben den Keyword Planer nicht mehr (bzw. nur bedingt) sinnvoll nutzen, da nur noch ungefähre Bereiche des geschätzten monatlichen Suchvolumens angezeigt werden. Für all diejenigen unter euch, die dieses Problem haben, haben wir nach sinnvollen und praktikablen kostenlosen Alternativen zum Google Tool gesucht und stellen sie euch hier vor.

So sehen die Daten aus dem Keyword Planer aus, wenn ein geringes Kampagnen Budget verwendet wird:

Bei niedrigem AdWords Budget zeigt der Keyword Planer nur noch ungenaue Werte an

Bei niedrigem AdWords Budget zeigt der Keyword Planer nur noch ungenaue Werte an

Im Vergleich: So sehen die Ergebnisse im Keyword Planer eines Kontos mit ausreichend AdWords Ausgaben mit exaktem monatlichem Suchvolumen aus:

Vollständigere Daten bei höheren AdWords Budgets

Vollständigere Daten bei höheren AdWords Budgets

Es gibt einige weitere Keyword Recherche Tools auf dem Markt, allerdings solltet ihr immer darauf achten, woher die Tools ihre Daten ziehen, und diese kritisch hinterfragen. Im Folgenden stellen wir euch vier kostenlose Alternativen für die Keyword Recherche vor:

Keyword Finder

Der Keyword Finder wird von vielen als die beste Alternative für die Keyword Recherche mit dem Keyword Planer gehandelt. Ein großer Pluspunkt ist, dass das Tool ein exaktes durchschnittliches monatliches Suchvolumen angibt, das dem des Google Keyword Planers oft ähnlich ist, oder sogar genau gleich.

Ein weiterer Pluspunkt sind zusätzliche Daten zum monatlichen Suchvolumen der letzten 12 Monate, so dass schnell ein Trend erkennbar wird.

Außerdem bietet der Keyword Finder die Metrik „SEO Difficulty“: Basierend auf Daten des SEO Ranks und der Domain Authority von Moz wird angezeigt, wie groß der SEO Wettbewerb auf der ersten Suchergebnisseite ist und wie schwierig es ist, sich mit dem gewünschten Keyword zu platzieren.

Der Keyword Finder ist eine Alternative zum Keyword Planer

Der Keyword Finder ist eine Alternative zum Keyword Planer

Zusätzlich ist es möglich, eine Liste mit bis zu 50 Keywords zu importieren und somit direkt das Suchvolumen dieser Keywords abzufragen. Anschließend kann diese Liste als CSV Datei exportiert werden.

Bei der Keyword Recherche ist es außerdem möglich, mit Hilfe von Filtern die Ergebnisse zu spezifizieren und auf den individuellen Bedarf anzupassen (siehe Screenshot).

Ergebnisse können beim Keyword Finder mit Hilfe von Filtern spezifiziert werden

Ergebnisse können beim Keyword Finder mit Hilfe von Filtern spezifiziert werden

Neu ist außerdem auch die Funktion häufig gestellte Fragen der Nutzer rund um das gesuchte Keyword dargestellt zu bekommen über den Tab „Questions“.

Häufig gestellte Fragen analysieren

Häufig gestellte Fragen analysieren

Fazit zur Keyword Recherche mit dem Keyword Finder

Für ein kostenloses Tool ist der Keyword Finder relativ mächtig und bietet euch einige nützliche Metriken und Features, die ihr in ähnlicher Weise vom Keyword Planer kennt. Hier ein kurzer Überblick:

  • Einmaliges Registrieren per E-Mail
  • Die kostenlose Version bietet aktuell:
    • 5 Keyword-Abfragen pro 24 Stunden
    • 50 verwandte Keywords pro Keyword-Abfrage
    • 50 Keywords über Listenimport nach Suchvolumen abfragen
    • 3 SERP Statistiken Anfragen (inkl. SEO Difficulty)
    • 100 Backlinkabfragen pro 24 Stunden
  • Außerdem gibt es noch folgende Staffelungen von kostenpflichtigen Versionen – Basic, Premium & Agency – die Basic Variante startet mit 25,90€ pro Monat und enthält u.a. folgendes:
    • 100 Keyword-Abfragen pro 24 Stunden
    • 200 verwandten Keywords pro Keyword-Abfrage
    • 200 Keywords über Listenimport nach Suchvolumen abfragen

Moz Keyword Explorer

Der Moz Keyword Explorer ist Teil des kostenpflichtigen Moz Pro Services. Allerdings könnt ihr dieses Tool eingeschränkt auch kostenlos nutzen, wenn ihr euch einmalig bei Moz registriert. Die Keyword Recherche ist jedoch auf 10 Keywords pro Monat beschränkt und da es (anders als beim Keyword Finder) keine Möglichkeit eines Bulk-Imports in der kostenlosen Version gibt, könnt ihr mit diesem Tool deutlich weniger Keywords pro Tag analysieren.

Das monatliche Suchvolumen ist außerdem nicht in einem absoluten Wert dargestellt, sondern wird ähnlich wie beim Keyword Planer in einem Bereich (von xy – bis xyz) angegeben.

Zusätzlich bietet das Tool von Moz weitere Metriken (Schwierigkeit, Organische CTR & Priorität), die euch dabei helfen, den Wettbewerb um ein Keyword besser einzuschätzen. Wie auch im Keyword Finder sind außerdem Daten in eingeschränkter Form zum Thema SERP Analyse und verwandte Keywords vorhanden.

Keyword Recherchen sind auch mit dem Moz Keyword Explorer möglich

Keyword Recherchen sind auch mit dem Moz Keyword Explorer möglich

Neu ist außerdem, dass ihr nun auch anhand einer vollständigen URL, einem Verzeichnis oder einer Subdomain relevante Keywords recherchieren könnt, bspw. indem ihr auswertet zu welchen Keywords euer Wettbewerb gut platziert ist.

Weitere Keyword Recherche anhand einer Domain, Subdomain oder exakten Seite mit Moz Keyword Explorer

Weitere Keyword Recherche anhand einer Domain, Subdomain oder exakten Seite mit Moz Keyword Explorer

Fazit zur Keyword Recherche mit dem Moz Keyword Explorer

Das Moz Keyword Explorer Tool ist im Zusammenspiel mit dem kostenpflichtigen Moz Pro Service sicherlich deutlich stärker, allerdings bietet auch die kostenlose Version in eingeschränkter Fassung einen schnellen Überblick über ein paar wenige Keywords. Für eine umfassendere Keyword Recherche ist das Tool allerdings nicht geeignet, da hier die Beschränkung auf 10 Keyword-Abfragen pro Monat einfach zu wenig ist. Hier ein kurzer Überblick:

  • Einmalige Anmeldung und Login via Email
  • 10 Keyword-Abfragen pro Monat kostenlos
  • Suchvolumen in granulareren Bereichen angegeben, als beim Keyword Planer
  • Zusätzliche Metriken zur Wettbewerbsanalyse
  • Verwandte Keywords & SERP Analyse der ersten Suchergebnisseite vorhanden
  • Keyword Recherche auf URL, Domain, Verzeichnis oder Subdomain möglich

Searchmetrics ResearchCloud

Über die Searchmetrics ResearchCloud könnt ihr ebenfalls kostenlos Zugang zur Keyword Recherche und weiteren nützlichen Analysefunktionen erhalten. Hierzu müsst ihr euch nur einmal mit einer E-Mail-Adresse registrieren.

Allerdings ist der Bereich „Keyword Research“ in der kostenlosen Version für Nutzer ebenfalls eingeschränkt: Zwar könnt ihr ohne Limit Keyword-Abfragen stellen, jedoch geht dies nur einzeln, d.h. ihr könnt nicht das Suchvolumen für mehrere Keywords gleichzeitig händisch abfragen oder diese per Liste importieren. Das mag für einige von euch unpraktisch sein.

Außerdem fällt auf, dass das monatliche Suchvolumen stark vom Suchvolumen im Google Keyword Planer abweicht – dies solltet ihr im Hinterkopf haben und prüfen, ob zumindest die Tendenz bzw. das Verhältnis zwischen den einzelnen Keywords stimmig ist und dem Verhältnis aus dem Keywords Planer ähnelt.

Zusätzlich werden euch nur drei weitere verwandte Keywords inkl. Suchvolumen, CPC und Universal Search Integrationen und monatlicher Suchvolumen Trend angezeigt, der Rest ist erst mit einer kostenpflichtigen Version einsehbar.

Die Searchmetrics ResearchCloud eignet sich in der kostenlosen Version für kleinere Keyword Analysen

Die Searchmetrics ResearchCloud eignet sich in der kostenlosen Version für kleinere Keyword Analysen

Eine Analyse der ersten Suchergebnisseite ist ebenfalls vorhanden. So könnt ihr sehen, welcher Wettbewerber aktuell bei Suchanfragen zu diesem Keyword präsent ist.

Fazit zur Keyword Recherche mit der Searchmetrics ResearchCloud

Positiv an der kostenlosen Version der ResearchCloud ist, dass es keine Begrenzung in der Anzahl an Keyword-Abfragen pro Tag zu geben scheint. Ihr könnt also so oft ihr wollt nach einem bestimmten Keyword recherchieren. Allerdings ist dies für eine umfassendere Keyword Recherche recht impraktikabel, da es keine Möglichkeit gibt größere Listen mit bereits recherchierten und möglicherweise relevanten Keywords hochzuladen, um sie auf ihr Suchvolumen zu prüfen.

Die Anzahl an vorgeschlagenen ähnlichen Keywords ist mit drei außerdem sehr gering. Für kleinere Keyword Recherchen und einzelne Abfragen des Suchvolumens ist das Tool dennoch gut geeignet.

Bing Schlüsselwort Recherche

Ein weiteres kostenfreies Tool ist die Bing Keyword Planer. Um dieses Tool nutzen zu können, müsst ihr euch allerdings bei Bing Ads mit einem Microsoft Konto anmelden, ähnlich wie beim Keyword Planer mit einem Google Konto.

Insgesamt ist das Tool von der Handhabung her dem Keyword Planer sehr ähnlich. Ihr könnt nach Keywords mit Bezug zu einem Wort suchen, oder euch Keyword Vorschläge auf Basis einer Website anzeigen lassen. Außerdem ist es möglich, eure Keywords für verschiedenste Länder und Regionen zu recherchieren oder die Suche auf verschiedene Gerätekategorien (z.B. nur Smartphones oder nur Desktops/Laptops) auszurichten und hier das entsprechende Suchvolumen herauszufinden. Außerdem könnt ihr hier ebenfalls Keywordlisten importieren und zusammen abfragen.

Der Bing Keyword Planer ist von der Handhabung dem alten AdWords Keyword Planer sehr ähnlich

Der Bing Keyword Planer ist von der Handhabung dem alten AdWords Keyword Planer sehr ähnlich

Das Suchvolumen in der Bing Schlüsselwort Recherche basiert, wie der Name bereits vermuten lässt, auf indexbasierten Suchvorgängen in Bing. Aktuell liegt der Anteil der Suchmaschine im deutschen Markt jedoch bei unter 5%, d.h. die Daten, die ihr hier zum Suchvolumen erhaltet, sind als absolute Zahlen nicht repräsentativ für den gesamten deutschen Markt.

Dies solltet ihr unbedingt im Hinterkopf behalten, da ihr zwar ein absolutes monatliches Suchvolumen vom Tool für eure Keywords ausgegeben bekommt, dieses jedoch deutlich geringer ausfällt als beispielsweise das Suchvolumen im Keyword Planer. Qualitativ gesehen könnt ihr mit dem Schlüsselwort Recherche Tool von Bing jedoch interessante Einblicke in das Nutzerinteresse an verschiedenen Begriffen erhalten.

Zusätzlich bietet das Tool die Möglichkeit Keywords als CSV-Datei zu exportieren und in Excel weiterzubearbeiten.

Vorschläge für ähnliche Keywords gibt das Tool ebenfalls aus, allerdings nur wenn ausreichend Daten vorhanden sind. Bei der obigen Suche nach „Schwertransport“, einem Keyword mit geringem Suchvolumen in Bing, schlägt das Tool keine weiteren Keywords vor. Bei häufiger verwendeten Begriffen, wie beispielsweise „Friseur“, „Frisur Männer“ und „Frisur Frauen“, wirft das Tool weitere möglicherweise relevanten Keywords aus:

Die Bing Schlüsselwort recherche zeigt verwandte Suchbegriffe an, wenn diese genug Suchvolumen aufweisen

Die Bing Schlüsselwort Recherche zeigt verwandte Suchbegriffe an, wenn diese genug Suchvolumen aufweisen

Fazit zur Keyword Recherche mit der Bing Schlüsselwort Recherche

Generell bietet das Tool interessante Einblicke in die Daten zur Suche in der zweitgrößten textbasierten Suchmaschine weltweit. Allerdings können die Daten zum Suchvolumen nicht als absolute Werte verwendet werden, da das Suchvolumen für die meisten Begriffe in Bing sehr viel geringer ist, als in Google.

Dennoch lassen sich mit diesem Tool Trends und Tendenzen erkennen, sowie unbegrenzt ähnliche Keywords recherchieren. Der Bing Keyword Planer ist also durchaus nützlich für eine generelle Keyword Recherche zu einem bestimmten Thema und um sich einen Überblick über dessen Relevanz zu verschaffen.

Fazit: Ein adäquater kostenloser Ersatz des Keyword Planers ist schwer zu finden

Insgesamt ist es auffallend schwer ein Tool wie den Keyword Planer, der über Jahre hinweg so existenziell für viele war, adäquat zu ersetzen. Oftmals sind alternative kostenlose Tools bei der Anzahl an Keyword Recherchen pro Tag oder Monat begrenzt und bieten nicht die Möglichkeit eines Listen-Imports – für mehr muss bezahlt werden.

Solltet ihr jedoch weiterhin nach einem kostenlosen Weg suchen, dann habt ihr mit dem Keyword Finder aktuell eine gute Alternative, da das Tool verlässliche Daten liefert, die nahe am Suchvolumen vom Keyword Planer liegen. Außerdem bietet euch dieses Tool die Möglichkeit die meisten Keywords pro Tag zu recherchieren, bzw. zusätzlich Listen mit bis zu 50 Keywords zu importieren und auf das Suchvolumen hin zu prüfen.

Der Moz Keyword Explorer gibt leider nur einen Bereich vom Suchvolumen an, ist hier jedoch sehr viel granularer in der Unterteilung als Google. Außerdem könnt ihr mit dem Tool eine gute Einschätzung des Keyword Potentials mit Hilfe der weiteren Metriken vornehmen. Die fehlende Möglichkeit eines Listenimports und die Begrenzung auf nur zehn Keyword Recherchen im Monat schränken den Nutzen des Tools jedoch ein.

Die Searchmetrics ResearchCloud ist in der kostenlosen Version relativ ungeeignet für eine umfassende Keyword Recherche, da nur wenige ähnliche Keywords bei einer Suchabfrage angezeigt werden und es keine Möglichkeit eines Listen-Imports gibt. Es können also nur einzelne Keywords abgefragt werden. Positiv ist jedoch, dass die Abfrage von Keywords nicht auf eine bestimmte Anzahl pro Tag begrenzt ist.

Der Bing Keyword Planer sollte von all denjenigen verwendet werden, die sich einen ersten Überblick über ein Thema auf Keyword-Basis verschaffen wollen. Es lassen sich anhand der relativen Zusammenhänge zwischen den einzelnen Keywords bereits erste Aussagen über gefragte und weniger häufig verwendete Keywords treffen. Für absolute Zahlen zum Suchvolumen, solltet ihr jedoch ein anderes Tool verwenden, beispielsweise den Keyword Finder, da er aussagekräftigere Werte für die Google Suche liefert.

 

Titelbild © tashatuvango – Fotolia.com

Google Advanced Analysis: Neues GA360 Webanalyse Tool in der öffentlichen Beta

Am 17. Mai 2018 gab Google via Blog bekannt, dass mit Advanced Analysis ein neues Analyse-Tool innerhalb von Google Analytics 360 ausgerollt wurde. Wir haben uns dieses Tool direkt einmal für euch angeschaut und bieten euch nun einen ersten Überblick sowie Empfehlungen für die Verwendung dieses neuen GA360 Features, das laut Google vor allem für die bessere Analyse der Customer Journey eurer Kunden, sowie deren Erfahrungen mit eurer Website verwendet werden sollte.

Zu finden ist das neue Tool in allen GA360 Accounts am linken unteren Rand über den Bereichen „Entdecken“ und „Verwaltung“:

Advanced Analysis im Google Analytics Konto

Advanced Analysis im Google Analytics Konto

Wenn ihr auf den Schriftzug klickt, öffnet sich ein neues Fenster im Browser mit der „Startseite“ von Advanced Analysis, auf der, ihr ähnlich wie bei Data Studio, eine Übersicht über die angelegten oder für euch freigeschalteten Reports erhaltet. Außerdem könnt ihr von hier aus ganz einfach neue Reports und Analysen erstellen mit Hilfe von Vorlagen oder einer blanken Seite.

Advanced Analysis Oberfläche

Advanced Analysis Oberfläche

Insgesamt ist das Tool in drei Unterbereiche unterteilt, die verschiedene Möglichkeiten bieten mit euren Daten zu arbeiten, sie zu analysieren und / oder grafisch auszuwerten. Diese drei Bereiche sind die folgenden:

  • Erkundung: Hier könnt ihr ähnlich wie bei benutzerdefinierten Berichten mit mehreren Tabs in Analytics oder im Data Studio eigene Reports anlegen, Segmente darüberlegen und die Daten als Pivot, Kreis- oder Liniendiagramm darstellen lassen. Seit neuestem scheint das Tool auch eine Verknüpfung zu den benutzerdefinierten Berichten in Analytics zu haben, denn diese werden nun ebenfalls in der Übersicht der Reports in Advanced Analysis dargestellt. D.h. ihr könnt in Advanced Analysis auch mit bereits bestehenden benutzerdefinierten Berichten aus Google Analytics arbeiten und diese ggf. weiterentwickeln. Die Reports können auch als .csv oder Google Tabelle exportiert werden. Insgesamt ist alles grafisch etwas schöner dargestellt. Außerdem können mehrere Filter über die Berichte gelegt werden, wenn man z.B. nur Nutzer mit einem Umsatz von größer als 100 € o.ä. betrachten möchte. Der Erkundungsbereich ist also ein guter Ausgangspunkt für eine tiefere Analyse.
  • Segmentüberschneidung: Diese hilft euch bei der grafischen Auswertung von Nutzern in verschiedenen Segmenten und deren Überschneidung, z.B. könnt ihr hier recht einfach darstellen, wie groß der Anteil an Nutzern ist, die einen Kauf tätigen im Paid Traffic Segment.
  • Trichteranalyse: In diesem Bereich könnt ihr individuelle Conversion Funnel definieren und anlegen, unabhängig von den in Google Analytics 360 definierten Zielvorhaben-Trichtern. Besonders hilfreich ist dieser Bereich, wenn euch z.B. im Erkundungs-Tab etwas aufgefallen ist, das ihr nun genauer unter die Lupe nehmen wollt.

Vorteile von Advanced Analysis im Vergleich zum bisherigen Analytics Reporting

Das neue Tool vereinfacht euch einige, in Google Analytics sehr aufwändige, Prozesse für die Analyse der Customer Journey sowie speziellen Zielgruppen-Segmenten. Folgende Punkte sind meiner Meinung nach die wichtigsten Vorteile im Vergleich zu den bisherigen Reporting-Funktionen im Google Analytics Umfeld:

  1. Insgesamt könnt ihr in Advanced Analysis sehr einfach und schnell Zielgruppen oder Segmente anlegen, per Rechtsklick auf die jeweiligen Daten. Außerdem ist es möglich insgesamt flexibler mit den Nutzerdaten dieser Segmente zu interagieren und zu arbeiten. Diese erstellten Segmente könnt ihr sowohl im Tool selbst als auch in Google Analytics nutzen.
  2. Das Drag & Drop Interface vereinfacht die Arbeit und das Anlegen von Reports deutlich – wobei diese Funktion so ähnlich auch in Data Studio möglich ist und hier sogar noch Drittanbieter Daten über Community Connectors hinzugeholt werden können, was aktuell bei Advanced Analysis nicht möglich ist.
  3. Ihr könnt benutzerdefinierte Funnels anlegen mit bis zu zehn Schritten und es können bis zu vier Segmente nebeneinander in den Funneln verglichen werden.
  4. Der Bereich Segmentüberschneidung hilft euch dabei, festzustellen inwiefern sich die von euch definierten Segmente überschneiden und die gleichen Nutzer enthalten. Hier könnt ihr bis zu 3 Segmente nebeneinanderlegen. Diese Funktion finde ich recht hilfreich, wenn es darum geht das Verhalten von unterschiedlichen Zielgruppen granularer auszuwerten. Bevor man in die tiefere Analyse der Daten geht, könnt ihr mit Hilfe dieser Funktion testen, ob sich die von euch definierten Zielgruppensegmente wirklich stark voneinander unterscheiden, oder ob ihr viele Nutzer habt, die sich sowohl in Segment A UND B
  5. Per Rechtsklick können außerdem individuelle Nutzer im Nutzerexplorer von Google Analytics 360 dargestellt und analysiert werden oder wie bereits erwähnt Segmente / Zielgruppen angelegt werden.
Segemente und Zielgruppen

Segmente und Zielgruppen

Zu beachten ist allerdings, dass es ein Limit von max. 10 Segmenten pro Advanced Analysis Report gibt, die ihr importieren könnt. An sich sollte das Maximum aber ausreichen für die meisten Anforderungen. Zusätzlich solltet ihr wissen, dass ab 100 Millionen Sitzungen Sampling auftreten kann. Alles, was unter diesem Wert liegt, wird nicht gesampelt, sodass ihr mit den Rohdaten arbeiten könnt.

Abgrenzung zum Reporting mit Data Studio

Wenn ihr vor der Entscheidung steht ein Reporting mit Data Studio oder Advanced Analysis zu erstellen, solltet ihr euch folgende Unterschiede anschauen. Momentan gibt es einige Möglichkeiten, die euch Advanced Analysis bietet, Data Studio allerdings nicht:

  1. Grafische Darstellung von Funneln
  2. Darstellung von Segment Überschneidungen
  3. Rechtsklick: Darstellung individueller Nutzer und anlegen von Segmenten / Zielgruppen

Wenn ihr also Reporting-Anforderungen habt, die die oben genannten Punkte miteinschließen, dann würde ich euch empfehlen auf Advanced Analysis zurückzugreifen, statt ein Data Studio Reporting aufzusetzen.

Anwendungsfälle und Beispiele zur Arbeit mit Advanced Analysis

Der Erkundungsbereich bietet euch, wie bereits gesagt, die Möglichkeit benutzerdefinierte Reports neu anzulegen oder aus Google Analytics zu importieren, zu bearbeiten und die Daten mit Hilfe von mehreren Segmenten gleichzeitig auszuwerten.

Ein gutes Beispiel hierfür ist die Arbeit mit farbigen Heatmaps:

Farbige Heatmaps in Advanced Analysis

Farbige Heatmaps in Advanced Analysis

In diesem Report könnt ihr beispielsweise recht schnell und einfach auswerten, über welchen Kanal die meisten neuen Nutzer gekommen sind und welche Channel hauptsächlich mobile Traffic auf eure Website bringen.

Mit Hilfe der Segmentüberschneidung könnt ihr neben einer Überprüfung eurer definierten Zielgruppensegmente auch Performance Auswertungen durchführen bzw. grafisch darstellen wie groß z.B. im Paid oder Organic Bereich der Anteil von Nutzern ist, die einen Kauf getätigt haben. Mit Hilfe der Segmentüberschneidung könnt ihr diese einfach und übersichtlich darstellen:

Segmentüberschneidung in Advanced Analysis

Segmentüberschneidung in Advanced Analysis

Im Funnel Bereich könnt ihr, wie bereits angedeutet, Conversion Funnel auf eurer Website Schritt für Schritt auswerten – dies ist deutlich granularer möglich, als in den benutzerdefinierten Funnels in Google Analytics 360 selbst. Ihr könnt ganz einfach einzelne Schritte für einen Funnel definieren und anlegen. Allerdings ist es aktuell nicht möglich einen Funnel aus bestehenden Zielvorhaben-Trichtern in Analytics zu nutzen, sondern ihr müsst diese einzeln nachbauen, z.B. auf URL-Basis. Es können bis zu 4 Segmente über einen solchen Funnel gelegt werden, um die Performance dieser miteinander zu vergleichen. Zum Beispiel könnt ihr so den Conversion Funnel für mobile und Desktop Nutzer vergleichen:

Funnel abbilden mit Advanced Analysis

Funnel abbilden mit Advanced Analysis

Fazit

Insgesamt ist Advanced Analysis für alle unter euch von großem Nutzen, die viel und häufig mit Segmenten und / oder Big Query arbeiten, um Nutzer- oder Zielgruppenverhalten auszuwerten.

Vor allem durch die grafische Aufbereitung von euren Segmenten und Nutzerdaten bietet sich das Tool durchaus bei Präsentationsvorbereitungen an, oder wenn ihr die Aussagen eurer Analysen recht schnell und einfach mit Grafiken unterstützen möchtet.

Da das Tool einige Funktionen, vor allem in Bezug auf die Auswertung und Darstellung von Conversion Funnels bietet, die es aktuell so nicht im Data Studio gibt, lohnt es sich definitiv für solche Auswertungen einen Bericht in Advanced Analysis anzulegen. Während Data Studio also für allgemeinere Reportings nützlich ist, bietet Advanced Analysis – wie auch der Name schon sagt – die Möglichkeit spezifischere Auswertungen zu fahren und grafisch aufzubereiten.

Für alle Google Analytics 360 Kunden, die aktuell Analysis noch nicht in ihren Accounts sehen: das Tool soll laut Google bis Ende Mai / Anfang Juni komplett ausgerollt sein, habt also noch etwas Geduld 😊

Snippet Optimierung: Google Snippets richtig formulieren

Die Snippet Optimierung ist eine der einfachsten Maßnahmen der Suchmaschinenoptimierung und gehört damit zu den SEO Grundlagen. Sie verbessert eure Rankings und eure Klickraten. Was ein Google Snippet ist und wie ihr es richtig optimiert ✓ erfahrt ihr hier.

Was ist ein Snippet?

In den Google Suchergebnissen sind neben den URLs der Websites, die zu dem Suchbegriff passen, auch kleine Textauszüge aufgeführt, die im Optimalfall den Inhalt der rankenden Seite beschreiben und dem Leser eine Vorstellung davon geben, was sich auf der Webseite befindet. Diese kurzen Textpassagen setzen sich aus einer Überschrift (dem Title) und einer Beschreibung (der Description) zusammen, den sogenannten Snippets. Diese Auszüge werden abhängig vom Suchbegriff generiert und in der Suchergebnisseiten (SERPs) angezeigt.

Google Snippet der lunapark Startseite

Google Snippet der lunapark Startseite

Da die Snippets die ersten Berührungspunkte des Users mit der Website sind, sollten sie optimiert sein. Das bedeutet, dass sie zum Klicken anregen und dem User gleichzeitig wichtige Informationen über die Seite bieten. Ein optimierter Title wirkt sich zudem positiv auf das Ranking aus. Eine gut durchdachte Wortwahl ist hier das A und O.

Der Title ist die Überschrift des Snippets

Der Title ist die Überschrift des Snippets

Die Description ist zwar kein direktes Ranking-Kriterium, dennoch ist auch hier eine Optimierung empfehlenswert. Eine geschickt formulierte Description regt das Interesse des Besuchers an.

Die Beschreibung sollte so formuliert sein, dass sie den Nutzer zum Klicken animiert.

Die Beschreibung sollte so formuliert sein, dass sie den Nutzer zum Klicken animiert.

Durch die Optimierung der Snippets könnt ihr sowohl das Ranking eurer Website als auch die Klickrate positiv beeinflussen. Zudem ist die Anpassung der Snippets im Gegensatz zu anderen SEO Maßnahmen einfach umzusetzen und ihr seht in der Regel schnell Resultate in Form von besseren Rankings.

Eingepflegt werden die Snippets im Backend eurer Website. Die meisten Content Management Systeme bieten spezielle Felder, in die ihr sie eintragen könnt. Bei manchen muss dazu erst ein entsprechendes Plugin installiert werden.

Wie sieht ein optimierter Meta-Title aus?

Der Meta-Title, auch Title Tag, Seitentitel oder Title genannt, besteht aus maximal 55 bis 60 Zeichen inklusive Leerzeichen. Ist er länger, kürzen drei Punkte (…) ihn ab.

Ist der Title zu lang, wird er in den Suchergebnissen nicht richtig ausgespielt

Ist der Title zu lang, wird er in den Suchergebnissen nicht richtig ausgespielt

Formuliert den Title informativ und so, dass er Sinn ergibt. Eine bloße Aufzählung von Keywords ist nicht förderlich für das Ranking. Jeder Title sollte individuell sein und pro Website nur einmal vorkommen.

Verwendet – sofern es möglich ist – zusammenhängende Sätze, in denen das Hauptkeyword, für das eure Seite ranken soll, an erster Stelle steht. Ein Firmen- oder Markenname kann ebenfalls im Title enthalten sein, sofern dafür noch Platz ist und diese aufgrund ihrer Bekanntheit Vertrauen beim Nutzer wecken.

Je nachdem was für eine Seite ihr betreibt, kann auch ein Call-To-Action Element sinnvoll sein, zum Beispiel bei einem Online Shop eine Kaufaufforderung. Habt ihr lokale Websites und bietet regionale Dienstleistungen an, sollte auch der jeweilige Ort hier auftauchen.

Wie sieht eine optimierte Meta-Description aus?

Die Meta-Description sollte bis letztes Jahr November eine Länge von 156 Zeichen ohne Leerzeichen nicht überschreiten, andernfalls wurde sie, wie der Title, durch drei Punkte (…) abgekürzt. Im November 2017 spielte Google für ein halbes Jahr lang aber auch längere Descriptions aus. Dabei ließ  die Suchmaschine in der Desktop-Ansicht zwischen 300 und 310 Zeichen zu. In der mobilen Ansicht fiel die Descriptions etwas kürzer aus. Bereits nach ca. 200 bis 210 Zeichen schnitt Google das Snippet hier durch drei Punkte ab.

Auf dem Desktop wird die längere Description vollständig angezeigt

Auf dem Desktop wird die längere Description vollständig angezeigt

Auf dem Smartphone wird sie hingegen abgeschnitten

Auf dem Smartphone wird sie hingegen abgeschnitten

Im Mai 2018 gab es hier abermals eine Änderung. Wer möchte, dass seine Description komplett ausgespielt wird, sollte sie binnen 140 bis 156 Zeichen formulieren. Auf mobilen Geräten ist sie sogar noch etwas kürzer.

Eine optimierte Description gibt den Inhalt der Seite gut zusammengefasst wieder. Außerdem weckt sie die Aufmerksamkeit des Users und verleitet ihn dazu, auf das Suchergebnis zu klicken. Jede Description sollte individuell sein und pro URL nur einmal vorkommen.

Um die Aufmerksamkeit des Nutzers stärker auf euer Suchergebnis zu lenken, könnt ihr Sonderzeichen, wie ™ ,® ,► ,✔ ,✘ ,♥ ,★ usw. in der Description verwenden. So hebt ihr euch vom Wettbewerb ab und der Nutzer klickt vielleicht eher auf eure Website.

Grundsätzlich solltet ihr im Snippet keine Versprechungen machen, die ihr auf eurer Seite nicht halten könnt. Klickt ein Nutzer auf euer Ergebnis und findet nicht die gewünschten Inhalte, ist er schnell wieder weg. Dies kann sich negativ auf euer Ranking auswirken.

Snippet Generatoren im Internet

Im Web gibt es ein paar nützliche Tools, die euch beim Verfassen eurer Snippets helfen. Diese zeigen euch in einer Vorschau, wie euer Snippet aussieht und ob Title und Description zu lang oder zu kurz sind. Hierzu zählt zum Beispiel der SERP Snippet Generator von Sistrix. Über das Tool könnt ihr nicht nur eure neuen Snippets prüfen, es gibt euch auch die Möglichkeit, Snippets von bestehenden Websites abzurufen. Anhand der Farben, die unter den Feldern angezeigt werden, erkennt ihr, ob eure Snippets vollständig dargestellt werden. Ähnlich funktioniert auch der Snippet Generator von Sumago. Ein kleines Highlight des Tools ist die akustische Untermalung. Wenn eure Snippets zu lang werden, ertönt dramatische Musik.

Neben diesen beiden Tools gibt es noch eine ganze Reihe weiterer Tools, mit denen ihr Google Snippets erstellen könnt.

Google Snippets: Positiv- und Negativbeispiel

Folgender Screenshot zeigt die Google Snippets unserer Unterseite für Jobangebote:

Beispiel: Optimiertes Snippet

Beispiel: Optimiertes Snippet

Der Title beginnt mit den Keywords SEO & Web Analytics Blog. Zudem beinhaltet er den Firmennamen. Die Description weckt die Aufmerksamkeit des Users (News und Infos rund um die Themen Online-Marketing, Suchmaschinenoptimierung (SEO), SEM/SEA und Webanalyse). Die abschließende Call-to-Action fordert den User auf, auf den Link zu klicken und im Blog zu lesen.

Ein Beispiel für schlecht optimierte Snippets verdeutlicht die Website kreuzfahrten-mehr.de. Folgender Screenshot zeigt die Google Snippets der Startseite.

Beispiel: nicht optimiertes Snippet

Beispiel: nicht optimiertes Snippet

Der Title dieses Beispiels ist so lang, dass er mit (…) unterbrochen wird. Er besteht aus einer Aufzählung verschiedener Orte sowie dem Firmennamen und reiht damit eigentlich nur alle möglichen Keywords aneinander. Die Description ist nicht sehr aussagekräftig und relativ kurz formuliert.

In einer optimierten Version der Snippets steht das Keyword am Anfang des Titles. Ebenfalls enthalten ist der Name der Seite. Title und Description sind informativ und geben dem User Aufschluss darüber, welche Inhalte ihn auf den Unterseiten erwartet.

Fazit

Optimierte Snippets verbessern das Google Ranking, steigern die Klickrate und führen so zu mehr Traffic auf eurer Website. Mit ein wenig Know-How lassen sich die Snippets leicht optimieren. Beachtet dabei einfach folgende Punkte:

  • Formuliert eure Google Snippets in einer angemessenen Länge. Plant für den Title maximal 60 Zeichen inklusive Leerzeichen und für die Description maximal 156 Zeichen inklusive Leerzeichen ein.
  • Formuliert den Title informativ und verwendet nach Möglichkeit ganze Sätze. Verzichtet auf eine bloße Aufzählung von Keywords.
  • Nennt das Hauptkeyword am Anfang des Titles
  • Formuliert die Description so, dass sie den Inhalt der Seite grob wiedergibt und dabei das Interesse des Users weckt.
  • Nutzt Sonderzeichen in der Description, damit diese aus den anderen Wettbewerbern hervorsticht.
  • Formuliert für jede eurer Unterseite individuelle Snippets.

Weitere Tipps zur Optimierung eurer Inhalte erhaltet ihr im Artikel „Content Optimierung für Suchmaschinen„.

Finde das richtige Webanalyse-Tool

Ihr seid auf der Suche nach einem Webanalyse-Tool für euer Unternehmen? Mittlerweile gibt es eine Vielzahl an möglichen Webanalyse-Tools mit teils ähnlichem, teils stark variierendem Funktionsumfang. Wir möchten euch gar kein konkretes Tool ans Herz legen, denn es gibt keine „Eins-passt-für-alle“-Lösung. Wir möchten euch viel eher zeigen, wie ihr bei der Suche nach dem Analyse-Tool eurer Wahl vorgehen solltet und welche Fragen ihr euch stellen müsst.

Welche Anforderungen stelle ich an die Webanalyse?

Der erste Schritt bei der Wahl des richtigen Tools muss also darin bestehen, erst einmal zu klären, welchen Zweck ein Webanalyse-Tool für euch überhaupt erfüllen soll. Welche Funktionen und Features sind für eure Bedürfnisse unabdingbar? Um das herauszufinden, könnt ihr euch folgende Fragen stellen:

Was möchte ich tracken? Analyse-Tools können massenweise Daten erheben, doch nicht alle erhebbaren Daten sind auch für euch relevant. Definiert also für euer Unternehmen, welche Informationen ein Tool liefern muss, um die wichtigsten Vorgänge auf der Seite überblicken zu können.

Wie umfangreich möchte ich tracken? Die Erfahrung zeigt, dass es sinnvoll sein kann, umfangreich zu tracken. Falls sich die Anforderungen ändern und plötzlich neue Daten benötigt werden, kann bereits auf historische Daten zurückgegriffen werden. Aber Achtung: In der kostenlosen Version von Google Analytics sind beispielsweise die Anzahl der Dimensionen und Ziele mit 20 sehr knapp bemessen. Hier muss priorisiert werden oder auf ein kostenpflichtiges Tool zurückgegriffen werden.

Welche Schnittstellen werden benötigt? Sollten weitere Tools, wie ein CRM oder ein Data-Warehouse, eingebunden werden? Dann ist zu klären, welche Schnittstellen für die Datenanbindung benötigt werden und ob die Verknüpfbarkeit der Daten gegeben ist.

Wer arbeitet mit dem Tool? Definiert, in welchen Unternehmensbereichen Mitarbeiter das Webanalyse-Tool benutzen. Gibt es einen designierten Analysten, der die Daten für die einzelnen Abteilungen aufbereitet oder arbeiten die Abteilungen direkt mit dem Tool? Dies ist wichtig, um zum einen den Schulungsaufwand und Personalkosten einschätzen zu können, als auch die Anforderungen an das Tool zu definieren. Zum Beispiel ob einzelne User-Groups festgelegt werden können.

Welche zusätzlichen Informationen sind relevant für die Webanalyse? Alle relevanten Informationen müssen zentral zusammenlaufen, am besten dort, wo die Daten analysiert werden. Es kommt immer wieder vor, dass Peaks oder Probleme auftreten und der Analyst keine Erklärung findet, weil er nicht mitbekommen hat, dass z.B. Kampagnen abgeschaltet wurde.

Wie dokumentiere ich? Welche Funktionen sollten zum Reporting zur Verfügung stehen? Reicht ein Report für alle oder sollen nutzerspezifische Reports angefertigt werden? Sollen die Daten visualisiert dargestellt werden?

Welche Bereiche können per Webanalyse nicht abgebildet werden? Gibt es Geschäftsbereiche (z.B. das Offline-Geschäft) die mit der Webanalyse nicht abgebildet werden können?

All diese Fragen helfen euch genauer zu bestimmen, welche Anforderungen ein geeignetes Tool überhaupt erfüllen muss. Anhand dieser Übersicht könnt ihr einen Plan erstellen, der die wichtigsten Features abbildet. So stellt ihr sicher, dass euer gewähltes Tool auch leisten kann, was ihr erwartet und benötigt.

Tag Manager & Co – Brauche ich weiterführende Tools?

Ihr wisst nun, was ein Tool für euer Unternehmen theoretisch können muss. Nun steht die Wahl des richtigen Tools an. Die eigentlichen Analyse-Tools sind von der Funktionsweise her sehr ähnlich und die meisten Unternehmen stoßen kaum an die Grenzen, an denen sich die Tools tatsächlich unterscheiden. Kurz: Ein normaler Nutzer bemerkt die Unterschiede meist nicht.

Webseiten mit hohem Traffic müssen sich aber die Frage stellen, ob ihnen z.B. das kostenfreie Google Analytics ausreicht, denn hier kommt es nach einer bestimmten Anzahl von Aktionen pro Monat zu Daten-Sampling.

Zumeist empfiehlt sich zusätzlich zum Analyse-Tool auch ein Tag Manager, denn dieser macht euch unabhängiger von der IT. Während das Setzen von Tags oft in der IT liegt, ist die Datenanalyse oft Aufgabe anderer Abteilungen, wie dem Marketing. Mit dem Tag Manager kann die Marketing-Abteilung die Tags zukünftig selbst setzen und Ressourcen in der IT werden geschont.

Häufig ist nicht nur das Analyse-Pixel auf der Seite eingebunden, sondern eine Vielzahl an verschiedener Pixel. Ein Tag Manager hilft, in der Masse den Überblick zu behalten.

Es ist daher sinnvoll die Implementierung eines Tag Managers direkt zu Beginn in die Überlegungen mit einzubeziehen.

Tools mit weiterführenden Features, wie z.B. Mouseflow oder Hotjar, kommen dann erst im späteren Schritt. Für diese Tools macht es Sinn erst einmal zu wissen, wonach überhaupt gesucht wird. Merkt ihr mit der Zeit, dass die momentanen Analysen nicht die Daten bereitstellen, die ihr benötigt, oder sie nicht zufriedenstellend aufbereitet werden, könnt ihr über weitere Tools nachdenken.

Die bekanntesten Webanalyse-Tools im Überblick:

Google Analytics

 

Das wohl gängigste Tool ist Google Analytics. Da es kostenlos zur Verfügung gestellt wird, ist dies oft die erste Wahl beim Einstieg in die Webanalyse. Doch kostenlos heißt nicht umsonst – die Daten werden in deinem Auftrag auf Googles Servern verarbeitet und ab einer bestimmten Datenmenge kommt es zum Data Sampling. Bei besonders hohem Traffic lohnt der Umstieg auf die kostenpflichtige Google Analytics 360 Suite oder einen anderen Anbieter.
Google Analytics 360 Suite Die Google Analytics 360 Suite ist die Enterprise-Lösung von Google. Sie bietet einen deutlich größeren Funktionsumfang und verzichtet auf Daten-Sampling – Ist aber auch deutlich kostenintensiver.
Matomo

 

Matomo, besser bekannt unter seinem vorherigen Namen – Piwik – ist ein Open-Source Analytics Tool. Es kann kostenfrei heruntergeladen werden und läuft auf den eigenen Servern des Nutzers – so behält dieser die komplette Kontrolle über seine Daten. Viele zusätzliche Plugins und ein persönlicher Support sind jedoch meist nicht in der kostenlosen Variante erhältlich.
Piwik PRO

 

Piwik PRO ist auf Grundlage der Open-Source Software Piwik entstanden, hat sich aber mittlerweile zu einer eigenständigen Marketing Suite mit Analytics, Tag Management, Personalisierung und Customer Data Platform entwickelt. Das kostenpflichtige Tool bietet seinen Kunden neben den umfangreichen Funktionen auch Enterprise-Support.
AT Internet

 

Das französische Tracking-Tool AT Internet ist auch in Deutschland auf dem Vormarsch und bietet zusätzlich zur Webanalyse ein integriertes Tag Management-System, Echtzeit-Segmentierung und explorative Analysen.
Webtrekk

 

Der Webanalyse-Anbieter Webtrekk aus Berlin hat sich am Markt etabliert. Webtrekk bietet mittlerweile ebenfalls eine Marketing Suite an, mit der Daten nicht nur gesammelt, sondern auch ausgewertet und aktiviert werden können.
Adobe Die Adobe Marketing Cloud bietet eine Rundum-Lösung für größere Unternehmen mit CMS, Analytics, Segmentierung, Testing und weiteren Tools, ist aber auch dementsprechend kostenintensiv.
etracker

 

Das Hamburger Unternehmen etracker ist ein Einsteigertool für all diejenigen, denen die kostenfreie Google Analytics Lösung nicht ausreicht oder die auf der Suche nach einer kostengünstigen SaaS-Lösung sind.
Econda

 

Econda ist ein Karlsruher Tracking-Tool, das sich speziell auf E-Commerce Kunden spezialisiert hat und Daten beispielsweise anhand des integrierten RFM-Modells bewertet.
Mouseflow

 

Ein weiterführendes Tool ist Mouseflow. Hiermit könnt ihr nachvollziehen, wie sich eure Nutzer auf eurer Seite verhalten. Mithilfe von Session Replays, Heatmaps, Funnel- und Formularanalysen könnt ihr dann die Usability eurer Seite optimieren.
Hotjar

 

Hotjar bietet einen ähnlichen Service wie Mouseflow, indem die Nutzerfreundlichkeit eurer Webseite per Heatmap, Visitor Recordings, Funnel-Analysen oder auch Feedback-Umfragen verbessert werden kann.

Ihr startet bei null?

Die Auswahl überfordert euch? Vielleicht ist euch noch gar nicht so genau klar, welche Metriken überhaupt relevant sind und welche Daten auf jeden Fall und in welchem Umfang erhoben werden sollen? Ein externer Berater kann da oft hilfreich sein und aufgrund der größeren Erfahrung wertvolle Impulse geben.

Zu Beginn gilt aber: Zum Start nicht zu komplex werden, sonst geht die Transparenz verloren. Im schlimmsten Fall wird auf den falschen Daten gearbeitet und Ergebnisse werden verfälscht. Also lieber erst einmal mit den Daten und Analysen beginnen, die leicht nachzuvollziehen sind und diese auf einem übersichtlichen Dashboard anordnen, welches von da aus weiterentwickelt werden kann.

Wenn ihr komplett bei null startet, ist es prinzipiell gar nicht so schlecht, erst einmal mit einem kostenlosen Tool zu beginnen. Wenn ihr mit dem Tool an Grenzen stoßt, könnt ihr darauf aufbauen. Denn dann ist eher klar, welche Anforderungen ein geeignetes Tool erfüllen muss –  ihr wisst also viel konkreter was euch fehlt und was ihr braucht. Mit diesem Wissen könnt ihr dann bewusst in neue Tools investieren. Hier gilt: Erst Zeit in das Tool investieren und erst dann in Features.

Dabei darf nicht vergessen werden, dass auch ein kostenloses Tool Kosten verursacht: Es braucht jemanden, der das Tool einbaut, konfiguriert und bedient. Das Webanalyse-Tool sammelt lediglich Daten, letztendlich sind es aber Personen, die das Tool bedienen, mit den Daten arbeiten und auf den gewonnenen Insights aufbauen.

Suchmaschinenoptimierung mit dem Google Tag Manager

Eine technisch einwandfreie Internetseite, ist die Basis einer guten Suchmaschinenoptimierung. In manchen Fällen kommt es bei der Umsetzung von Optimierungsvorschlägen allerdings zu Problemen: Das genutzte Content Management System erlaubt zum Beispiel keine Anpassungen oder die Entwicklungszyklen für neue Funktionen ziehen sich über Monate hinweg. Ähnlich wie man Trackingkonzepte ohne die Unterstützung der IT-Abteilung umsetzen kann, lassen sich auch bestimmte technische SEO-Arbeiten über den Google Tag Manager realisieren. In diesem Artikel zeigen wir euch, wo ihr dabei ansetzen könnt.

Google und JavaScript

Früher war es noch einfach. Nur was im HTML-Quelltext stand (Rechtsklick -> Seitenquelltext anzeigen), konnte von Google gecrawlt werden. Inhalte, die dynamisch mit JavaScript geladen wurden, waren für Suchmaschinen nicht zugänglich. Im Jahr 2015 gab Google allerdings bekannt, dass die Suchmaschine in der Lage sei, JavaScript auszuführen und dessen Inhalte zu interpretieren. (Aus diesem Grund sollten auch JavaScript und CSS Dateien niemals vom Crawling ausgeschlossen werden.)

Da Google also in der Lage ist, auch das nachträglich eingebaute JavaScript des Tag Managers auszuführen, können wir HTML und JSON-Code, den Google für die Verarbeitung der Seite nutzt, über den Tag Manager nachtragen und verändern und so auch Angaben, die aus SEO Sicht wichtig sind, anpassen. Sehr sinnvoll ist dieses Vorgehen zum Beispiel bei der Auszeichnung von strukturierten Daten. Außerdem wertet Google auch durch JavaScript verändertes HTML für seine Suche.

SEO-Arbeiten mit dem Tag Manager und JavaScript umsetzen

Folgende SEO relevanten Angaben können durch den Tag Manager bereitgestellt oder verändert werden:

  • Title-Tags
  • Meta-Description
  • Meta-Robots-Tag (Um z.B. die Indexierung von Seiten zu steuern)
  • Canonical-Tags
  • Mobile-Tags (nützlich, wenn eine mobile Version der Website besteht, wie z.B. m.example.de)
  • hreflang-Attribute

Habt ihr also nicht de Möglichkeit, diese Angaben im CMS anzupassen, könnt ihr dies über den Tag Manager abbilden. Vorausgesetzt der Google Tag Manager Code ist auf der Seite eingebaut und das Konto richtig eingerichtet.

Das wohl umfangreichste Experiment zu diesem Thema, welches zurzeit im Netz verfügbar ist, wurde von SearchVIU durchgeführt.

Bei allen durchgeführten Tests hat Google die Änderungen des Google Tag Managers berücksichtigt. Allerdings dauerte es bei bestimmten Tests relativ lange, bis die Vorgaben umgesetzt wurden, da Google für JavaScript einen anderen Crawler nutzt. Dieser trifft zum einen seltener auf die Internetseite und muss zum anderen mehr Daten verarbeiten. Pro Session kann er daher weniger Unterseiten verarbeiten.

Die Nachteile beim Umsetzen von SEO-Arbeiten mit dem Tag Manager

Doch SEO-Angaben sollten grundsätzlich nur mit dem Google Tag Manager realisiert werden, wenn keine Möglichkeit besteht, diese direkt im System umzusetzen. Nur der Google Crawler kann JavaScript aus dem Google Tag Manager interpretieren. Außerdem ist das JavaScript-Crawling noch eine relativ neue Technologie. Google ist beim Crawling von JavaScript vielen Anbietern voraus. Die Crawler von anderen Suchmaschinen und von SEO-Software können nur selten mit JavaScript umgehen. Die Änderungen, die ihr über den Google Tag Manager vornehmt, können von anderen Suchmaschinen daher nicht interpretiert werden.

Hier findet ihr dazu nochmal das Statement von John Müller (Webmaster Trends Analyst bei Google):

Statement von John Müller zu SEO mit dem Google Tag Manager

Statement von John Müller zu SEO mit dem Google Tag Manager

Tutorial: Seiten auf noindex stellen

Um euch zu zeigen, wie ihr effektiv SEO mit dem Google Tag Manager betreiben könnt, zeigen wir euch an einem Beispiel, wie ihr dabei konkret vorgehen könnt. Wichtig ist natürlich, dass ihr den Google Tag Manager bereits auf eurer Website eingebunden und eingerichtet habt.

Durch das Deindexieren von doppelten und irrelevanten Unterseiten können große Websites stark von einer besseren Sichtbarkeit profitieren. Diese Methode solltet ihr sehr sorgfältig anwenden, da ihr unter keinen Umständen nützliche Seiten deindexieren wollt.

Ein Anwendungsfall ist zum Beispiel das Deindexieren von doppelten Inhalten, die durch Parameter entstehen. Gängige Parameter wie z.B. ?=search werden für gewöhnlich von Google als solche erkannt und können mit der Search Console gesteuert werden. Nicht erkannte Parameter könnt ihr mit dem Tag Manager über die Seiten-URL zuverlässig auf noindex stellen. Voraussetzung dafür ist, dass eine bestimmte Zeichenfolge in der URL besteht und sich das Problem nicht zeitnah im Content Management System lösen lässt.

Schritt 1: Doppelten Inhalte identifizieren

In unserem Beispiel ist uns bei einem Screaming Frog Crawl einer Website aufgefallen, dass sehr viele Unterseiten mit „(offset)“ in der URL gefunden wurden. Für Suchmaschinen waren diese Inhalte nicht von Bedeutung, da sie lediglich Duplicate Content verursachten.

Durch die Google Suchabfrage

Site:domain.com inurl:(offset)

fanden wir über 1,600 indexierte Seiten mit diesem Parameter. Bei einem genaueren Blick auf die Unterseiten konnten wir schnell feststellen, dass die Parameter durch die Filternavigation entstanden. Die Inhalte der getesteten Unterseite waren dadurch dreimal zu oft im Google-Index vertreten:

Duplicate Content im Google Index

Duplicate Content im Google Index

Um das Crawl Budget der Website zu schonen und den technischen Duplicate Content einzugrenzen, sollten sie nun deindexiert werden.

Schritt 2: Anlegen des „noindex“ Script Tag im Tag Manager

Im Tag Manager können wir mit dem „benutzerdefinierten HTML“ Tag Elemente auf der Seite modifizieren. Durch den folgenden JavaScript Code, wird der bestehende Meta-Robots-Tag entfernt und ein neuer „NOINDEX“ Meta-Robots-Tag eingefügt:

Script über den Google Tag Manager einbinden

Script über den Google Tag Manager einbinden

Schritt 3: Trigger erstellen

Damit unser kleines Script auf den richtigen Seiten ausgeführt wird, muss ein Trigger erstellt werden. In unserem Fall können wir die vorkonfigurierte Variable {{Page URL}} nutzen. Falls die Variable nicht verfügbar ist, muss diese wahrscheinlich noch unter der Variablen-Konfiguration aktiviert werden.

Der Tag soll auf jeder Unterseite gefeuert werden, die „(offset)“ in der {{Page URL}} verwendet.

Schritt 4: Crawling anstoßen

In unserem Fall werden die Seiten wahrscheinlich sehr selten von Google gecrawlt. Da es sich außerdem um relativ viele Unterseiten handelt, bietet sich das Einreichen einer zusätzlichen Sitemap.xml in der Search Console an, die die entsprechenden Unterseiten enthält. Dies kann die Deindexierung beschleunigen.

Hierzu könnt ihr mit dem Screaming Frog eine sitemap.xml mit allen Seiten erstellen, die „(offset)“ in der URL enthalten. Eine Anleitung findet ihr hier.

Wenn nur wenige Unterseiten betroffen sind, habt ihr die Möglichkeit, diese einzelne in der Search Console unter „Crawling -> Abrufen & Rendern“ einzureichen und so die Indexierung beschleunigen. Durch das Rendern wird automatisch auch das JavaScript ausgeführt und das Crawlen der Seite beantragt.

Wichtig: Die Seiten, die deindexiert werden sollen, dürfen nicht durch die robots.txt vom Crawling ausgeschlossen sein, da Google sonst nicht auf die Seite zugreifen kann und das neue Robots-Tag nicht liest.

Weitere Anwendungsfälle

Wie schon erwähnt, lassen sich auch strukturierte Daten gut mit dem Tag Manager auszeichnen. Mehr dazu findet ihr im Artikel „Strukturierte Daten mit dem Google Tag Manager bereitstellen“.

Wenn ihr eine mehrsprachige Internetseite mit funktionierendem Sprachen-Menü besitzt, könnt ihr über den Tag Manager relativ einfach gute hreflang-Attribute bauen. Eine ausführliche Anleitung findet man bei SearchVIU.

Fazit

Mit dem Google Tag Manager habt ihr die Möglichkeit, bestimmte SEO relevante Angaben auf eure Website zu verändern – ohne dafür ins Content Management System einzugreifen. Dies ist besonders praktisch, wenn solche Anpassungen nicht möglich oder mit sehr viel Aufwand verbunden sind. Ihr seid unabhängig von der IT und könnt eure Änderungen schneller umsetzen. Da aber ausschließlich Google diese so vorgenommenen Veränderungen interpretieren kann und der JavaScript-Crawler vergleichsweise lange braucht, um die Unterseiten zu crawlen, bietet sich diese Lösung nur dann an, wenn es keine andere Möglichkeit gibt. Lassen sich die Änderungen im CMS umsetzen, ist diese Variante immer vorzuziehen.

Habt ihr spezielle Fragen zum Tag Manager oder Suchmaschinen Optimierung? Nutzt gerne die Kommentar-Funktion, wenn wir euch behilflich sein können.

Weiterführende Informationen

Interne Suche mit Google Analytics tracken

Die interne Suche einer Website bietet Nutzern die Möglichkeit gezielt nach Inhalten auf der Seite zu suchen. Über Google Analytics könnt ihr diese Site-Search tracken und erfahrt, welche Begriffe eure Nutzer eingegeben haben und auf welcher Unterseite sie die Suche ausgeführt haben. So erhaltet ihr wertvolle Informationen für Optimierungen eurer Website. In diesem Beitrag erfahrt ihr, wie ihr das Tracking der internen Suche einrichtet. Außerdem geben wir nützliche Tipps zur Auswertung und zum Umgang mit den gewonnenen Daten.

Warum es sich lohnt die interne Suche auszuwerten

Über die Auswertung der internen Suche erfahrt ihr, welche Suchbegriffe Nutzer auf eurer Website verwendet haben. In diesen Suchbegriffen steckt eine Menge an Informationen: Der Nutzer verrät euch, welche Themen ihn interessieren. Nehmt ihr den Umstand hinzu, dass die interne Suche vor allem verwendet wird, um Inhalte aufzuspüren, die der Nutzer nicht ohne weiteres über die Navigation ausfindig machen konnte, ergeben sich die ersten Optimierungsansätze für eure Website:

  • Gibt es die gesuchten Inhalte, solltet ihr sie besser auf der Seite integrieren, damit sie einfacher zu finden sind.
  • Über die Suchbegriffe der internen Suche könnt ihr in Analytics so Themen identifizieren, die zwar das Nutzerinteresse wecken, aber aktuell gar nicht auf eurer Website abgedeckt sind. Diese Themen könnt ihr dann zu eurem Portfolio ergänzen.

Vielleicht werden eure Seiten aber auch einfach schlecht gefunden, weil ihr die falschen Begriffe und Wordings verwendet. Hier könnt ihr die Optimierung der Seite überprüfen und die in der Site Search eingegebenen Suchbegriffe als Keywords oder Keyword-Ideen verwenden. So könnt ihr z.B. Meta-Daten, Texte oder auch die interne Verlinkung optimieren. Zudem können in diesen Keywords der internen Suche auch weitere Ideen zur Ergänzung von SEA-Kampagnen stecken.

Neben den wichtigen Suchbegriffen bietet euch Analytics für die Site Search weitere Auswertungsansätze. So könnt ihr sehen, wie oft die interne Suche wiederholt wurde, wie viele Nutzer ihre Sitzung nach einer Suche abgebrochen haben und auf welchen Seiten Nutzer die interne Suche durchgeführt haben. Mit Hilfe dieser Informationen erfahrt ihr mehr über Inhalte und Struktur eurer Website und könnt z.B. auch die Struktur eurer Seite und auch der internen Suche hinterfragen.

  • Warum hat ein Nutzer z.B. mehrmals hintereinander die interne Suche verwendet?
  • Hat er immer ähnliche Suchbegriffe eingegeben, weil die interne Suche vielleicht keine passenden Inhalte gezeigt hat?
  • Ist er schließlich auf dem gewünschten Inhalt gelandet?
  • Oder hat ein Nutzer sogar die Sitzung abgebrochen, weil er den gewünschten Inhalt nicht gefunden hat, oder die interne Suche keine Ergebnisse geliefert hat?

Wird die interne Suche bei einer sehr hohen Prozentzahl aller Sitzungen verwendet, deutet dies zum Beispiel daraufhin, dass eure Navigation insgesamt nicht gut aufgebaut oder nicht verständlich ist.

Nutzt die Informationen um die Nutzererfahrung und Performance eurer Seite zu verbessern und Inhalte zu optimieren oder besser auffindbar zu machen.

Einrichtung des Site Search Tracking mit Suchparameter in Google Analytics

Die Einrichtung des Trackings ist schnell gemacht, wenn eure Suchergebnisseiten einen Suchparameter enthalten. Der Suchparameter hängt sich an die URL an, wenn ihr eine interne Suche ausführt. Um herauszufinden, ob eure interne Suche über einen Such-Parameter ausgesteuert wird, führt ihr einfach eine interne Suche auf eurer Website aus und schaut euch die URL an:

Um den Suchparameter zu identifizieren, müsst ihr die interne Suche ausführen.

Um den Suchparameter zu identifizieren, müsst ihr die interne Suche ausführen.

Löst ihr auf unserer Website eine interne Suche z.B. nach „Google Analytics interne Suche“ aus, so erhaltet ihr folgende URL:

Der Suchparameter hängt sich hinten an die URL an.

Der Suchparameter hängt sich hinten an die URL an.

In dieser URL ist ein solcher Suchparameter enthalten. Es ist das „s“, welches den Suchbegriff einleitet und für Google der Hinweis für die Suchbegriffe darstellt. Solche Parameter können aber auch /?q= oder /?search= o.ä. heißen, das kommt immer auf euer CMS und die Umsetzung der internen Suche an, deshalb solltet ihr einmal die interne Suche ausführen und die URL auf einen Parameter hin untersuchen.

Um das Tracking in Analytics einzurichten, geht ihr dann wie folgt vor: Bei den Einstellungen der Datenansicht aktiviert ihr das Site Search Tracking für Google Analytics. Dazu wählt ihr im Verwalten-Bereich eures Google Analytics Kontos unter dem Abschnitt Datenansicht den Punkt „Einstellungen der Datenansicht“ aus.

Das Tracking der Site Search in Google Analytics kann bei den Datenansichtseinstellungen aktiviert werden.

Das Tracking der Site Search in Google Analytics kann bei den Datenansichtseinstellungen aktiviert werden.

Hier könnt ihr dann im Abschnitt Site Search-Einstellungen das Tracking der internen Suche einrichten. Das Einzige, was ihr jetzt wissen müsst, ist, welcher Parameter bei der Suche an eure URL gehangen wird. Dann könnt ihr das Site Search Tracking in Analytics anlegen:

Site Search-Einstellungen in Google Analytics

Site Search-Einstellungen in Google Analytics

  1. Schaltet das Site Search-Tracking ein
  2. Gebt den Suchparameter ein, der die interne Suche auszeichnet – dabei vernachlässigt ihr das vorangestellt Fragezeichen und das folgende Gleichheitszeichen des Parameters (in unserem Beispiel also nur das „s“).
  3. Entscheidet, ob der Suchparameter aus der URL entfernt werden soll oder nicht
  4. Optional könnt ihr noch Site Search-Kategorien tracken

Solltet ihr mehrere Parameter haben, die für eine interne Suche genutzt werden, so könnt ihr bei der Einrichtung auch mehrere Parameter angeben. Achtet hierbei darauf, dass ihr die Parameter durch Kommata bei der Eingabe voneinander trennt.

Unter 3. „Suchparameter aus der URL ausschließen“, gebt ihr an, wie Analytics mit den Parametern umgehen soll. Werden die Suchparameter aus der URL entfernt, fasst Analytics alle Aufrufe dieser Seite zusammen – auch die, die nicht Teil der internen Suche waren. Hier kommt es darauf an, worauf ihr in der Auswertung einen Fokus legen möchtet. Im Zweifel solltet ihr die Suchparameter erstmal ausschließen, da sonst bei jeder Suche im Seitenbericht eine neue ziele entsteht. Bei vielen Suchen gibt es dann also sehr viele unterschiedliche Seiten.

Habt ihr auf eurer Website unterschiedliche Kategorien der Suche, um die Suche z.B. genauer zu differenzieren, könnt ihr diese auch mit dem Site Search-Tracking erfassen. Dazu müsst ihr lediglich die Schaltfläche unter 4. Site Search-Kategorien aktivieren. Nun könnt ihr die Parameter für die einzelnen Site Search-Kategorien in Analytics eintragen und auch hier entscheiden, ob die Such-Parameter aus der URL entfernt oder beibehalten werden sollen.

Einrichtung des Site Search Tracking ohne Suchparameter in Google Analytics

Auf manchen Websites gibt es keine Suchparameter. Die interne Suche wird hier anders ausgelöst. Für Google Analytics ist es allerdings ohne den Parameter nicht möglich, die interne Suche auszuwerten bzw. die eingegebenen Suchbegriffe der Nutzer zu erfassen. Hier müsst ihr ein bisschen tricksen, um die Suchbegriffe auswerten zu können. Es gibt zwei Möglichkeiten:

  1. Anpassung der internen Suche

Manchmal kann eure IT oder eure umsetzende Agentur die interne Suche anpassen, sodass der Suchparameter doch in der URL wiedergegeben wird.

  1. Einrichten eines virtuellen Seitenaufrufs

Dieser Seitenaufruf kann z.B. über den Google Tag Manager eingerichtet werden. Über den virtuellen Seitenaufruf wird dann der Suchparameter erfasst und mitgeschrieben, sodass er für Google Analytics messbar wird. Dabei überschreibt der virtuelle den eigentlichen Seitenaufruf und wird an Analytics übermittelt.

Nachdem ihr die Anpassungen vorgenommen habt, könnt ihr das Tracking der Site Search in Analytics einrichten.

Auswertungsmöglichkeiten der internen Suche in Google Analytics

Nachdem ihr die Einrichtung der internen Suche vorgenommen habt, könnt ihr über die Berichte in Google Analytics die Auswertung vornehmen. Die Berichte findet ihr unter Verhalten > Site Search. Hier stehen euch diverse Auswertungsmöglichkeiten zur Verfügung.

Übersicht

Die Übersicht gibt einen Überblick über die wichtigsten KPIs der internen Suche.

Die Übersicht gibt einen Überblick über die wichtigsten KPIs der internen Suche.

In diesem Auswertungsbereich erhaltet ihr einen Überblick über die wichtigsten Kennzahlen der Site Search:

  • Sitzungen mit Suchanfrage: Anzahl der Sitzungen bei denen mind. einmal die Suchfunktion genutzt wurde
  • Einmalige Suchanfrage gesamt: Anzahl der eingegebenen Suchanfragen
  • Aufrufe von Suchergebnisseiten/Suche: Differenz der Seitenaufrufe der Suchergebnisseiten und der Summe einmaliger Suchen
  • % Suchausstiege: Anteil der Sitzungen, die nach der Suche die Seite verlassen
  • % Verfeinerung der Suche: Anteil der Suche, bei denen nach einer Suche noch weitere Suchen durchgeführt worden sind
  • Zeit nach Suche: Zeit, die Nutzer nach einer Suche noch durchschnittlich auf eurer Website verbringen
  • Suchtiefe: Anzahl der Seiten, die im Schnitt nach einer Suche angezeigt werden

Neben diesen Kennzahlen findet ihr auf der Übersichtsseite auch noch ein Tortendiagramm, welches euch zeigt, wie viele Sitzungen mit und ohne Verwendung der Suchfunktion stattgefunden haben.

Nutzung

Der Bericht Nutzung im Menü Site Search gibt euch einen tieferen Einblick in die Nutzung der internen Suche, indem ihr hier Sitzungen ohne Site Search mit Sitzungen mit Site Search vergleichen könnt. Den beiden Dimensionen werden unterschiedliche Metriken zugeordnet.

Der Bericht vergleicht Sitzungen mit und ohne Site Search.

Der Bericht vergleicht Sitzungen mit und ohne Site Search.

Neben Sitzungen, Absprungrate, Seiten pro Sitzung und der durchschnittlichen Sitzungsdauer, seht ihr in diesem Bericht auch die Conversions. Hier könnt ihr zwischen Zielvorhaben und E-Commerce wechseln.

Im Beispiel oben könnt ihr sehen, dass Nutzer, welche die interne Suche verwenden, länger auf der Seite bleiben und im Schnitt auch mehr Seiten aufrufen. Sogar die E-Commerce-Conversion-Rate ist bei den Sitzungen mit interner Suche höher. Das lässt vermuten, dass sich die Nutzer mit Verwendung der internen Suche mehr mit den Inhalten beschäftigen, hier also ein größeres Interesse besteht und sie dann im Vergleich sogar häufiger konvertieren. Eine Schlussfolgerung daraus könnte sein, dass man die interne Suche prominenter auf der Seite einbindet und die Nutzer auf die Möglichkeit der Suche so besser aufmerksam macht.

Suchbegriffe

In diesem Bericht findet ihr Informationen zu den Suchbegriffen und auch zu den Site Search-Kategorien, insofern ihr sie aktiviert habt. Die Suchbegriffe sind aus inhaltlicher Sicht der interessanteste Teil der Auswertung, schließlich wird euch hier gezeigt, was Nutzer tatsächlich auf eurer Seite suchen. Wie bereits angesprochen, könnt ihr hieraus Optimierungspotentiale ableiten:

  • Sind Themen gut auffindbar, für welche sich Nutzer interessieren?
  • Gibt es Themen, die ein Nutzer zwar sucht, aber die aktuell nicht auf der Seite abgebildet werden?
  • Kann ich anhand der Suchbegriffe neue Keywords (für SEO und SEA) und Themen ableiten?

Gerade bei sehr großen Websites oder Shops ist die interne Suche für Nutzer häufig ein Ersatz bzw. eine Ergänzung der Navigation. Denkt einmal an eine Website wie Amazon – hier würdet ihr eher euer gesuchtes Produkt in die Suchleiste eingeben, als euch durch die Navigation und zahlreiche Filterseite zu klicken. Deshalb sind die Suchbegriffe so wertvoll und spiegeln Nutzerinteresse wieder.

Mit diesem Bericht könnt ihr die Suchbegriffe der internen Suche auswerten.

Mit diesem Bericht könnt ihr die Suchbegriffe der internen Suche auswerten.

Die Auswertung ermöglicht euch zudem, neben der Analyse der Suchbegriffe selbst, auch Aussagen über die Funktion der Suche abzuleiten. Gerade wenn Nutzer lange verweilen und eine große Suchtiefe erzielen, kann es sein, dass sie in der Suche nicht zum gewünschten Ergebnis kommen – vielleicht lohnt sich ein Blick auf die Suchergebnisseiten und deren Struktur, um ableiten zu können, ob hier Optimierungspotential liegt.

Ebenso kann der Wert Suchausstiege Hinweise geben, ob Nutzer mit der internen Suche zufrieden sind und passende Ergebnisse finden, oder ob nach der Eingabe bestimmter Suchbegriffe sehr häufig Suchausstiege stattgefunden haben.

Um noch mehr Auswertungsmöglichkeiten zu erhalten, könnt ihr in dem Bericht über die Segmente analysieren, ob z.B. Nutzer, die über die organische Suche gekommen sind, nochmal die Site Search verwendet haben und was genau hier dann gesucht wurde.

Suchseiten

In diesem Bericht erhaltet ihr umfangreiche Informationen zu den Seiten, auf denen eine Suche gestartet wurde, auf welche Suchergebnisseite ein Nutzer gekommen ist und auch auf welcher Seite er dann seine Sitzung von der Suche aus fortgesetzt hat.

Hier erfahrt ihr, auf welchen Seiten die interne Suche ausgelöst wurde.

Hier erfahrt ihr, auf welchen Seiten die interne Suche ausgelöst wurde.

Den entsprechenden Seiten werden dann Metriken wie Suchanfragen gesamt, Aufrufe Suchergebnisseiten pro Suche, Suchausstiege, sowie Zeit nach Suche und Durchschnittliche Suchtiefe zugeordnet.

Der Bericht verrät euch, auf welchen Seiten Nutzer eine interne Suche angestoßen haben. Legt ihr euch die Suchbegriffe daneben, könnt ihr so vielleicht herausfinden, ob ihr die Seite ggf. weiter optimieren müsst und warum Nutzer hier eine Suche starten. Anhand des Abgleiches von Suchergebnisseiten und Zielseiten der Suche könnt ihr abschätzen, ob die Nutzer auch tatsächlich das gefunden haben, was sie gesucht haben und ob es Seiten gibt, die sehr oft intern gesucht werden. Diese Seiten könnten dann besser auffindbar gemacht oder weiter optimiert werden.

Fazit

Die Auswertung der Suchbegriffe der internen Suche bietet also viele Möglichkeiten Potentiale aufzudecken. Ihr könnt einiges über eure Nutzer und ihr Verhalten auf der Website erfahren. Zudem ist die Implementierung des Trackings für die Site Search gut und schnell umzusetzen. Findet zusätzliche Themen, optimiert die Struktur eurer Seite und nutzt den Input der Nutzer.

HTTPS Umstellung

HTTPS Umstellung: Tipps und Hintergründe

Habt ihr eure Website noch nicht auf HTTPS umgestellt? Dann wird es jetzt höchste Zeit dafür. HTTPS ist nicht nur ein von Google bestätigter Rankingfaktor, auch einige Internet-Browser weisen inzwischen Webseiten, die noch nicht über HTTPS erreichbar sind, als unsicher aus. Was ihr bei der Umstellung beachten müsst und wie ihr am besten dabei vorgeht, erfahrt ihr hier.

Warum solltet ihr eure Website auf HTTPS umstellen?

Wer den Google Chrome Browser nutzt, wird es vielleicht schon bemerkt haben. Websites, die vollständig unter HTTPS aufrufbar sind, werden in der Browserzeile als sicher ausgezeichnet.

Website wird als sicher ausgewiesen

Website wird als sicher ausgewiesen

Websites, die noch nicht unter HTTPS erreichbar sind, oder bei denen HTTPS nicht richtig implementiert ist, fehlt diese Einstufung. Hier erscheint stattdessen ein kleines i. Klickt man dieses an, teilt einem der Browser mit, dass die Website nicht sicher ist.

Warnung bei Websites ohne SSL Verschlüsselung

Warnung bei Websites ohne SSL Verschlüsselung

Im Februar 2018 gab Google bekannt, dass ab Juli mit dem Release des Chrome 68 Websites, die noch nicht via SSL verschlüsselt sind, als unsicher ausgewiesen werden – und zwar direkt in der Browserzeile.

Befindet sich auf der Seite ein Login-Bereich, wird im Chrome Browser jetzt schon darauf hingewiesen, dass die Seite nicht sicher ist.

Hier erscheint die Warnung direkt in der Status-Zeile

Hier erscheint die Warnung direkt in der Status-Zeile

Ähnliche Warnungen gibt es auch schon im Firefox:

Nicht sichere Website im Firefox

Nicht sichere Website im Firefox

Nicht sichere Website im Firefox

Nicht sichere Website im Firefox

Auch die Google Search Console weist seit letztem Jahr darauf hin, wenn eine Website, auf der sich Login-Bereiche befinden oder auf der sensible Daten wie Kreditkarteninformationen abgefragt werden, nicht per SSL verschlüsselt ist. Dasselbe gilt für Websites, die Formulare enthalten (zum Beispiel eine Newsletteranmeldung oder ähnliches).

Google Search Console Fehlermeldung: Nicht sichere Passworterfassungen lösen in Chrome 56 Warnungen aus

Google Search Console Fehlermeldung: Nicht sichere Passworterfassungen lösen in Chrome 56 Warnungen aus

Aus Nutzersicht macht es also ganz klar Sinn Websites auf HTTPS umzustellen. Niemand möchte, dass sensible Daten von Dritten abgefangen werden können. Sieht ein Nutzer, dass eine Website vom Browser als unsicher eingestuft wird, überlegt er es sich zweimal, ob er einen Kauf abschließt oder seine Daten für einen Newsletter oder andere Dienste hinterlegt. Eine Einstufung als sicher kann ihn hingegen in seiner Kaufabsicht bestärken.

Darüber hinaus ist auch in Bezug auf die Sichtbarkeit in Suchmaschinen ist die Nutzung von HTTPS anzuraten. Google arbeitet daran, das Internet sicherer zu machen. Schon seit August 2014 ist HTTPS als Rankingfaktor etabliert. Seit Ende 2015 versucht die Suchmaschine automatisch Websites unter HTTPS aufzurufen. Ist eine Website unter HTTP und HTTPS aufrufbar, wird in der Regel die HTTPS-Version indexiert.

Eine Studie des SEO-Tool-Anbieters Searchmetrics von 2015 bestätigt einen Zusammenhang zwischen der Nutzung von HTTPS und der Sichtbarkeit in Suchmaschinen einer Website. Laut der Studie haben Websites mit HTTPS tendenziell bessere Rankings. (Weitere Informationen zur Analyse gibt es unter Searchmetrics.de.) Warum also nicht auch diesen Vorteil nutzen?

Hintergründe: Mit SSL/TLS wird HTTP zu HTTPS

HTTP (Hypertext Transfer Protokoll) wird zur Übertragung von Daten im Internet verwendet. Wenn eine Webseite im Browser aufgerufen wird, sendet der Browser eine Anfrage (HTTP-Request) an einen Server. Diese Anfrage wird vom Server verarbeitet und die entsprechenden Dateien zur Darstellung der Webseite zurück an den Browser übermittelt (HTTP-Response).

SSL steht für Secure Sockets Layer und beschreibt eine verschlüsselte Datenübertragung zwischen Client und Server.

Wenn Browser und Webserver sich mit Hilfe von SSL erfolgreich identifiziert und authentifiziert haben und eine sichere Verbindung besteht, können die zu übertragenden Daten verschlüsselt per HTTPS verschickt werden.

Normaler HTTP-Traffic ist dagegen unverschlüsselt. Eine Verbindung via HTTPS garantiert Nutzern der Webseite, dass Daten nicht von Dritten gelesen bzw. abgefangen werden können.

SSL-Zertifikate: Welches braucht ihr?

Voraussetzung für eine Umstellung auf HTTPS ist die Nutzung eines SSL-Zertifikats. Diese erhaltet ihr bei einer Zertifizierungsstelle. Hier wird überprüft, ob eure Website-Adresse tatsächlich zu eurem Unternehmen gehört. Zertifikate gibt es in unterschiedlichen Ausführungen und unterschiedlichen Preisklassen. Achtet in jedem Fall darauf, dass ein 2.048-Bit-Schlüssel zur Verschlüsselung der Daten verwendet wird.

Damit Google eure Website als sicher einstuft, könnt ihr ein ganz einfaches Zertifikat verwenden. Diese gibt es sogar kostenlos bei Let’s encrypt. Sie eignen sich für einfache Blogs und Websites, auf denen man keine Nutzerdaten hinterlegen kann bzw. es keine Login-Bereiche gibt.

Für Websites mit Login-Bereich oder Formularen, in denen sensible Nutzerdaten übermittelt werden, sind aufwändigere SSL-Zertifikate sinnvoll, die dann aber auch mehr kosten. Diese sind noch sicherer und eindeutiger, da sie mehr Details abfragen und z.B. auch prüfen, ob ein Unternehmen wirklich existiert (z.B. über einen Check im Handelsregister). Dann wird auch die Status-Zeile im Browser entsprechend angepasst. Dies steigert das Vertrauen des Nutzers in die Website.

Bei diesem zertifikat werden weitere Informationen in der Status-Zeile angezeigt

Bei diesem Zertifikat werden weitere Informationen in der Status-Zeile angezeigt

Einfache Zertifikate gelten nur für eine Domain (z.B. www.beispielseite.de). Es gibt allerdings auch Wildcard SSL-Zertifikate (auch Platzhalter-Zertifikate), diese gelten nicht nur für die Domain (sowohl domain.com als auch www.domain.com), sondern auch für alle Subdomains (*.domain.com). Und sogar Multidomain SSL-Zertifikate, die für mehrere Domains genutzt werden können. Auch hier gibt es wieder Zertifikate, die mehr Details zum Unternehmen prüfen und dann entsprechend teurer sind.

Stellt ihr zum Beispiel Inhalte in verschiedenen Sprachen zur Verfügung, die auf eigenen Domains (www.beispiel.nl) oder Sub-Domains (nl.beispiel.com) liegen, braucht ihr ein entsprechendes Zertifikat.

Übrigens könnt ihr auch für verschiedene Bereiche eurer Website unterschiedliche Zertifikate verwenden. Habt ihr zum Beispiel einen Onlineshop mit dazugehörigem Blog auf einer Sub-Domain (blog.beispielshop.de), könnt ihr für den Blog ein anderes, günstigeres Zertifikat verwenden und braucht dann kein teureres Wild Card Zertifikat.

Checkliste zur Umstellung auf HTTPS

Bei der Umstellung auf HTTPS kann es passieren, dass die Rankings eurer Website kurzzeitig schwanken. Um diese Schwankung zu minimieren, solltet ihr die folgenden Punkte beachten und richtig durchführen.

1. Vorbereitung

Bevor ihr mit der Umstellung beginnt, legt einen Crawl der aktuellen Website an. Anhand dieses Crawls könnt ihr später prüfen, ob eure Umstellung vollständig durchgeführt wurde. Dazu könnt ihr zum Beispiel den Screaming Frog verwenden.

2. 301 Weiterleitungen

Die alten HTTP-URLs müssen 1 zu 1 per 301 Redirect auf die neue HTTPS-Variante weitergeleitet werden und wenn das perfekt funktioniert und absolut jeder Seiteninhalt per HTTPS aufrufbar ist, kann zusätzlich HSTS eingesetzt werden um dem Browser mitzuteilen, dass die Website ausschließlich mit HTTPS genutzt werden soll. Beide Protokoll-Varianten zur Verfügung zu stellen und mit dem Meta-Robots-Tag „noindex“ oder dem Canonical-Element zu arbeiten, ist keine Option. Hier kann es zu Problemen aufgrund von Duplicate Content kommen. Für eine Umstellung ohne nennenswerte Rankingverluste darf die Webseite nur unter HTTPS erreichbar sein.

Bei dieser Website sind sowohl http- als auch https-Version erreichbar. Obwohl per Canonical-Tag auf http verwiesen wird, sind auch https-Seiten indexiert und konkurrieren mit den http-Seiten. Dies beeinträchtigt die gesamte Sichtbarkeit der Website.

Bei dieser Website sind sowohl http- als auch https-Version erreichbar. Obwohl per Canonical-Tag auf http verwiesen wird, sind auch https-Seiten indexiert und konkurrieren mit den http-Seiten. Dies beeinträchtigt die gesamte Sichtbarkeit der Website.

Wenn ihr die Weiterleitungen einrichtet, solltet ihr darauf achten, dass bei den URLs die Kampagnenparameter mit übergeben werden. Läuft während der Umstellung z.B. eine E-Mail-Kampagne mit „?utm“ Parametern, sollte dafür entsprechend eine Regel in der htaccess hinterlegt werden. Andernfalls gehen die Parameter verloren und die Kampagne kann nicht vollständig ausgewertet werden. Achtet außerdem darauf, dass keine Weiterleitungsketten entstehen.

3. Ressourcen nicht vergessen

Wenn ihr eure Webseite auf HTTPS umstellt, betrifft dies nicht nur die URLs der HTML-Seiten, sondern auch die der Bilder, PDF-, CSS-und JavaScript-Dateien, etc. Wenn ihr diese Ressourcen nicht mit umstellt, führt dies zu einem Mixed Content Problem. Dadurch kann die Indexierung eurer Webseite unter HTTPS verzögert oder sogar ganz verhindert werden. Außerdem wird eure Website vom Browser als nicht sicher eingestuft.

4. Canonical-Tags

Wenn auf eurer Webseite Canonical-Tags integriert sind, müsst ihr diese auch auf die neue Protokoll-Variante umstellen. Wird z.B. durch einen Canonical-Tag Duplicate Content ausgezeichnet, kann dies weiterhin nur sichergestellt werden, wenn das Canonical-Tag auf die richtige URL verweist. Eben die mit HTTPS.

5. Hreflang und andere rel-Alternate Auszeichnungen

Sind auf eurer Website hreflang-Attribute vorhanden, müssen die Verweise im Header ebenfalls angepasst werden und auf die HTTPS-URLs zeigen.

hreflang-Tags sollten bei der HTTPS-Umstellung angepasst werden

hreflang-Tags sollten bei der HTTPS-Umstellung angepasst werden

Dasselbe gilt für andere Alternate-Auszeichnungen wie rel=“next“ / rel=“prev“ , die Auszeichnung für mobile Websites oder AMP-Seiten.

Verweise zu AMP-Version im HTML-Code anpassen

Verweise zu AMP-Version im HTML-Code anpassen

Sind paginierte Seiten ausgezeichnet, muss hier ebenfalls eine Änderung vorgenommen werden

Sind paginierte Seiten ausgezeichnet, muss hier ebenfalls eine Änderung vorgenommen werden

6. Interne Verlinkung anpassen

Wie bei jeder Änderung der URLs einer Webseite ist es auch hier enorm wichtig, die internen Links in Fließtexten, der Navigation und allen anderen Elementen anzupassen. Sind die Verlinkungen relativ, also ohne „http://www.domain.de“, entfällt dieser Punkt. Hierbei müsst ihr sicherstellen, dass das auch stringent ist. Sind die Verlinkungen absolut hinterlegt, ist es vom System abhängig, ob jeder einzelne Link manuell geändert werden muss. Bei WordPress ist dies beispielsweise relativ einfach durch einen Datenbankbefehl möglich. Bei speziell programmierten CMS-Lösungen ist dies nicht immer der Fall.

7. robots.txt

Im Zuge der Umstellung ist auch die robots.txt unter einer neuen URL erreichbar. Hierbei muss sichergestellt werden, dass die robots.txt nicht mehr unter der HTTP-Version aufrufbar ist und HTTPS-URLS nicht für den Google Crawler gesperrt sind. Ansonsten wird eure Seite vom Crawling ausgeschlossen. Enthält die robots.txt einen Eintrag zur XML-Sitemap, solltet ihr auch diesen anpassen und auf die neue HTTPS-Sitemap verweisen.

Link zur Sitemap anpassen

Link zur Sitemap anpassen

8. Sitemaps

Ein Punkt, der gerne vergessen wird – die Sitemaps. Egal ob HTML-Sitemap oder XML-Sitemap: Auch hier müsst ihr die URLs anpassen, damit nur noch HTTPS-URLs darin vorhanden sind. Dies entlastet euer Crawl-Budget, da die http-URLs nicht mehr vom Crawler gelesen werden. Wenn ihr die XML-Sitemap in der Google Search Console hinterlegt, könnt ihr zudem die Indexierung der neuen HTTPS-URLs beobachten. Aber dazu später mehr.

Links in der Sitemap anpassen

Links in der Sitemap anpassen

9. Google Search Console und Google Analytics

Wenn die Webseite auf HTTPS umgestellt wird, muss für die HTTPS-Version eine neue Property in der Google Search Console angelegt werden.  In die HTTP-Property laufen nur noch Zugriffe auf die http-Version ein, nicht aber Zugriffe auf die HTTPS-Version.

Ist die Umstellung auf https erfolgt, laufen im idealfall keine Daten mehr in die alte http Search Console Property mehr ein

Ist die Umstellung auf https erfolgt, laufen im Idealfall keine Daten mehr in die alte http Search Console Property mehr ein.

Es muss eine neue Property für https angelegt werden, um die Zugriffe weiterhin überwachen zu können

Stattdessen laufen sie in der neuen https-Property ein.

Die alte HTTP Property sollte allerdings nicht gelöscht werden. Mit beiden Properties kann nun die Indizierung und die Zunahme bzw. Abnahme der Impressionen und Klicks beobachtet werden.

Für https muss eine eigene Property in der Search Console angelegt werden.

Für https muss eine eigene Property in der Search Console angelegt werden.

Habt ihr ein Disavow-File in der Search Console eingereicht, muss dieses auch in der neuen Property hinterlegt werden. Dasselbe gilt für Vorgaben zum GEO-Targeting und zum Umgang mit URL-Parametern.

Damit die Daten der neuen Property auch in Google Analytics einlaufen, müsst ihr die Search Console mit Analytics neu verknüpfen. Dann könnt ihr weiterhin Daten aus der Search Concole mit denen aus Analytics in Verhältnis setzen.

Durch die Verknüpfung der neuen https-Property in Google Analytics, können Metriken aus der Search Console mit Metriken aus Analytics in Verhältnis gesetzt werden.

Durch die Verknüpfung der neuen https-Property in Google Analytics, können Metriken aus der Search Console mit Metriken aus Analytics in Verhältnis gesetzt werden.

Bei lokalen Webseiten ist außerdem zu beachten, dass wenn es Einträge in Google My Business gibt, hier auch die URL zur Website geändert wird. Die Zugriffe, die über den Google My Business Eintrag erfolgen, laufen ebenfalls in der Search Console ein. Ist hier noch eine URL mit http verlinkt, finden sich die Daten nur in der http-Property.

Tipp: Wer viel mit Google Analytics arbeitet, kann in den Einstellungen für Property und Datenansicht die „URL der Webseite“ von HTTP auf HTTPS umstellen.

10. Backlinks

Auch Backlinks von wichtigen Webseiten, von denen zum Beispiel viel Traffic auf eure Webseite gelangt, könnt ihr direkt auf HTTPS ändern lassen. Google empfiehlt, die Webmaster der jeweiligen Seite zu kontaktieren und sie zu bitten, die Links anzupassen.

Überprüfung der HTTPS-Umstellung

Wenn ihr eure Website auf HTTPS umgestellt habt, solltet ihr sie erneut mit dem Screaming Frog abcrawlen. Dieser zeigt euch, ob intern noch http-Seiten verlinkt sind. Diese könnt ihr dann manuell anpassen. Auch Ressourcen wie Bilder, JavaScript, CSS etc., die noch über http eingebunden sind, fallen hierbei auf.

Crawlt auch nochmal alle alten HTTP-Seiten ab, um festzustellen, ob alle richtig weitergeleitet werden. Nutzt dazu den Crawl, den ihr am Anfang angelegt habt und fügt alle URLs als Liste ein. Alle Seiten sollten jetzt einen 301-Status-Code aufweisen.

Woran erkennt ihr, dass eure Webseite fehlerfrei auf HTTPS läuft?

Auch im Google Chrome Browser könnt ihr überprüfen, ob eure Webseite fehlerfrei umgestellt wurde. Ist alles richtig eingerichtet, erscheint hier ein grünes Schloss und der Browser stuft eure Seite als sicher ein.

Website wird als sicher ausgewiesen

Website wird als sicher ausgewiesen

Erscheint hier ein rotes Ausrufezeichen, stimmt etwas mit eurem Zertifikat nicht. Es ist entweder falsch eingebunden, abgelaufen oder sonst irgendwie fehlerhaft. Eine weitere Ursache kann sein, dass ihr Inhalte von Drittanbietern über einen I-Frame eingebunden habt und diese keine SSL-Verschlüsselung nutzen.

Seite ist nicht sicher

Seite ist nicht sicher

Wird in der Browserleiste ein „i“ eingeblendet, deutet dies auf ein Mixed-Content-Problem hin. Dies bedeutet, dass Teile eurer Webseite oder in eure Website eingebundene Ressourcen noch unter http erreichbar sind. Dabei muss es sich gar nicht um Ressourcen handeln, die auf eurer Domain liegen. Auch Ressourcen von anderen Anbietern, die ihr im HTML-Code hinterlegt habt, können die Warnmeldung auslösen. Verwendet ihr zum Beispiel Werbematerial eines Anbieters, der noch kein HTTPS nutzt, wird eure Seite ebenfalls als nicht sicher eingestuft.

Dies weist auf ein Mixed-Content-Problem hin

Dies weist auf ein Mixed-Content-Problem hin

Es gibt diverse Tools, die bei der Überprüfung der SSL-Umstellung helfen. Bisher haben wir mit dem Site Audit von SEMrush ganz gute Erfahrungen gemacht. Hier wird detailliert aufgelistet, wo es zum Beispiel Probleme mit Mixed Content oder internen Links gibt. Nachteil: das Tool ist nicht kostenlos.

Überprüfung der HTTPS-Implementierung mit SEMrush

Überprüfung der HTTPS-Implementierung mit SEMrush

Überprüfung der Rankings, der Indexierung und des Traffics

Habt ihr sichergestellt, dass die Umstellung fehlerfrei umgesetzt ist, solltet ihr trotzdem die Rankings, die Indexierung und den Traffic eurer Website im Auge behalten.

Schaut in der ersten Woche täglich in die Google Search Console. Die Klicks und Impressionen in der http-Property der GSC sollten abnehmen, die in der HTTPS-Porperty im gleichen Maße zunehmen. Auch die Indexierung der HTTPS-Seiten könnt ihr hier nachvollziehen. Um die Indexierung der HTTPS-Seiten zu beschleunigen, könnt ihr hier auch einen manuellen Crawl anstoßen. Habt ihr eine XML-Sitemap hinterlegt, lässt sich die Indexierung noch besser überwachen.

Werft außerdem auch regelmäßig einen Blick in euer Webanalyse-Tool und überprüft, ob der organische Traffic stabil bleibt.

Auch die Sichtbarkeit und die Rankings solltet ihr im Auge behalten. Dazu eignet sich zum Beispiel Sistrix. Hier könnt ihr die Sichtbarkeit der http-Seite und der HTTPS-Seiten gegeneinander laufen lassen.

Bei erfolgreicher HTTPS-Umstellung nimmt die Sichtbarkeit der HTTP-Seite ab und die der HTTPS zu

Bei erfolgreicher HTTPS-Umstellung nimmt die Sichtbarkeit der HTTP-Seite ab und die der HTTPS zu

Dafür könnt ihr euch auch einen entsprechenden Report anlegen. Und ihr könnt euch alle rankenden URLs ohne HTTPS anzeigen lassen. Bei großen Websites kann es schon mal ein halbes Jahr oder länger dauern, bis alle http-Seiten aus dem Index verschwunden sind und die HTTPS-Seiten dafür indexiert sind. Sinken die Rankings in den Suchergebnissen stark nach der Umstellung, deutet dies auf ein Problem hin. Kleinere Schwankungen sind hingegen normal.

http vs. http/2 (oder h2)

Wenn ihr schon dabei seid, eure Website auf HTTPS umzustellen, macht es auch Sinn direkt darüber nachzudenken auf http/2 umzusteigen. http/2 – oder kurz: h2 – ist ein anderes Übertragungsprotokoll für Websites. Während bei http für jede Datei einer Webseite nacheinander Anfragen an den Server (Server Requests) geschickt werden und für jede einzelne Anfrage die Verbindung erneut aufgebaut werden muss, geschieht dies bei http/2 alles parallel und die Verbindung zum Server wird dabei die ganze Zeit aufrechterhalten. Zudem können Ressourcen nun auch per „push“-Befehl selbst verschickt werden, was vorher nicht möglich war. Das macht die Website sehr viel schneller. Voraussetzung für http/2 ist die Nutzung von HTTPS, da die meisten Browser-Hersteller sonst auf das ältere http Netzwerkprotokoll umstellen und alle Vorteile dahin sind.

Außerdem habt ihr die Möglichkeit HSTS (http Strict Transport Security) zu nutzen. Hierbei wird der Browser angewiesen die Website grundsätzlich über HTTPS aufzurufen. Dadurch muss der Browser keiner Weiterleitung folgen und die Webseite wird einige hundert Millisekunden schneller geladen. Zudem ist HTST sehr schnell mit der htaccess eingerichtet.

Fazit

HTTPS ist nicht nur ein Google Rankingfaktor, es schafft auch Vertrauen beim Nutzer eurer Webseite. Selbst der Webbrowser zeigt inzwischen an, ob eine Seite sicher, also per SSL verschlüsselt ist. Die Umstellung ist relativ einfach durchzuführen und solange man alle Punkte unserer Checkliste beachtet, sollte es dabei nicht zu Einbußen in den Rankings und der Sichtbarkeit kommen. Wenn ihr dennoch unsicher seid, beauftragt eine SEO Agentur, die euch bei der Umstellung unterstützt.

SEAcamp 2018: Das beliebteste Event zum Thema Google AdWords & PPC-Werbung

„Wissen teilen. Neues lernen. Weiterkommen.“ – Unter diesem Motto fand am 26.04.2018 bereits das sechste SEAcamp in Jena statt. Die Veranstalter Thomas Grübel, Andreas Hörcher, David Schlee und Olaf Kopp haben auch in diesem Jahr wieder eine Veranstaltung geschaffen, bei der SEA- und PPC-Spezialisten die Möglichkeit hatten, sich in lockerer Atmosphäre über die neusten Entwicklungen der Branche auszutauschen. Nadia und Lara waren dieses Jahr dabei und haben für euch die spannendsten Vorträge zusammengefasst.

Die Veranstalter Thomas Grübel, Olaf Kopp, David Schlee und Andreas Hörcher begrüßen die Teilnehmer des SEAcamp 2018

Die Veranstalter Thomas Grübel, Olaf Kopp, David Schlee und Andreas Hörcher begrüßen die Teilnehmer des SEAcamp 2018

Erstmalig in diesem Jahr konnten vorab witzige Suchanfragen eingeschickt werden. Unter großem Gelächter fand dann die Auswertung statt, bei der wir sogar unter die Top 3 gekommen sind. Hiernach ging es in die Vorträge, von denen wir euch einige interessante Insights nicht vorenthalten möchten:

10 Scripte, die jeder kennen sollte – nur in etwas besser (Thomas Grübel)

Dass AdWords Scripts einem SEA-Manager den Arbeitsalltag um ein Vielfaches erleichtern, ist nichts Neues. Wer sich kein eigenes Script erstellen möchte, kann entweder auf die frei verfügbaren Google Vorlagen zurückgreifen oder in diversen Advertiser Blogs nach einem geeigneten suchen. Um im Scripte Dschungel dennoch den Überblick zu behalten, hat Thomas in seiner Session 10 interessante AdWords Scripts unter die Lupe genommen. Neben den Einsatzmöglichkeiten hat er auch aufgezeigt, wie man die Scripts mit wenigen Handgriffen an die eigenen Vorstellungen anpasst.

Thomas Grübel gibt Tipps zu AdWods Scripts

Thomas Grübel gibt Tipps zu AdWods Scripts

Auch wenn Thomas den Einsatz von AdWords Scripts nur befürworten kann, gibt er den SEA- und PPC-Spezialisten am Ende seines Vortrags einen wichtigen Tipp mit auf den Weg: „Arbeit abnehmen lassen – Nie das Denken!“. Eine vorgefertigte Auswahl an AdWords Scripts findet ihr auf seiner Website: http://www.inbiz.de/adwords-scripts/.

PaidSearch vor Gericht (Peter Hense)

Im normalen Arbeitsalltag ist Peter Hense als Rechtsanwalt tätig und berät Unternehmen in den Bereichen IT-Recht, Datenschutz und Wettbewerbsrecht. Daher ist es nicht verwunderlich, dass es bei seinem Vortrag um die EU-Datenschutzverordnung (DSGVO) ging. Da dieses Thema zurzeit sowohl unternehmens- als auch kundenseitig immer öfter Fragen aufwirft, war seine Session sehr gut besucht.

Am 25. Mai tritt die neue Datenschutz-Grundverordnung (DSGVO) in Kraft, die Unternehmer zwingen soll, persönliche Daten von Kunden und Mitarbeitern besser zu schützen. Seither hängt dieses Gesetzesungetüm wie ein Nebelschleier über vielen Unternehmen. Die ernüchternde Resonanz: Laut Peter Hense liegt die bisherige Umsetzung der Maßnahmen in Deutschland im einstelligen Prozentbereich. Während seines Vortrags ging er auf die folgenden Punkte näher ein:

  • Was sind personenbezogene Daten?
  • Rechenschaftspflicht und Nutzeranfragen
  • Dauer und Zweck der Datenspeicherung
  • Cookies, Datenanalyse und Einverständniserklärungen
  • Die DSGVO in der Praxis
Peter Hense zur DSGVO

Peter Hense zur DSGVO

Auch wenn er am Ende dazu aufruft Ruhe zu bewahren, werden wir wohl doch mit einigen Änderungen rechnen müssen.

Kenne deine Konkurrenz: Competitive Data Analysis (Lara Marie Massmann)

In der Session von Lara Marie Massmann konnten wir spannende Eindrücke zur Durchführung einer Wettbewerbsanalyse mitnehmen. Insbesondere, dass man mit kostenlosen (Test-)Accounts bei verschiedenen Tools einige interessante Informationen bekommt. Während ihres Vortrags ging sie auf die folgenden Fragestellungen ein: Wann und warum ist eine Wettbewerbsanalyse wichtig? Welche Daten sollte man sich anschauen? Welche Tools kann man für eine SEA Wettbewerbsanalyse nutzen? Als Leitfaden zur Durchführung der Wettbewerbsanalyse orientierte sich Lara an den W-Fragen.

Lara Maria Massmann erklärt, wie eine Wettbewerbsanalyse funktioniert

Lara Maria Massmann erklärt, wie eine Wettbewerbsanalyse funktioniert

Tipps & Tricks für B2B-Werbung im SEA (Cora Rothenbächer)

Online-Werbung im B2B-Bereich ist nicht immer einfach. Oft sind die Budgets eher gering, die Zielgruppe sehr speziell und dann stellt sich auch noch die Frage, wie man diese bestmöglich erreichen und dabei private Nutzer idealerweise ausschließen kann? In ihrem Vortrag stellte Cora Rothenbächer einige interessante Besonderheiten und Kniffe bei der Durchführung und Optimierung von B2B-Kampagnen vor.

Cora Rothenbächer gibt Tipps für B2B-Kampagnen

Cora Rothenbächer gibt Tipps für B2B-Kampagnen

Wir haben für euch die wichtigsten Tipps zusammengefasst:

  1. Fachspezifische Longtail-Keywords

Um einen hohen Streuverlust zu vermeiden, sollte bei der Auswahl der Keywords auf den Fachjargon der jeweiligen Zielgruppe geachtet werden. Auch wenn fachbezogene Keywords oftmals nicht das größte Suchvolumen aufweisen, erreichen sie im Idealfall die gewünschte Zielgruppe.

  1. Speziell formulierte Anzeigentexte und Erweiterungen

Eine besondere Zielgruppe erfordert ebenfalls eine besondere Ansprache. Aus der Anzeige sollte klar hervorgehen, an wen sich diese richtet. Bietet das Unternehmen einen kostenlosen Versand oder eine Vor-Ort-Beratung an, dann nehmt es mit in den Anzeigentext oder in eine der Erweiterungen auf.

  1. Conversion-Tracking-Zeitraum ausweiten

Oftmals findet im B2B-Bereich der eigentliche Verkauf des Produkts oder der Dienstleistung erst im Nachgang statt. Wie kann man dennoch die Leistung der Kampagnen beurteilen? Coras Tipp: Conversion-Tracking-Zeitraum erweitern! Durch die Verlängerung des Conversion-Tracking-Zeitraums können Conversions auch noch erfasst werden, wenn der Klick auf die Anzeige bspw. 60 oder 90 Tage zurückliegt.

  1. Relevante Landingpage

Auch die Landingpage hinter der Anzeige, spielt eine große Rolle für die Performance der B2B-Kampagnen. In einigen Beispielen wurden verschiedene B2B Landingpages gegenübergestellt und mögliche Optimierungsansätze besprochen.

Abschließend gab Cora noch den Hinweis auch mal andere Werbenetze wie bspw. Bing auszutesten. Bei ihren Kampagnen konnte sie damit bereits gute Erfolge erzielen.

3 Advanced Google Shopping Hacks (Christian Scharmüller)

„Drill it down – Just do it“ lautet der Schlüssel zum Erfolg einer Google Shopping Kampagne02, zumindest laut Christian Scharmüller. Low und Top-Performing Produkte sollten möglichst in eigene Anzeigengruppen ausgelagert werden, um gesondert behandelt zu werden und so die gesamte Konto-Performance zu steigern. Anhand einiger Beispiele wurde gezeigt, wie diese Low-Performer identifiziert werden können.

Ein weiteres Key-Learning aus dem Vortrag: Produkt Titel sind sehr wichtig für die Performance von Shopping Kampagnen. Mithilfe von Suchanfragenberichten kann man häufig gegoogelte Begriffe identifizieren und diese in dem Titel einbinden.

Sixt – von der Suchanfrage bis zur fertigen Kampagnen mit Hilfe von Google BigQuery (Philipp Mainka)

Suchanfragenberichte – wer kennt sie nicht? Philipp Mainka von Sixt berichtet von der konzerninternen Software, welches relevante Suchanfragen identifiziert und automatisiert verarbeitet. So erhält man als Endprodukt ein Dokument, in der Anzeigen und Keywords passend für die Kampagnenstruktur aufgearbeitet sind. Das Tool wurde in der Google Cloud entwickelt. Eine super Möglichkeit um die Vielzahl der Stationen und Sprachen möglichst einfach abzudecken.

Fazit

Eine bis ins Detail gelungene Veranstaltung, bei der viel Branchenwissen geteilt und Raum für Diskussionen und Fragen gegeben wird. Thematisch ist für jeden etwas dabei, ob Anfänger oder Fortgeschrittener. Wir haben viel Input mitgenommen und werden so einige Tipps und Tricks in Zukunft auch im Alltag anwenden.

Die Organisatoren halten auch in Zukunft das SEA Camp im kleinen und familiären Rahmen, sodass die Tickets oft binnen 24h ausverkauft sind. Wir empfehlen also schnell zuzugreifen, denn es lohnt sich. Und das nicht nur wegen des leckeren Buffets 😉

Weitere Recaps: