Suchmaschinenoptimierung mit dem Google Tag Manager

Eine technisch einwandfreie Internetseite, ist die Basis einer guten Suchmaschinenoptimierung. In manchen Fällen kommt es bei der Umsetzung von Optimierungsvorschlägen allerdings zu Problemen: Das genutzte Content Management System erlaubt zum Beispiel keine Anpassungen oder die Entwicklungszyklen für neue Funktionen ziehen sich über Monate hinweg. Ähnlich wie man Trackingkonzepte ohne die Unterstützung der IT-Abteilung umsetzen kann, lassen sich auch bestimmte technische SEO-Arbeiten über den Google Tag Manager realisieren. In diesem Artikel zeigen wir euch, wo ihr dabei ansetzen könnt.

Google und JavaScript

Früher war es noch einfach. Nur was im HTML-Quelltext stand (Rechtsklick -> Seitenquelltext anzeigen), konnte von Google gecrawlt werden. Inhalte, die dynamisch mit JavaScript geladen wurden, waren für Suchmaschinen nicht zugänglich. Im Jahr 2015 gab Google allerdings bekannt, dass die Suchmaschine in der Lage sei, JavaScript auszuführen und dessen Inhalte zu interpretieren. (Aus diesem Grund sollten auch JavaScript und CSS Dateien niemals vom Crawling ausgeschlossen werden.)

Da Google also in der Lage ist, auch das nachträglich eingebaute JavaScript des Tag Managers auszuführen, können wir HTML und JSON-Code, den Google für die Verarbeitung der Seite nutzt, über den Tag Manager nachtragen und verändern und so auch Angaben, die aus SEO Sicht wichtig sind, anpassen. Sehr sinnvoll ist dieses Vorgehen zum Beispiel bei der Auszeichnung von strukturierten Daten. Außerdem wertet Google auch durch JavaScript verändertes HTML für seine Suche.

SEO-Arbeiten mit dem Tag Manager und JavaScript umsetzen

Folgende SEO relevanten Angaben können durch den Tag Manager bereitgestellt oder verändert werden:

  • Title-Tags
  • Meta-Description
  • Meta-Robots-Tag (Um z.B. die Indexierung von Seiten zu steuern)
  • Canonical-Tags
  • Mobile-Tags (nützlich, wenn eine mobile Version der Website besteht, wie z.B. m.example.de)
  • hreflang-Attribute

Habt ihr also nicht de Möglichkeit, diese Angaben im CMS anzupassen, könnt ihr dies über den Tag Manager abbilden. Vorausgesetzt der Google Tag Manager Code ist auf der Seite eingebaut und das Konto richtig eingerichtet.

Das wohl umfangreichste Experiment zu diesem Thema, welches zurzeit im Netz verfügbar ist, wurde von SearchVIU durchgeführt.

Bei allen durchgeführten Tests hat Google die Änderungen des Google Tag Managers berücksichtigt. Allerdings dauerte es bei bestimmten Tests relativ lange, bis die Vorgaben umgesetzt wurden, da Google für JavaScript einen anderen Crawler nutzt. Dieser trifft zum einen seltener auf die Internetseite und muss zum anderen mehr Daten verarbeiten. Pro Session kann er daher weniger Unterseiten verarbeiten.

Die Nachteile beim Umsetzen von SEO-Arbeiten mit dem Tag Manager

Doch SEO-Angaben sollten grundsätzlich nur mit dem Google Tag Manager realisiert werden, wenn keine Möglichkeit besteht, diese direkt im System umzusetzen. Nur der Google Crawler kann JavaScript aus dem Google Tag Manager interpretieren. Außerdem ist das JavaScript-Crawling noch eine relativ neue Technologie. Google ist beim Crawling von JavaScript vielen Anbietern voraus. Die Crawler von anderen Suchmaschinen und von SEO-Software können nur selten mit JavaScript umgehen. Die Änderungen, die ihr über den Google Tag Manager vornehmt, können von anderen Suchmaschinen daher nicht interpretiert werden.

Hier findet ihr dazu nochmal das Statement von John Müller (Webmaster Trends Analyst bei Google):

Statement von John Müller zu SEO mit dem Google Tag Manager

Statement von John Müller zu SEO mit dem Google Tag Manager

Tutorial: Seiten auf noindex stellen

Um euch zu zeigen, wie ihr effektiv SEO mit dem Google Tag Manager betreiben könnt, zeigen wir euch an einem Beispiel, wie ihr dabei konkret vorgehen könnt. Wichtig ist natürlich, dass ihr den Google Tag Manager bereits auf eurer Website eingebunden und eingerichtet habt.

Durch das Deindexieren von doppelten und irrelevanten Unterseiten können große Websites stark von einer besseren Sichtbarkeit profitieren. Diese Methode solltet ihr sehr sorgfältig anwenden, da ihr unter keinen Umständen nützliche Seiten deindexieren wollt.

Ein Anwendungsfall ist zum Beispiel das Deindexieren von doppelten Inhalten, die durch Parameter entstehen. Gängige Parameter wie z.B. ?=search werden für gewöhnlich von Google als solche erkannt und können mit der Search Console gesteuert werden. Nicht erkannte Parameter könnt ihr mit dem Tag Manager über die Seiten-URL zuverlässig auf noindex stellen. Voraussetzung dafür ist, dass eine bestimmte Zeichenfolge in der URL besteht und sich das Problem nicht zeitnah im Content Management System lösen lässt.

Schritt 1: Doppelten Inhalte identifizieren

In unserem Beispiel ist uns bei einem Screaming Frog Crawl einer Website aufgefallen, dass sehr viele Unterseiten mit „(offset)“ in der URL gefunden wurden. Für Suchmaschinen waren diese Inhalte nicht von Bedeutung, da sie lediglich Duplicate Content verursachten.

Durch die Google Suchabfrage

Site:domain.com inurl:(offset)

fanden wir über 1,600 indexierte Seiten mit diesem Parameter. Bei einem genaueren Blick auf die Unterseiten konnten wir schnell feststellen, dass die Parameter durch die Filternavigation entstanden. Die Inhalte der getesteten Unterseite waren dadurch dreimal zu oft im Google-Index vertreten:

Duplicate Content im Google Index

Duplicate Content im Google Index

Um das Crawl Budget der Website zu schonen und den technischen Duplicate Content einzugrenzen, sollten sie nun deindexiert werden.

Schritt 2: Anlegen des „noindex“ Script Tag im Tag Manager

Im Tag Manager können wir mit dem „benutzerdefinierten HTML“ Tag Elemente auf der Seite modifizieren. Durch den folgenden JavaScript Code, wird der bestehende Meta-Robots-Tag entfernt und ein neuer „NOINDEX“ Meta-Robots-Tag eingefügt:

Script über den Google Tag Manager einbinden

Script über den Google Tag Manager einbinden

Schritt 3: Trigger erstellen

Damit unser kleines Script auf den richtigen Seiten ausgeführt wird, muss ein Trigger erstellt werden. In unserem Fall können wir die vorkonfigurierte Variable {{Page URL}} nutzen. Falls die Variable nicht verfügbar ist, muss diese wahrscheinlich noch unter der Variablen-Konfiguration aktiviert werden.

Der Tag soll auf jeder Unterseite gefeuert werden, die „(offset)“ in der {{Page URL}} verwendet.

Schritt 4: Crawling anstoßen

In unserem Fall werden die Seiten wahrscheinlich sehr selten von Google gecrawlt. Da es sich außerdem um relativ viele Unterseiten handelt, bietet sich das Einreichen einer zusätzlichen Sitemap.xml in der Search Console an, die die entsprechenden Unterseiten enthält. Dies kann die Deindexierung beschleunigen.

Hierzu könnt ihr mit dem Screaming Frog eine sitemap.xml mit allen Seiten erstellen, die „(offset)“ in der URL enthalten. Eine Anleitung findet ihr hier.

Wenn nur wenige Unterseiten betroffen sind, habt ihr die Möglichkeit, diese einzelne in der Search Console unter „Crawling -> Abrufen & Rendern“ einzureichen und so die Indexierung beschleunigen. Durch das Rendern wird automatisch auch das JavaScript ausgeführt und das Crawlen der Seite beantragt.

Wichtig: Die Seiten, die deindexiert werden sollen, dürfen nicht durch die robots.txt vom Crawling ausgeschlossen sein, da Google sonst nicht auf die Seite zugreifen kann und das neue Robots-Tag nicht liest.

Weitere Anwendungsfälle

Wie schon erwähnt, lassen sich auch strukturierte Daten gut mit dem Tag Manager auszeichnen. Mehr dazu findet ihr im Artikel „Strukturierte Daten mit dem Google Tag Manager bereitstellen“.

Wenn ihr eine mehrsprachige Internetseite mit funktionierendem Sprachen-Menü besitzt, könnt ihr über den Tag Manager relativ einfach gute hreflang-Attribute bauen. Eine ausführliche Anleitung findet man bei SearchVIU.

Fazit

Mit dem Google Tag Manager habt ihr die Möglichkeit, bestimmte SEO relevante Angaben auf eure Website zu verändern – ohne dafür ins Content Management System einzugreifen. Dies ist besonders praktisch, wenn solche Anpassungen nicht möglich oder mit sehr viel Aufwand verbunden sind. Ihr seid unabhängig von der IT und könnt eure Änderungen schneller umsetzen. Da aber ausschließlich Google diese so vorgenommenen Veränderungen interpretieren kann und der JavaScript-Crawler vergleichsweise lange braucht, um die Unterseiten zu crawlen, bietet sich diese Lösung nur dann an, wenn es keine andere Möglichkeit gibt. Lassen sich die Änderungen im CMS umsetzen, ist diese Variante immer vorzuziehen.

Habt ihr spezielle Fragen zum Tag Manager oder Suchmaschinen Optimierung? Nutzt gerne die Kommentar-Funktion, wenn wir euch behilflich sein können.

Weiterführende Informationen

Interne Suche mit Google Analytics tracken

Die interne Suche einer Website bietet Nutzern die Möglichkeit gezielt nach Inhalten auf der Seite zu suchen. Über Google Analytics könnt ihr diese Site-Search tracken und erfahrt, welche Begriffe eure Nutzer eingegeben haben und auf welcher Unterseite sie die Suche ausgeführt haben. So erhaltet ihr wertvolle Informationen für Optimierungen eurer Website. In diesem Beitrag erfahrt ihr, wie ihr das Tracking der internen Suche einrichtet. Außerdem geben wir nützliche Tipps zur Auswertung und zum Umgang mit den gewonnenen Daten.

Warum es sich lohnt die interne Suche auszuwerten

Über die Auswertung der internen Suche erfahrt ihr, welche Suchbegriffe Nutzer auf eurer Website verwendet haben. In diesen Suchbegriffen steckt eine Menge an Informationen: Der Nutzer verrät euch, welche Themen ihn interessieren. Nehmt ihr den Umstand hinzu, dass die interne Suche vor allem verwendet wird, um Inhalte aufzuspüren, die der Nutzer nicht ohne weiteres über die Navigation ausfindig machen konnte, ergeben sich die ersten Optimierungsansätze für eure Website:

  • Gibt es die gesuchten Inhalte, solltet ihr sie besser auf der Seite integrieren, damit sie einfacher zu finden sind.
  • Über die Suchbegriffe der internen Suche könnt ihr in Analytics so Themen identifizieren, die zwar das Nutzerinteresse wecken, aber aktuell gar nicht auf eurer Website abgedeckt sind. Diese Themen könnt ihr dann zu eurem Portfolio ergänzen.

Vielleicht werden eure Seiten aber auch einfach schlecht gefunden, weil ihr die falschen Begriffe und Wordings verwendet. Hier könnt ihr die Optimierung der Seite überprüfen und die in der Site Search eingegebenen Suchbegriffe als Keywords oder Keyword-Ideen verwenden. So könnt ihr z.B. Meta-Daten, Texte oder auch die interne Verlinkung optimieren. Zudem können in diesen Keywords der internen Suche auch weitere Ideen zur Ergänzung von SEA-Kampagnen stecken.

Neben den wichtigen Suchbegriffen bietet euch Analytics für die Site Search weitere Auswertungsansätze. So könnt ihr sehen, wie oft die interne Suche wiederholt wurde, wie viele Nutzer ihre Sitzung nach einer Suche abgebrochen haben und auf welchen Seiten Nutzer die interne Suche durchgeführt haben. Mit Hilfe dieser Informationen erfahrt ihr mehr über Inhalte und Struktur eurer Website und könnt z.B. auch die Struktur eurer Seite und auch der internen Suche hinterfragen.

  • Warum hat ein Nutzer z.B. mehrmals hintereinander die interne Suche verwendet?
  • Hat er immer ähnliche Suchbegriffe eingegeben, weil die interne Suche vielleicht keine passenden Inhalte gezeigt hat?
  • Ist er schließlich auf dem gewünschten Inhalt gelandet?
  • Oder hat ein Nutzer sogar die Sitzung abgebrochen, weil er den gewünschten Inhalt nicht gefunden hat, oder die interne Suche keine Ergebnisse geliefert hat?

Wird die interne Suche bei einer sehr hohen Prozentzahl aller Sitzungen verwendet, deutet dies zum Beispiel daraufhin, dass eure Navigation insgesamt nicht gut aufgebaut oder nicht verständlich ist.

Nutzt die Informationen um die Nutzererfahrung und Performance eurer Seite zu verbessern und Inhalte zu optimieren oder besser auffindbar zu machen.

Einrichtung des Site Search Tracking mit Suchparameter in Google Analytics

Die Einrichtung des Trackings ist schnell gemacht, wenn eure Suchergebnisseiten einen Suchparameter enthalten. Der Suchparameter hängt sich an die URL an, wenn ihr eine interne Suche ausführt. Um herauszufinden, ob eure interne Suche über einen Such-Parameter ausgesteuert wird, führt ihr einfach eine interne Suche auf eurer Website aus und schaut euch die URL an:

Um den Suchparameter zu identifizieren, müsst ihr die interne Suche ausführen.

Um den Suchparameter zu identifizieren, müsst ihr die interne Suche ausführen.

Löst ihr auf unserer Website eine interne Suche z.B. nach „Google Analytics interne Suche“ aus, so erhaltet ihr folgende URL:

Der Suchparameter hängt sich hinten an die URL an.

Der Suchparameter hängt sich hinten an die URL an.

In dieser URL ist ein solcher Suchparameter enthalten. Es ist das „s“, welches den Suchbegriff einleitet und für Google der Hinweis für die Suchbegriffe darstellt. Solche Parameter können aber auch /?q= oder /?search= o.ä. heißen, das kommt immer auf euer CMS und die Umsetzung der internen Suche an, deshalb solltet ihr einmal die interne Suche ausführen und die URL auf einen Parameter hin untersuchen.

Um das Tracking in Analytics einzurichten, geht ihr dann wie folgt vor: Bei den Einstellungen der Datenansicht aktiviert ihr das Site Search Tracking für Google Analytics. Dazu wählt ihr im Verwalten-Bereich eures Google Analytics Kontos unter dem Abschnitt Datenansicht den Punkt „Einstellungen der Datenansicht“ aus.

Das Tracking der Site Search in Google Analytics kann bei den Datenansichtseinstellungen aktiviert werden.

Das Tracking der Site Search in Google Analytics kann bei den Datenansichtseinstellungen aktiviert werden.

Hier könnt ihr dann im Abschnitt Site Search-Einstellungen das Tracking der internen Suche einrichten. Das Einzige, was ihr jetzt wissen müsst, ist, welcher Parameter bei der Suche an eure URL gehangen wird. Dann könnt ihr das Site Search Tracking in Analytics anlegen:

Site Search-Einstellungen in Google Analytics

Site Search-Einstellungen in Google Analytics

  1. Schaltet das Site Search-Tracking ein
  2. Gebt den Suchparameter ein, der die interne Suche auszeichnet – dabei vernachlässigt ihr das vorangestellt Fragezeichen und das folgende Gleichheitszeichen des Parameters (in unserem Beispiel also nur das „s“).
  3. Entscheidet, ob der Suchparameter aus der URL entfernt werden soll oder nicht
  4. Optional könnt ihr noch Site Search-Kategorien tracken

Solltet ihr mehrere Parameter haben, die für eine interne Suche genutzt werden, so könnt ihr bei der Einrichtung auch mehrere Parameter angeben. Achtet hierbei darauf, dass ihr die Parameter durch Kommata bei der Eingabe voneinander trennt.

Unter 3. „Suchparameter aus der URL ausschließen“, gebt ihr an, wie Analytics mit den Parametern umgehen soll. Werden die Suchparameter aus der URL entfernt, fasst Analytics alle Aufrufe dieser Seite zusammen – auch die, die nicht Teil der internen Suche waren. Hier kommt es darauf an, worauf ihr in der Auswertung einen Fokus legen möchtet. Im Zweifel solltet ihr die Suchparameter erstmal ausschließen, da sonst bei jeder Suche im Seitenbericht eine neue ziele entsteht. Bei vielen Suchen gibt es dann also sehr viele unterschiedliche Seiten.

Habt ihr auf eurer Website unterschiedliche Kategorien der Suche, um die Suche z.B. genauer zu differenzieren, könnt ihr diese auch mit dem Site Search-Tracking erfassen. Dazu müsst ihr lediglich die Schaltfläche unter 4. Site Search-Kategorien aktivieren. Nun könnt ihr die Parameter für die einzelnen Site Search-Kategorien in Analytics eintragen und auch hier entscheiden, ob die Such-Parameter aus der URL entfernt oder beibehalten werden sollen.

Einrichtung des Site Search Tracking ohne Suchparameter in Google Analytics

Auf manchen Websites gibt es keine Suchparameter. Die interne Suche wird hier anders ausgelöst. Für Google Analytics ist es allerdings ohne den Parameter nicht möglich, die interne Suche auszuwerten bzw. die eingegebenen Suchbegriffe der Nutzer zu erfassen. Hier müsst ihr ein bisschen tricksen, um die Suchbegriffe auswerten zu können. Es gibt zwei Möglichkeiten:

  1. Anpassung der internen Suche

Manchmal kann eure IT oder eure umsetzende Agentur die interne Suche anpassen, sodass der Suchparameter doch in der URL wiedergegeben wird.

  1. Einrichten eines virtuellen Seitenaufrufs

Dieser Seitenaufruf kann z.B. über den Google Tag Manager eingerichtet werden. Über den virtuellen Seitenaufruf wird dann der Suchparameter erfasst und mitgeschrieben, sodass er für Google Analytics messbar wird. Dabei überschreibt der virtuelle den eigentlichen Seitenaufruf und wird an Analytics übermittelt.

Nachdem ihr die Anpassungen vorgenommen habt, könnt ihr das Tracking der Site Search in Analytics einrichten.

Auswertungsmöglichkeiten der internen Suche in Google Analytics

Nachdem ihr die Einrichtung der internen Suche vorgenommen habt, könnt ihr über die Berichte in Google Analytics die Auswertung vornehmen. Die Berichte findet ihr unter Verhalten > Site Search. Hier stehen euch diverse Auswertungsmöglichkeiten zur Verfügung.

Übersicht

Die Übersicht gibt einen Überblick über die wichtigsten KPIs der internen Suche.

Die Übersicht gibt einen Überblick über die wichtigsten KPIs der internen Suche.

In diesem Auswertungsbereich erhaltet ihr einen Überblick über die wichtigsten Kennzahlen der Site Search:

  • Sitzungen mit Suchanfrage: Anzahl der Sitzungen bei denen mind. einmal die Suchfunktion genutzt wurde
  • Einmalige Suchanfrage gesamt: Anzahl der eingegebenen Suchanfragen
  • Aufrufe von Suchergebnisseiten/Suche: Differenz der Seitenaufrufe der Suchergebnisseiten und der Summe einmaliger Suchen
  • % Suchausstiege: Anteil der Sitzungen, die nach der Suche die Seite verlassen
  • % Verfeinerung der Suche: Anteil der Suche, bei denen nach einer Suche noch weitere Suchen durchgeführt worden sind
  • Zeit nach Suche: Zeit, die Nutzer nach einer Suche noch durchschnittlich auf eurer Website verbringen
  • Suchtiefe: Anzahl der Seiten, die im Schnitt nach einer Suche angezeigt werden

Neben diesen Kennzahlen findet ihr auf der Übersichtsseite auch noch ein Tortendiagramm, welches euch zeigt, wie viele Sitzungen mit und ohne Verwendung der Suchfunktion stattgefunden haben.

Nutzung

Der Bericht Nutzung im Menü Site Search gibt euch einen tieferen Einblick in die Nutzung der internen Suche, indem ihr hier Sitzungen ohne Site Search mit Sitzungen mit Site Search vergleichen könnt. Den beiden Dimensionen werden unterschiedliche Metriken zugeordnet.

Der Bericht vergleicht Sitzungen mit und ohne Site Search.

Der Bericht vergleicht Sitzungen mit und ohne Site Search.

Neben Sitzungen, Absprungrate, Seiten pro Sitzung und der durchschnittlichen Sitzungsdauer, seht ihr in diesem Bericht auch die Conversions. Hier könnt ihr zwischen Zielvorhaben und E-Commerce wechseln.

Im Beispiel oben könnt ihr sehen, dass Nutzer, welche die interne Suche verwenden, länger auf der Seite bleiben und im Schnitt auch mehr Seiten aufrufen. Sogar die E-Commerce-Conversion-Rate ist bei den Sitzungen mit interner Suche höher. Das lässt vermuten, dass sich die Nutzer mit Verwendung der internen Suche mehr mit den Inhalten beschäftigen, hier also ein größeres Interesse besteht und sie dann im Vergleich sogar häufiger konvertieren. Eine Schlussfolgerung daraus könnte sein, dass man die interne Suche prominenter auf der Seite einbindet und die Nutzer auf die Möglichkeit der Suche so besser aufmerksam macht.

Suchbegriffe

In diesem Bericht findet ihr Informationen zu den Suchbegriffen und auch zu den Site Search-Kategorien, insofern ihr sie aktiviert habt. Die Suchbegriffe sind aus inhaltlicher Sicht der interessanteste Teil der Auswertung, schließlich wird euch hier gezeigt, was Nutzer tatsächlich auf eurer Seite suchen. Wie bereits angesprochen, könnt ihr hieraus Optimierungspotentiale ableiten:

  • Sind Themen gut auffindbar, für welche sich Nutzer interessieren?
  • Gibt es Themen, die ein Nutzer zwar sucht, aber die aktuell nicht auf der Seite abgebildet werden?
  • Kann ich anhand der Suchbegriffe neue Keywords (für SEO und SEA) und Themen ableiten?

Gerade bei sehr großen Websites oder Shops ist die interne Suche für Nutzer häufig ein Ersatz bzw. eine Ergänzung der Navigation. Denkt einmal an eine Website wie Amazon – hier würdet ihr eher euer gesuchtes Produkt in die Suchleiste eingeben, als euch durch die Navigation und zahlreiche Filterseite zu klicken. Deshalb sind die Suchbegriffe so wertvoll und spiegeln Nutzerinteresse wieder.

Mit diesem Bericht könnt ihr die Suchbegriffe der internen Suche auswerten.

Mit diesem Bericht könnt ihr die Suchbegriffe der internen Suche auswerten.

Die Auswertung ermöglicht euch zudem, neben der Analyse der Suchbegriffe selbst, auch Aussagen über die Funktion der Suche abzuleiten. Gerade wenn Nutzer lange verweilen und eine große Suchtiefe erzielen, kann es sein, dass sie in der Suche nicht zum gewünschten Ergebnis kommen – vielleicht lohnt sich ein Blick auf die Suchergebnisseiten und deren Struktur, um ableiten zu können, ob hier Optimierungspotential liegt.

Ebenso kann der Wert Suchausstiege Hinweise geben, ob Nutzer mit der internen Suche zufrieden sind und passende Ergebnisse finden, oder ob nach der Eingabe bestimmter Suchbegriffe sehr häufig Suchausstiege stattgefunden haben.

Um noch mehr Auswertungsmöglichkeiten zu erhalten, könnt ihr in dem Bericht über die Segmente analysieren, ob z.B. Nutzer, die über die organische Suche gekommen sind, nochmal die Site Search verwendet haben und was genau hier dann gesucht wurde.

Suchseiten

In diesem Bericht erhaltet ihr umfangreiche Informationen zu den Seiten, auf denen eine Suche gestartet wurde, auf welche Suchergebnisseite ein Nutzer gekommen ist und auch auf welcher Seite er dann seine Sitzung von der Suche aus fortgesetzt hat.

Hier erfahrt ihr, auf welchen Seiten die interne Suche ausgelöst wurde.

Hier erfahrt ihr, auf welchen Seiten die interne Suche ausgelöst wurde.

Den entsprechenden Seiten werden dann Metriken wie Suchanfragen gesamt, Aufrufe Suchergebnisseiten pro Suche, Suchausstiege, sowie Zeit nach Suche und Durchschnittliche Suchtiefe zugeordnet.

Der Bericht verrät euch, auf welchen Seiten Nutzer eine interne Suche angestoßen haben. Legt ihr euch die Suchbegriffe daneben, könnt ihr so vielleicht herausfinden, ob ihr die Seite ggf. weiter optimieren müsst und warum Nutzer hier eine Suche starten. Anhand des Abgleiches von Suchergebnisseiten und Zielseiten der Suche könnt ihr abschätzen, ob die Nutzer auch tatsächlich das gefunden haben, was sie gesucht haben und ob es Seiten gibt, die sehr oft intern gesucht werden. Diese Seiten könnten dann besser auffindbar gemacht oder weiter optimiert werden.

Fazit

Die Auswertung der Suchbegriffe der internen Suche bietet also viele Möglichkeiten Potentiale aufzudecken. Ihr könnt einiges über eure Nutzer und ihr Verhalten auf der Website erfahren. Zudem ist die Implementierung des Trackings für die Site Search gut und schnell umzusetzen. Findet zusätzliche Themen, optimiert die Struktur eurer Seite und nutzt den Input der Nutzer.

HTTPS Umstellung

HTTPS Umstellung: Tipps und Hintergründe

Habt ihr eure Website noch nicht auf HTTPS umgestellt? Dann wird es jetzt höchste Zeit dafür. HTTPS ist nicht nur ein von Google bestätigter Rankingfaktor, auch einige Internet-Browser weisen inzwischen Webseiten, die noch nicht über HTTPS erreichbar sind, als unsicher aus. Was ihr bei der Umstellung beachten müsst und wie ihr am besten dabei vorgeht, erfahrt ihr hier.

Warum solltet ihr eure Website auf HTTPS umstellen?

Wer den Google Chrome Browser nutzt, wird es vielleicht schon bemerkt haben. Websites, die vollständig unter HTTPS aufrufbar sind, werden in der Browserzeile als sicher ausgezeichnet.

Website wird als sicher ausgewiesen

Website wird als sicher ausgewiesen

Websites, die noch nicht unter HTTPS erreichbar sind, oder bei denen HTTPS nicht richtig implementiert ist, fehlt diese Einstufung. Hier erscheint stattdessen ein kleines i. Klickt man dieses an, teilt einem der Browser mit, dass die Website nicht sicher ist.

Warnung bei Websites ohne SSL Verschlüsselung

Warnung bei Websites ohne SSL Verschlüsselung

Im Februar 2018 gab Google bekannt, dass ab Juli mit dem Release des Chrome 68 Websites, die noch nicht via SSL verschlüsselt sind, als unsicher ausgewiesen werden – und zwar direkt in der Browserzeile.

Befindet sich auf der Seite ein Login-Bereich, wird im Chrome Browser jetzt schon darauf hingewiesen, dass die Seite nicht sicher ist.

Hier erscheint die Warnung direkt in der Status-Zeile

Hier erscheint die Warnung direkt in der Status-Zeile

Ähnliche Warnungen gibt es auch schon im Firefox:

Nicht sichere Website im Firefox

Nicht sichere Website im Firefox

Nicht sichere Website im Firefox

Nicht sichere Website im Firefox

Auch die Google Search Console weist seit letztem Jahr darauf hin, wenn eine Website, auf der sich Login-Bereiche befinden oder auf der sensible Daten wie Kreditkarteninformationen abgefragt werden, nicht per SSL verschlüsselt ist. Dasselbe gilt für Websites, die Formulare enthalten (zum Beispiel eine Newsletteranmeldung oder ähnliches).

Google Search Console Fehlermeldung: Nicht sichere Passworterfassungen lösen in Chrome 56 Warnungen aus

Google Search Console Fehlermeldung: Nicht sichere Passworterfassungen lösen in Chrome 56 Warnungen aus

Aus Nutzersicht macht es also ganz klar Sinn Websites auf HTTPS umzustellen. Niemand möchte, dass sensible Daten von Dritten abgefangen werden können. Sieht ein Nutzer, dass eine Website vom Browser als unsicher eingestuft wird, überlegt er es sich zweimal, ob er einen Kauf abschließt oder seine Daten für einen Newsletter oder andere Dienste hinterlegt. Eine Einstufung als sicher kann ihn hingegen in seiner Kaufabsicht bestärken.

Darüber hinaus ist auch in Bezug auf die Sichtbarkeit in Suchmaschinen ist die Nutzung von HTTPS anzuraten. Google arbeitet daran, das Internet sicherer zu machen. Schon seit August 2014 ist HTTPS als Rankingfaktor etabliert. Seit Ende 2015 versucht die Suchmaschine automatisch Websites unter HTTPS aufzurufen. Ist eine Website unter HTTP und HTTPS aufrufbar, wird in der Regel die HTTPS-Version indexiert.

Eine Studie des SEO-Tool-Anbieters Searchmetrics von 2015 bestätigt einen Zusammenhang zwischen der Nutzung von HTTPS und der Sichtbarkeit in Suchmaschinen einer Website. Laut der Studie haben Websites mit HTTPS tendenziell bessere Rankings. (Weitere Informationen zur Analyse gibt es unter Searchmetrics.de.) Warum also nicht auch diesen Vorteil nutzen?

Hintergründe: Mit SSL/TLS wird HTTP zu HTTPS

HTTP (Hypertext Transfer Protokoll) wird zur Übertragung von Daten im Internet verwendet. Wenn eine Webseite im Browser aufgerufen wird, sendet der Browser eine Anfrage (HTTP-Request) an einen Server. Diese Anfrage wird vom Server verarbeitet und die entsprechenden Dateien zur Darstellung der Webseite zurück an den Browser übermittelt (HTTP-Response).

SSL steht für Secure Sockets Layer und beschreibt eine verschlüsselte Datenübertragung zwischen Client und Server.

Wenn Browser und Webserver sich mit Hilfe von SSL erfolgreich identifiziert und authentifiziert haben und eine sichere Verbindung besteht, können die zu übertragenden Daten verschlüsselt per HTTPS verschickt werden.

Normaler HTTP-Traffic ist dagegen unverschlüsselt. Eine Verbindung via HTTPS garantiert Nutzern der Webseite, dass Daten nicht von Dritten gelesen bzw. abgefangen werden können.

SSL-Zertifikate: Welches braucht ihr?

Voraussetzung für eine Umstellung auf HTTPS ist die Nutzung eines SSL-Zertifikats. Diese erhaltet ihr bei einer Zertifizierungsstelle. Hier wird überprüft, ob eure Website-Adresse tatsächlich zu eurem Unternehmen gehört. Zertifikate gibt es in unterschiedlichen Ausführungen und unterschiedlichen Preisklassen. Achtet in jedem Fall darauf, dass ein 2.048-Bit-Schlüssel zur Verschlüsselung der Daten verwendet wird.

Damit Google eure Website als sicher einstuft, könnt ihr ein ganz einfaches Zertifikat verwenden. Diese gibt es sogar kostenlos bei Let’s encrypt. Sie eignen sich für einfache Blogs und Websites, auf denen man keine Nutzerdaten hinterlegen kann bzw. es keine Login-Bereiche gibt.

Für Websites mit Login-Bereich oder Formularen, in denen sensible Nutzerdaten übermittelt werden, sind aufwändigere SSL-Zertifikate sinnvoll, die dann aber auch mehr kosten. Diese sind noch sicherer und eindeutiger, da sie mehr Details abfragen und z.B. auch prüfen, ob ein Unternehmen wirklich existiert (z.B. über einen Check im Handelsregister). Dann wird auch die Status-Zeile im Browser entsprechend angepasst. Dies steigert das Vertrauen des Nutzers in die Website.

Bei diesem zertifikat werden weitere Informationen in der Status-Zeile angezeigt

Bei diesem Zertifikat werden weitere Informationen in der Status-Zeile angezeigt

Einfache Zertifikate gelten nur für eine Domain (z.B. www.beispielseite.de). Es gibt allerdings auch Wildcard SSL-Zertifikate (auch Platzhalter-Zertifikate), diese gelten nicht nur für die Domain (sowohl domain.com als auch www.domain.com), sondern auch für alle Subdomains (*.domain.com). Und sogar Multidomain SSL-Zertifikate, die für mehrere Domains genutzt werden können. Auch hier gibt es wieder Zertifikate, die mehr Details zum Unternehmen prüfen und dann entsprechend teurer sind.

Stellt ihr zum Beispiel Inhalte in verschiedenen Sprachen zur Verfügung, die auf eigenen Domains (www.beispiel.nl) oder Sub-Domains (nl.beispiel.com) liegen, braucht ihr ein entsprechendes Zertifikat.

Übrigens könnt ihr auch für verschiedene Bereiche eurer Website unterschiedliche Zertifikate verwenden. Habt ihr zum Beispiel einen Onlineshop mit dazugehörigem Blog auf einer Sub-Domain (blog.beispielshop.de), könnt ihr für den Blog ein anderes, günstigeres Zertifikat verwenden und braucht dann kein teureres Wild Card Zertifikat.

Checkliste zur Umstellung auf HTTPS

Bei der Umstellung auf HTTPS kann es passieren, dass die Rankings eurer Website kurzzeitig schwanken. Um diese Schwankung zu minimieren, solltet ihr die folgenden Punkte beachten und richtig durchführen.

Hier findest du die Checkliste als PDF zum Download:

Gib deine E-Mail Adresse ein und erhalte die HTTPS-Checkliste per E-Mail:

1. Vorbereitung

Bevor ihr mit der Umstellung beginnt, legt einen Crawl der aktuellen Website an. Anhand dieses Crawls könnt ihr später prüfen, ob eure Umstellung vollständig durchgeführt wurde. Dazu könnt ihr zum Beispiel den Screaming Frog verwenden.

2. 301 Weiterleitungen

Die alten HTTP-URLs müssen 1 zu 1 per 301 Redirect auf die neue HTTPS-Variante weitergeleitet werden und wenn das perfekt funktioniert und absolut jeder Seiteninhalt per HTTPS aufrufbar ist, kann zusätzlich HSTS eingesetzt werden um dem Browser mitzuteilen, dass die Website ausschließlich mit HTTPS genutzt werden soll. Beide Protokoll-Varianten zur Verfügung zu stellen und mit dem Meta-Robots-Tag „noindex“ oder dem Canonical-Element zu arbeiten, ist keine Option. Hier kann es zu Problemen aufgrund von Duplicate Content kommen. Für eine Umstellung ohne nennenswerte Rankingverluste darf die Webseite nur unter HTTPS erreichbar sein.

Bei dieser Website sind sowohl http- als auch https-Version erreichbar. Obwohl per Canonical-Tag auf http verwiesen wird, sind auch https-Seiten indexiert und konkurrieren mit den http-Seiten. Dies beeinträchtigt die gesamte Sichtbarkeit der Website.

Bei dieser Website sind sowohl http- als auch https-Version erreichbar. Obwohl per Canonical-Tag auf http verwiesen wird, sind auch https-Seiten indexiert und konkurrieren mit den http-Seiten. Dies beeinträchtigt die gesamte Sichtbarkeit der Website.

Wenn ihr die Weiterleitungen einrichtet, solltet ihr darauf achten, dass bei den URLs die Kampagnenparameter mit übergeben werden. Läuft während der Umstellung z.B. eine E-Mail-Kampagne mit „?utm“ Parametern, sollte dafür entsprechend eine Regel in der htaccess hinterlegt werden. Andernfalls gehen die Parameter verloren und die Kampagne kann nicht vollständig ausgewertet werden. Achtet außerdem darauf, dass keine Weiterleitungsketten entstehen.

3. Ressourcen nicht vergessen

Wenn ihr eure Webseite auf HTTPS umstellt, betrifft dies nicht nur die URLs der HTML-Seiten, sondern auch die der Bilder, PDF-, CSS-und JavaScript-Dateien, etc. Wenn ihr diese Ressourcen nicht mit umstellt, führt dies zu einem Mixed Content Problem. Dadurch kann die Indexierung eurer Webseite unter HTTPS verzögert oder sogar ganz verhindert werden. Außerdem wird eure Website vom Browser als nicht sicher eingestuft.

4. Canonical-Tags

Wenn auf eurer Webseite Canonical-Tags integriert sind, müsst ihr diese auch auf die neue Protokoll-Variante umstellen. Wird z.B. durch einen Canonical-Tag Duplicate Content ausgezeichnet, kann dies weiterhin nur sichergestellt werden, wenn das Canonical-Tag auf die richtige URL verweist. Eben die mit HTTPS.

5. Hreflang und andere rel-Alternate Auszeichnungen

Sind auf eurer Website hreflang-Attribute vorhanden, müssen die Verweise im Header ebenfalls angepasst werden und auf die HTTPS-URLs zeigen.

hreflang-Tags sollten bei der HTTPS-Umstellung angepasst werden

hreflang-Tags sollten bei der HTTPS-Umstellung angepasst werden

Dasselbe gilt für andere Alternate-Auszeichnungen wie rel=“next“ / rel=“prev“ , die Auszeichnung für mobile Websites oder AMP-Seiten.

Verweise zu AMP-Version im HTML-Code anpassen

Verweise zu AMP-Version im HTML-Code anpassen

Sind paginierte Seiten ausgezeichnet, muss hier ebenfalls eine Änderung vorgenommen werden

Sind paginierte Seiten ausgezeichnet, muss hier ebenfalls eine Änderung vorgenommen werden

6. Interne Verlinkung anpassen

Wie bei jeder Änderung der URLs einer Webseite ist es auch hier enorm wichtig, die internen Links in Fließtexten, der Navigation und allen anderen Elementen anzupassen. Sind die Verlinkungen relativ, also ohne „http://www.domain.de“, entfällt dieser Punkt. Hierbei müsst ihr sicherstellen, dass das auch stringent ist. Sind die Verlinkungen absolut hinterlegt, ist es vom System abhängig, ob jeder einzelne Link manuell geändert werden muss. Bei WordPress ist dies beispielsweise relativ einfach durch einen Datenbankbefehl möglich. Bei speziell programmierten CMS-Lösungen ist dies nicht immer der Fall.

7. robots.txt

Im Zuge der Umstellung ist auch die robots.txt unter einer neuen URL erreichbar. Hierbei muss sichergestellt werden, dass die robots.txt nicht mehr unter der HTTP-Version aufrufbar ist und HTTPS-URLS nicht für den Google Crawler gesperrt sind. Ansonsten wird eure Seite vom Crawling ausgeschlossen. Enthält die robots.txt einen Eintrag zur XML-Sitemap, solltet ihr auch diesen anpassen und auf die neue HTTPS-Sitemap verweisen.

Link zur Sitemap anpassen

Link zur Sitemap anpassen

8. Sitemaps

Ein Punkt, der gerne vergessen wird – die Sitemaps. Egal ob HTML-Sitemap oder XML-Sitemap: Auch hier müsst ihr die URLs anpassen, damit nur noch HTTPS-URLs darin vorhanden sind. Dies entlastet euer Crawl-Budget, da die http-URLs nicht mehr vom Crawler gelesen werden. Wenn ihr die XML-Sitemap in der Google Search Console hinterlegt, könnt ihr zudem die Indexierung der neuen HTTPS-URLs beobachten. Aber dazu später mehr.

Links in der Sitemap anpassen

Links in der Sitemap anpassen

9. Google Search Console und Google Analytics

Wenn die Webseite auf HTTPS umgestellt wird, muss für die HTTPS-Version eine neue Property in der Google Search Console angelegt werden.  In die HTTP-Property laufen nur noch Zugriffe auf die http-Version ein, nicht aber Zugriffe auf die HTTPS-Version.

Ist die Umstellung auf https erfolgt, laufen im idealfall keine Daten mehr in die alte http Search Console Property mehr ein

Ist die Umstellung auf https erfolgt, laufen im Idealfall keine Daten mehr in die alte http Search Console Property mehr ein.

Es muss eine neue Property für https angelegt werden, um die Zugriffe weiterhin überwachen zu können

Stattdessen laufen sie in der neuen https-Property ein.

Die alte HTTP Property sollte allerdings nicht gelöscht werden. Mit beiden Properties kann nun die Indizierung und die Zunahme bzw. Abnahme der Impressionen und Klicks beobachtet werden.

Für https muss eine eigene Property in der Search Console angelegt werden.

Für https muss eine eigene Property in der Search Console angelegt werden.

Habt ihr ein Disavow-File in der Search Console eingereicht, muss dieses auch in der neuen Property hinterlegt werden. Dasselbe gilt für Vorgaben zum GEO-Targeting und zum Umgang mit URL-Parametern.

Damit die Daten der neuen Property auch in Google Analytics einlaufen, müsst ihr die Search Console mit Analytics neu verknüpfen. Dann könnt ihr weiterhin Daten aus der Search Concole mit denen aus Analytics in Verhältnis setzen.

Durch die Verknüpfung der neuen https-Property in Google Analytics, können Metriken aus der Search Console mit Metriken aus Analytics in Verhältnis gesetzt werden.

Durch die Verknüpfung der neuen https-Property in Google Analytics, können Metriken aus der Search Console mit Metriken aus Analytics in Verhältnis gesetzt werden.

Bei lokalen Webseiten ist außerdem zu beachten, dass wenn es Einträge in Google My Business gibt, hier auch die URL zur Website geändert wird. Die Zugriffe, die über den Google My Business Eintrag erfolgen, laufen ebenfalls in der Search Console ein. Ist hier noch eine URL mit http verlinkt, finden sich die Daten nur in der http-Property.

Tipp: Wer viel mit Google Analytics arbeitet, kann in den Einstellungen für Property und Datenansicht die „URL der Webseite“ von HTTP auf HTTPS umstellen.

10. Backlinks

Auch Backlinks von wichtigen Webseiten, von denen zum Beispiel viel Traffic auf eure Webseite gelangt, könnt ihr direkt auf HTTPS ändern lassen. Google empfiehlt, die Webmaster der jeweiligen Seite zu kontaktieren und sie zu bitten, die Links anzupassen.

Überprüfung der HTTPS-Umstellung

Wenn ihr eure Website auf HTTPS umgestellt habt, solltet ihr sie erneut mit dem Screaming Frog abcrawlen. Dieser zeigt euch, ob intern noch http-Seiten verlinkt sind. Diese könnt ihr dann manuell anpassen. Auch Ressourcen wie Bilder, JavaScript, CSS etc., die noch über http eingebunden sind, fallen hierbei auf.

Crawlt auch nochmal alle alten HTTP-Seiten ab, um festzustellen, ob alle richtig weitergeleitet werden. Nutzt dazu den Crawl, den ihr am Anfang angelegt habt und fügt alle URLs als Liste ein. Alle Seiten sollten jetzt einen 301-Status-Code aufweisen.

Woran erkennt ihr, dass eure Webseite fehlerfrei auf HTTPS läuft?

Auch im Google Chrome Browser könnt ihr überprüfen, ob eure Webseite fehlerfrei umgestellt wurde. Ist alles richtig eingerichtet, erscheint hier ein grünes Schloss und der Browser stuft eure Seite als sicher ein.

Website wird als sicher ausgewiesen

Website wird als sicher ausgewiesen

Erscheint hier ein rotes Ausrufezeichen, stimmt etwas mit eurem Zertifikat nicht. Es ist entweder falsch eingebunden, abgelaufen oder sonst irgendwie fehlerhaft. Eine weitere Ursache kann sein, dass ihr Inhalte von Drittanbietern über einen I-Frame eingebunden habt und diese keine SSL-Verschlüsselung nutzen.

Seite ist nicht sicher

Seite ist nicht sicher

Wird in der Browserleiste ein „i“ eingeblendet, deutet dies auf ein Mixed-Content-Problem hin. Dies bedeutet, dass Teile eurer Webseite oder in eure Website eingebundene Ressourcen noch unter http erreichbar sind. Dabei muss es sich gar nicht um Ressourcen handeln, die auf eurer Domain liegen. Auch Ressourcen von anderen Anbietern, die ihr im HTML-Code hinterlegt habt, können die Warnmeldung auslösen. Verwendet ihr zum Beispiel Werbematerial eines Anbieters, der noch kein HTTPS nutzt, wird eure Seite ebenfalls als nicht sicher eingestuft.

Dies weist auf ein Mixed-Content-Problem hin

Dies weist auf ein Mixed-Content-Problem hin

Es gibt diverse Tools, die bei der Überprüfung der SSL-Umstellung helfen. Bisher haben wir mit dem Site Audit von SEMrush ganz gute Erfahrungen gemacht. Hier wird detailliert aufgelistet, wo es zum Beispiel Probleme mit Mixed Content oder internen Links gibt. Nachteil: das Tool ist nicht kostenlos.

Überprüfung der HTTPS-Implementierung mit SEMrush

Überprüfung der HTTPS-Implementierung mit SEMrush

Überprüfung der Rankings, der Indexierung und des Traffics

Habt ihr sichergestellt, dass die Umstellung fehlerfrei umgesetzt ist, solltet ihr trotzdem die Rankings, die Indexierung und den Traffic eurer Website im Auge behalten.

Schaut in der ersten Woche täglich in die Google Search Console. Die Klicks und Impressionen in der http-Property der GSC sollten abnehmen, die in der HTTPS-Porperty im gleichen Maße zunehmen. Auch die Indexierung der HTTPS-Seiten könnt ihr hier nachvollziehen. Um die Indexierung der HTTPS-Seiten zu beschleunigen, könnt ihr hier auch einen manuellen Crawl anstoßen. Habt ihr eine XML-Sitemap hinterlegt, lässt sich die Indexierung noch besser überwachen.

Werft außerdem auch regelmäßig einen Blick in euer Webanalyse-Tool und überprüft, ob der organische Traffic stabil bleibt.

Auch die Sichtbarkeit und die Rankings solltet ihr im Auge behalten. Dazu eignet sich zum Beispiel Sistrix. Hier könnt ihr die Sichtbarkeit der http-Seite und der HTTPS-Seiten gegeneinander laufen lassen.

Bei erfolgreicher HTTPS-Umstellung nimmt die Sichtbarkeit der HTTP-Seite ab und die der HTTPS zu

Bei erfolgreicher HTTPS-Umstellung nimmt die Sichtbarkeit der HTTP-Seite ab und die der HTTPS zu

Dafür könnt ihr euch auch einen entsprechenden Report anlegen. Und ihr könnt euch alle rankenden URLs ohne HTTPS anzeigen lassen. Bei großen Websites kann es schon mal ein halbes Jahr oder länger dauern, bis alle http-Seiten aus dem Index verschwunden sind und die HTTPS-Seiten dafür indexiert sind. Sinken die Rankings in den Suchergebnissen stark nach der Umstellung, deutet dies auf ein Problem hin. Kleinere Schwankungen sind hingegen normal.

http vs. http/2 (oder h2)

Wenn ihr schon dabei seid, eure Website auf HTTPS umzustellen, macht es auch Sinn direkt darüber nachzudenken auf http/2 umzusteigen. http/2 – oder kurz: h2 – ist ein anderes Übertragungsprotokoll für Websites. Während bei http für jede Datei einer Webseite nacheinander Anfragen an den Server (Server Requests) geschickt werden und für jede einzelne Anfrage die Verbindung erneut aufgebaut werden muss, geschieht dies bei http/2 alles parallel und die Verbindung zum Server wird dabei die ganze Zeit aufrechterhalten. Zudem können Ressourcen nun auch per „push“-Befehl selbst verschickt werden, was vorher nicht möglich war. Das macht die Website sehr viel schneller. Voraussetzung für http/2 ist die Nutzung von HTTPS, da die meisten Browser-Hersteller sonst auf das ältere http Netzwerkprotokoll umstellen und alle Vorteile dahin sind.

Außerdem habt ihr die Möglichkeit HSTS (http Strict Transport Security) zu nutzen. Hierbei wird der Browser angewiesen die Website grundsätzlich über HTTPS aufzurufen. Dadurch muss der Browser keiner Weiterleitung folgen und die Webseite wird einige hundert Millisekunden schneller geladen. Zudem ist HTST sehr schnell mit der htaccess eingerichtet.

Fazit

HTTPS ist nicht nur ein Google Rankingfaktor, es schafft auch Vertrauen beim Nutzer eurer Webseite. Selbst der Webbrowser zeigt inzwischen an, ob eine Seite sicher, also per SSL verschlüsselt ist. Die Umstellung ist relativ einfach durchzuführen und solange man alle Punkte unserer Checkliste beachtet, sollte es dabei nicht zu Einbußen in den Rankings und der Sichtbarkeit kommen. Wenn ihr dennoch unsicher seid, beauftragt eine SEO Agentur, die euch bei der Umstellung unterstützt.

Hier findest du die Checkliste als PDF zum Download:

Gib deine E-Mail Adresse ein und erhalte die HTTPS-Checkliste per E-Mail:

SEAcamp 2018: Das beliebteste Event zum Thema Google AdWords & PPC-Werbung

„Wissen teilen. Neues lernen. Weiterkommen.“ – Unter diesem Motto fand am 26.04.2018 bereits das sechste SEAcamp in Jena statt. Die Veranstalter Thomas Grübel, Andreas Hörcher, David Schlee und Olaf Kopp haben auch in diesem Jahr wieder eine Veranstaltung geschaffen, bei der SEA- und PPC-Spezialisten die Möglichkeit hatten, sich in lockerer Atmosphäre über die neusten Entwicklungen der Branche auszutauschen. Nadia und Lara waren dieses Jahr dabei und haben für euch die spannendsten Vorträge zusammengefasst.

Die Veranstalter Thomas Grübel, Olaf Kopp, David Schlee und Andreas Hörcher begrüßen die Teilnehmer des SEAcamp 2018

Die Veranstalter Thomas Grübel, Olaf Kopp, David Schlee und Andreas Hörcher begrüßen die Teilnehmer des SEAcamp 2018

Erstmalig in diesem Jahr konnten vorab witzige Suchanfragen eingeschickt werden. Unter großem Gelächter fand dann die Auswertung statt, bei der wir sogar unter die Top 3 gekommen sind. Hiernach ging es in die Vorträge, von denen wir euch einige interessante Insights nicht vorenthalten möchten:

10 Scripte, die jeder kennen sollte – nur in etwas besser (Thomas Grübel)

Dass AdWords Scripts einem SEA-Manager den Arbeitsalltag um ein Vielfaches erleichtern, ist nichts Neues. Wer sich kein eigenes Script erstellen möchte, kann entweder auf die frei verfügbaren Google Vorlagen zurückgreifen oder in diversen Advertiser Blogs nach einem geeigneten suchen. Um im Scripte Dschungel dennoch den Überblick zu behalten, hat Thomas in seiner Session 10 interessante AdWords Scripts unter die Lupe genommen. Neben den Einsatzmöglichkeiten hat er auch aufgezeigt, wie man die Scripts mit wenigen Handgriffen an die eigenen Vorstellungen anpasst.

Thomas Grübel gibt Tipps zu AdWods Scripts

Thomas Grübel gibt Tipps zu AdWods Scripts

Auch wenn Thomas den Einsatz von AdWords Scripts nur befürworten kann, gibt er den SEA- und PPC-Spezialisten am Ende seines Vortrags einen wichtigen Tipp mit auf den Weg: „Arbeit abnehmen lassen – Nie das Denken!“. Eine vorgefertigte Auswahl an AdWords Scripts findet ihr auf seiner Website: http://www.inbiz.de/adwords-scripts/.

PaidSearch vor Gericht (Peter Hense)

Im normalen Arbeitsalltag ist Peter Hense als Rechtsanwalt tätig und berät Unternehmen in den Bereichen IT-Recht, Datenschutz und Wettbewerbsrecht. Daher ist es nicht verwunderlich, dass es bei seinem Vortrag um die EU-Datenschutzverordnung (DSGVO) ging. Da dieses Thema zurzeit sowohl unternehmens- als auch kundenseitig immer öfter Fragen aufwirft, war seine Session sehr gut besucht.

Am 25. Mai tritt die neue Datenschutz-Grundverordnung (DSGVO) in Kraft, die Unternehmer zwingen soll, persönliche Daten von Kunden und Mitarbeitern besser zu schützen. Seither hängt dieses Gesetzesungetüm wie ein Nebelschleier über vielen Unternehmen. Die ernüchternde Resonanz: Laut Peter Hense liegt die bisherige Umsetzung der Maßnahmen in Deutschland im einstelligen Prozentbereich. Während seines Vortrags ging er auf die folgenden Punkte näher ein:

  • Was sind personenbezogene Daten?
  • Rechenschaftspflicht und Nutzeranfragen
  • Dauer und Zweck der Datenspeicherung
  • Cookies, Datenanalyse und Einverständniserklärungen
  • Die DSGVO in der Praxis
Peter Hense zur DSGVO

Peter Hense zur DSGVO

Auch wenn er am Ende dazu aufruft Ruhe zu bewahren, werden wir wohl doch mit einigen Änderungen rechnen müssen.

Kenne deine Konkurrenz: Competitive Data Analysis (Lara Marie Massmann)

In der Session von Lara Marie Massmann konnten wir spannende Eindrücke zur Durchführung einer Wettbewerbsanalyse mitnehmen. Insbesondere, dass man mit kostenlosen (Test-)Accounts bei verschiedenen Tools einige interessante Informationen bekommt. Während ihres Vortrags ging sie auf die folgenden Fragestellungen ein: Wann und warum ist eine Wettbewerbsanalyse wichtig? Welche Daten sollte man sich anschauen? Welche Tools kann man für eine SEA Wettbewerbsanalyse nutzen? Als Leitfaden zur Durchführung der Wettbewerbsanalyse orientierte sich Lara an den W-Fragen.

Lara Maria Massmann erklärt, wie eine Wettbewerbsanalyse funktioniert

Lara Maria Massmann erklärt, wie eine Wettbewerbsanalyse funktioniert

Tipps & Tricks für B2B-Werbung im SEA (Cora Rothenbächer)

Online-Werbung im B2B-Bereich ist nicht immer einfach. Oft sind die Budgets eher gering, die Zielgruppe sehr speziell und dann stellt sich auch noch die Frage, wie man diese bestmöglich erreichen und dabei private Nutzer idealerweise ausschließen kann? In ihrem Vortrag stellte Cora Rothenbächer einige interessante Besonderheiten und Kniffe bei der Durchführung und Optimierung von B2B-Kampagnen vor.

Cora Rothenbächer gibt Tipps für B2B-Kampagnen

Cora Rothenbächer gibt Tipps für B2B-Kampagnen

Wir haben für euch die wichtigsten Tipps zusammengefasst:

  1. Fachspezifische Longtail-Keywords

Um einen hohen Streuverlust zu vermeiden, sollte bei der Auswahl der Keywords auf den Fachjargon der jeweiligen Zielgruppe geachtet werden. Auch wenn fachbezogene Keywords oftmals nicht das größte Suchvolumen aufweisen, erreichen sie im Idealfall die gewünschte Zielgruppe.

  1. Speziell formulierte Anzeigentexte und Erweiterungen

Eine besondere Zielgruppe erfordert ebenfalls eine besondere Ansprache. Aus der Anzeige sollte klar hervorgehen, an wen sich diese richtet. Bietet das Unternehmen einen kostenlosen Versand oder eine Vor-Ort-Beratung an, dann nehmt es mit in den Anzeigentext oder in eine der Erweiterungen auf.

  1. Conversion-Tracking-Zeitraum ausweiten

Oftmals findet im B2B-Bereich der eigentliche Verkauf des Produkts oder der Dienstleistung erst im Nachgang statt. Wie kann man dennoch die Leistung der Kampagnen beurteilen? Coras Tipp: Conversion-Tracking-Zeitraum erweitern! Durch die Verlängerung des Conversion-Tracking-Zeitraums können Conversions auch noch erfasst werden, wenn der Klick auf die Anzeige bspw. 60 oder 90 Tage zurückliegt.

  1. Relevante Landingpage

Auch die Landingpage hinter der Anzeige, spielt eine große Rolle für die Performance der B2B-Kampagnen. In einigen Beispielen wurden verschiedene B2B Landingpages gegenübergestellt und mögliche Optimierungsansätze besprochen.

Abschließend gab Cora noch den Hinweis auch mal andere Werbenetze wie bspw. Bing auszutesten. Bei ihren Kampagnen konnte sie damit bereits gute Erfolge erzielen.

3 Advanced Google Shopping Hacks (Christian Scharmüller)

„Drill it down – Just do it“ lautet der Schlüssel zum Erfolg einer Google Shopping Kampagne02, zumindest laut Christian Scharmüller. Low und Top-Performing Produkte sollten möglichst in eigene Anzeigengruppen ausgelagert werden, um gesondert behandelt zu werden und so die gesamte Konto-Performance zu steigern. Anhand einiger Beispiele wurde gezeigt, wie diese Low-Performer identifiziert werden können.

Ein weiteres Key-Learning aus dem Vortrag: Produkt Titel sind sehr wichtig für die Performance von Shopping Kampagnen. Mithilfe von Suchanfragenberichten kann man häufig gegoogelte Begriffe identifizieren und diese in dem Titel einbinden.

Sixt – von der Suchanfrage bis zur fertigen Kampagnen mit Hilfe von Google BigQuery (Philipp Mainka)

Suchanfragenberichte – wer kennt sie nicht? Philipp Mainka von Sixt berichtet von der konzerninternen Software, welches relevante Suchanfragen identifiziert und automatisiert verarbeitet. So erhält man als Endprodukt ein Dokument, in der Anzeigen und Keywords passend für die Kampagnenstruktur aufgearbeitet sind. Das Tool wurde in der Google Cloud entwickelt. Eine super Möglichkeit um die Vielzahl der Stationen und Sprachen möglichst einfach abzudecken.

Fazit

Eine bis ins Detail gelungene Veranstaltung, bei der viel Branchenwissen geteilt und Raum für Diskussionen und Fragen gegeben wird. Thematisch ist für jeden etwas dabei, ob Anfänger oder Fortgeschrittener. Wir haben viel Input mitgenommen und werden so einige Tipps und Tricks in Zukunft auch im Alltag anwenden.

Die Organisatoren halten auch in Zukunft das SEA Camp im kleinen und familiären Rahmen, sodass die Tickets oft binnen 24h ausverkauft sind. Wir empfehlen also schnell zuzugreifen, denn es lohnt sich. Und das nicht nur wegen des leckeren Buffets 😉

Weitere Recaps:

Neue Jobprofile auf luna-park.de

Zur Erweiterung unseres Teams halten wir ständig Ausschau nach Online-Marketing Experten, die nach neuen Herausforderungen im Digitalen Marketing suchen. Hast du Spaß daran, neue Ideen zu entwickeln und umzusetzen? Arbeitest du gerne im Team? Bist du bereit auch über den Tellerrand und darüber hinaus zu blicken? Und verfügst du bereits über mindestens zwei Jahre Berufserfahrung im Online-Marketing? Dann wirf doch mal einen Blick auf unsere Stellenausschreibungen. Im Moment suchen wir gezielt Leute, die uns in den Bereichen Tracking und Analytics unterstützen können:

Technical Expert Web Analytics

Die Technical Experts bei lunapark arbeiten eng mit den Analytics Consultants zusammen und sind verantwortlich für den Ausbau der Datenbasis sowie die Vernetzung von Daten aus verschiedenen Quellen. Sie haben einen Overall-Blick auf die Unterstützung und Einrichtung von technischen Aspekten der Webanalyse und beraten zudem proaktiv bei E-Commerce Auswertungen.

Neben der Implementierung von Web Analytics und Tag Management Systemen, sind sie außerdem für die Konzeption von Analysen im Bereich Online-Kauf und Nutzungsverhalten verantwortlich und unterstützen bei der Auswertung von Marketing- und Kampagnentools.

Kannst du dich mit diesen Aufgaben identifizieren? Dann schau dir die vollständige Stellenausschreibung für Technical Expert Web Analytics an.

Trainee Technical Web Analytics

Die Trainees im Bereich Technical Web Analytics bei lunapark unterstützen unsere Experts und begleiten hauptsächlich die Bereiche Analytics, Technology & Development. Durch die technische Begleitung und Durchführung von Web Analyse Projekten bauen sie ein fundiertes Wissen rund um das Thema Webanalyse auf, praktisch sowie in der Theorie. Neben der Unterstützung von Web Analyse Projekten steht auch das Ausarbeiten und Aufzeigen von Optimierungspotenzialen auf Grund von Kennzahlensystemen sowie Web Reportings im Vordergrund. Trainees unterstützen unsere Consultants zudem bei der Kundenbetreuung und Beratung.

Haben wir dein Interesse geweckt? Dann wirf einen Blick auf die ausführliche Stellenbeschreibung für den Trainee Technical Web Analytics.

Werkstudent für den Bereich Web Analytics

Die Werkstudenten im Bereich Web Analytics bei lunapark unterstützen unsere Experts und werden in den Bereichen Analytics, Technology & Development eingesetzt. Sie helfen beim Aufbau der Datenbasis und der Einrichtung von technischen Aspekten der Webanalyse.

Auch die Implementierung von Web Analytics und Tag Management Systemen bilden einen großen Teil des Hauptaufgabenbereichs. Zudem unterstützen sie bei der Auswertung und Implementierung von Marketing- und Kampagnentools.

Hört sich das interessant an? Dann schau dir unsere ausführliche Stellenausschreibung für Werkstudenten für den Bereich Web Analytics an.

Google Analytics Consultant

Die Google Analytics Consultants bei lunapark entwickeln Tracking Konzepte für die deutschen und internationalen Websites oder Mobile Apps unserer Kunden. Sie analysieren die Performance von Websites und sprechen aufgrund dieser Analysen konkrete Handlungs- und Optimierungsempfehlungen aus. Neben Tag Management Konzepten erstellen sie darüber hinaus aussagekräftige Reports. Als Google Analytics Certified Partner bietet lunapark seinen Mitarbeitern die Möglichkeit, direkten Kontakt zum Google Analytics Team aufzunehmen und neue Features schon in der Beta-Phase zu testen.

Haben wir dein Interesse geweckt? Dann wirf einen Blick auf die ausführliche Stellenbeschreibung für Google Analytics Consultants.

Recap zum OMWest Barcamp in Köln

Zum ersten Mal fand dieses Jahr das OMWest Barcamp in Köln statt. 250 Online-Marketing-Begeisterte trafen sich in den Räumen der Axa zu einer Konferenz der anderen Art. Die Sessions standen im Vorhinein noch nicht fest, sodass im Rahmen der Begrüßung alle Teilnehmer die Möglichkeit hatten eine Session oder ein Thema vorzustellen. Durch die vielfältigen Bereiche der Teilnehmer ergaben sich so die unterschiedlichsten Sessions – von Google Analytics Insights, über Themen rund um den Google Tag Manager, bis hin zu Content- und SEO-Themen. Mareike, Judith, Saskia, Lisa und Bernadette waren mit dabei und berichten euch im Folgenden von den besten Beiträgen und interessantesten Learnings.

Location Sponsor AXA begrüßt die Teilnehmer des OM West Barcamps

Location Sponsor AXA begrüßt die Teilnehmer des OMWest Barcamps

YouTube – Videos SEO optimiert

In seiner Session führte Patrick Pape von morefire in die YouTube SEO-Optimierung ein. Neben Google ist YouTube eine der weltweit beliebtesten Suchmaschinen, die pro Minute mit ca. 400 Std. Videomaterial gefüttert wird. Ein großer Markt, den man auch aus SEO-Sicht nicht vernachlässigen sollte.

Dabei haben Videos entscheidende Vorteile, die für die eigene Website genutzt werden können. Videos zeigen eine 43-mal höhere Klickrate in der Google Suche und können zudem eine bis zu 80% höhere Conversionrate für die Landingpage erzielen, auf der sie eingebunden sind, so Patrick Pape. Auch die Verweildauer der Nutzer auf einer Landingpage mit Video ist höher. Zu Recht stellt sich also die Frage, wie man mit YouTube Videos organische Reichweite erzielen kann. Ein wichtiger Indikator für das Ranking ist hier die Watchtime, welche sich aus den folgenden Faktoren zusammensetzt:

  • Wiedergabezeit
  • Wiedergabedauer
  • Upload-Frequenz
  • Session-Start (wie viele Nutzer steigen über eines meiner Videos ein?)
  • Session-Dauer (wie lange bleiben Nutzer dann auf Plattform?)
  • Session-Ende (wie viele Nutzer steigen nach dem Schauen eines meiner Videos aus?)

Wie optimiert man nun aber Videos aus SEO-Sicht, sodass sie gut gefunden werden können?

Hierbei spielen 4 Bereiche eine große Rolle: Video-Titel, Video-Beschreibung, Video-Tags und das Thumbnail. Bei der Optimierung sollte laut Pape zu Beginn festgelegt werden um welche Keywords sich das Thema des Videos dreht und auf welche die Bestandteile optimiert werden sollen.

Trainee-Ausbildung bei Mindshape

Niko Oerter und Malte Müller zeigten in ihrer Session, wie die Trainee-Ausbildung bei Mindshape aufgebaut ist und welche Weiterbildungsmaßnahmen auch nach dem Traineeship noch gegeben sind. Bisher gibt es keine Ausbildung zum SEO. Die meisten, die in diesem Bereich einsteigen, kommen gerade von der Uni und haben noch keine praktischen Erfahrungen. Das Trainee gibt ihnen die Möglichkeit praxisnah Erfahrungen zu sammeln.

Bei Mindshape wird im Trainee viel Wert auf Weiterbildung gelegt. Etwa 60 Stunden im Monat sind dafür eingeplant. 20 Stunden entfallen auf Einarbeitung in bestimmte Prozesse und 80 Stunden wird bereits auf Projekte gearbeitet (intern und unter Aufsicht auch auf Kundenprojekte).

Die Wissensvermittlung erfolgt dabei über

  • Bücher
  • Blogartikel
  • interne Workshops
  • Gespräche mit den Mitarbeitern, die schon länger im Unternehmen sind.

Zu den Bereichen, die im Traineeship abgedeckt werden, gehören:

  • Onpage + Technik (HTML & CSS, Crawling / Indexierung, Keywordrecherche etc.)
  • Offpage (Linkprofil Analysen, Linkbuilding, Content Marketing, Seeding)
  • Analyse & Tools (Nutzersignale, Google Search Console, Google Analytics, etc.)
  • Agenturskills (Kundenkommunikation, Kommunikation im Team, Projektmanagement, Zeitmanagement, Reporting)

Wichtig bei einem Traineeship ist, dass die Rahmenbedingungen stimmen. Zum Beispiel muss das Gehalt stimmen (keine Ausbeutung der Trainees als billige Arbeitskräfte), das Team muss eine gewisse Größe haben, damit die Kapazitäten da sind, die Trainees richtig zu schulen. Außerdem sind die Onboarding-Prozesse wichtig, da das Traineeship bei den meisten den Einstieg in den Job darstellt.

Damit die neuen Mitarbeiter schnell ins Team finden und einen festen Ansprechpartner haben, wird ihnen ein Pate zugeteilt. Mit diesem stimmen sie sich einmal pro Woche ab. Außerdem führen sie in den ersten Wochen mit jedem Teammitglied ein halbstündiges Gespräch.

Nach dem ersten halben Jahr werden die Trainees dann stärker in Kundenprojekte eingebunden, wobei sie aber auch hier noch beaufsichtigt werden bzw. eine Qualitätskontrolle stattfindet.

Doch was passiert dann eigentlich nach dem Traineeship? Da die SEO Branche an sich sehr dynamisch ist, hat man als SEO auch nach dem Traineeship noch nicht ausgelernt. Weiterbildung ist also auch für die Zukunft noch sehr wichtig.

Weiterbildung bei Mindshape:

  • Selbststudium: Blogs, Podcasts, Webinaren, Surfen im Internet. Dafür wird ein festes Zeitkontingent zur Verfügung gestellt (sechs Stunden im Monat)
  • Weiterbildung im Tagesbetrieb: Probleme, die in der alltäglichen Arbeit auftreten, werden offen kommuniziert. Wichtig dafür ist eine offene Fehlerkultur
  • Dokumente werden von Kollegen gegengelesen (z.B. Analysen oder Reportings) und diese geben offen Feedback, was unverständlich ist
  • Recaps: wer auf einer Konferenz war, fasst diese inhaltlich für die anderen zusammen
  • Interne Vorträge
  • Externe Veranstaltungen (Konferenzen, Barcamps etc.)
  • Kundenideen: Der Kunde kommt mit neuen Ansätzen, die einen zu neuen Ideen inspirieren

Nutzersignale optimieren

Jascha Hilz von mindshape hat über das Thema Nutzersignale optimieren gesprochen. Vorweggenommen: Google hat bisher nicht bestätigt hat, dass Nutzersignale ausgewertet werden. Jedoch kann davon ausgegangen werden, dass dies der Fall ist.

Doch wie kann Google Nutzersignale überhaupt auswerten? Jascha stellte verschiedene Themenfelder dazu auf:

  • SERPs (z.B. durch SERP Klicks)
  • Trafficströme (z.B. über Chrome oder Public DNS)
  • Bewegungsdaten (z.B. GPS)
  • und über die Websitenutzung (z.B. über Analytics)

Tipps zur Optimierung von Nutzersignalen:

  • Pagespeed (Ab 3 Sekunden Ladezeit steigt die Absprungrate auf 50%)
  • Hilfreicher Content (hochwertiger, umfassender und hilfreicher Content)
  • Usability (Wichtiges „above the fold“ platzieren, übersichtliches und verständliches Screendesign)
  • Snippetoptimierung und Clickbaits (zum Klicken animieren)
  • Mehr Traffic (u.a. durch Social Media, Newsletter oder Remarketing)
Tipps für die Optimierung von Nutzersignalen von Jascha Hilz

Tipps für die Optimierung von Nutzersignalen von Jascha Hilz

Das Abschlussfazit des Vortrags: Google nutzt Nutzersignale, ohne es zuzugeben. Es wäre durchaus fatal, wenn Google die kompletten Informationen über das Nutzerverhalten, wie Absprungrate oder die Verweildauer, nicht nutzen würde. Daher ist es für alle SEOs sinnvoll, an diesen Stellschrauben zu arbeiten. Der neue Grundsatz heißt: neues SEO = Onpage + Offpage + Nutzersignale.

Content Audit – Inhalte datenbasiert optimieren

Anhand eines Praxisbeispiels zeigte Mareike Doll von lunapark uns, wie man einen Content Audit erstellt, welche Daten dafür relevant sind und was man daraus ableiten kann. Ein Content Audit ist die Bestandsaufnahme, Analyse und anschließende Bewertung von allen Inhalten, die auf der Website enthalten sind. Das Ziel: Aufgrund der Ergebnisse aus dem Content Audit eine effektive Content Strategie entwickeln bzw. die bereits vorhandene anpassen.

Welche Daten werden berücksichtigt?

  • Auflistung aller vorhandenen Unterseiten (Tool: Screaming Frog): Wichtige Daten sind hier URL, Status Code, Meta-Title, Meta-Description, H1, interne Links, Klicktiefe und Wortanzahl. Diese werden dann nach Kategorien sortiert, um die Themen einzeln betrachten zu können.
  • Daten aus der Webanalyse (z.B. Google Analytics): Als Zeitraum bietet es sich 1 Jahr an. So können saisonale Schwankungen abgedeckt werden. Wichtige Kennzahlen und Messwerte sind hier: Seitenaufrufe, Einstiege, Verweildauer und die Absprungrate. Auch die Conversions und die Conversion-Rate können je nach Fall interessant sein.
  • Backlinks (Tool: ahrefs)
  • Social Media Shares (Tool: ahrefs)

Durch diese Vielzahl an Daten kann es schwierig werden, die Übersicht zu behalten. Daher ist es wichtig nur die Kennzahlen zu nutzen, die relevant sind. Wenn wenig Social Shares vorhanden sind, bietet es sich zugunsten der Übersichtlichkeit an, diese raus zu lassen.

Wobei der Content Audit hilft:

  • Identifizierung doppelte Inhalte
  • Identifizierung fehlender Inhalte (Content Gap)
  • Anpassung von Themenbereichen
  • Eliminieren von wenig populären, alten Inhalten oder thin Content
  • Analyse, wieso manche Inhalte nicht gut funktionieren
  • Interne Verlinkungsstruktur verbessern

SEO Use Cases – Zeitfaktoren für Relevanzbewertung und Rankingentwicklung

Stefan Godulla stellte in seinem Vortrag einige Use Cases vor und verdeutlichte die Bedeutung des Faktors Zeit. Im Prinzip funktioniert SEO ganz einfach. Wichtig sind:

  • Mehrwert für den Nutzer
  • Relevanz vom Inhalt zur Suchanfrage
  • Positive Nutzersignale
  • Relevante Backlinks
  • Sinnvolle interne Verlinkung
  • Performance wie Pagespeed oder SSL

Wenn man dann tatsächlich in die Optimierung gegangen ist und beispielsweise die Snippets oder die Überschriften angepasst hat, ist besonders der Faktor Zeit wichtig. Denn es kann durchaus etwas dauern, bis sich die Relevanzbewertung der Website aufbaut und dadurch auch die Rankings steigen. Dies zeigte Godulla an reellen Kundenbeispielen.

Conversion von David Odenthal von Overheat

David Odenthal stellte in seinem Vortrag zum Thema Conversion Steigerung einige Tipps und Methoden vor, die für Conversions sorgen. Die durchschnittliche Conversion-Rate liegt online bei 3%. Im Einzelhandel hingegen bei ca. 20%. Das bedeutet, dass der Online-Markt einiges aufzuholen hat. Besonders viele Nutzer gehen beim Checkout verloren, daher ist es sinnvoll sich in den Nutzer zu versetzen, und Inhalte und Informationen smart zu platzieren.

Doch wie funktioniert das. Odenthal stellte folgende Tipps vor:

  1. „Smartes“ Design. Wichtiges Elemente „above the fold“, Call to Action Buttons leicht erreichbar und übersichtliche Anordnung der Elemente.
  2. Stolpersteine entlang der User Journey mithilfe des Wahrnehmungsmodells von David Odenthal eliminieren.
  3. Nutzer sowohl rational als auch emotional treffen. Eine Kaufentscheidung ist in den meisten Fällen emotional beeinflusst.
  4. Website so einfach und intuitiv wie möglich gestalten.
  5. Vertrauen durch Zertifikate oder SSL

Als Fazit kann gesagt werden: Mache dem Nutzer den Weg zum Kauf so einfach, hilfreich und spannend wie möglich. So steigen Verweildauer und die Conversions.

Erfolg und Versagen von SEO-Inhalten – Failure is predictable

Thomas Mindnich brachte uns in seiner rasanten und amüsanten Session seine These „Failure is predictable – Versagen ist vorhersehbar“ für SEO und Content näher. Dabei vertritt er die Meinung, dass man zwar keine konkreten Aussagen über die Ausmaße des Erfolges im SEO machen kann, aber das Versagen doch vorhersehbar ist und somit eingegrenzt werden kann. Dazu nutze er 5 Bereiche um seine These zu untermauern und darauf aufmerksam zu machen, was bei der Erstellung von Content zu berücksichtigen ist:

  • Termgewichtung – Abbilden des Ranking-Ziels durch Top-Terme im Dokument
  • Main Content – wichtige Inhalte gehören in den Hauptbereich
  • Suchabsichten – auf Nutzer bzw. die Query abgestimmte Inhalte
  • Thema treffen – Abbildung ähnlicher Themen in dem Maße wie es für SERPs nötig ist
  • Features abdecken – Themen holistisch und auf das Nutzer-Bedürfnis hin abdecken

Um die Termgewichtung zu verdeutlichen, führte Thomas das Vector Space Model an. Terme werden hier als Vectoren dargestellt, je näher der eingegebene Term des Nutzers mit dem Hauptterm der Seite übereinstimmt desto wahrscheinlicher ist ein Ranking. Zudem werden innerhalb eines Dokumentes die Terme analysiert und entsprechend ihrer Verteilung gewichtet. Wird z.B. im Rahmen dieser Gewichtung festgestellt, dass ein anderes Keyword als das eigentlich für die Optimierung der Seite definierte Keyword die größte Gewichtung erhält, so ist der Keyword-Fokus falsch gesetzt – diesen Fehler gilt es zu vermeiden.

Zudem sollten wichtige Inhalte auch immer im Hauptbereich der Seite positioniert werden. SEO-optimierte Inhalte am Ende der Seite in z.B. kleinen Kategorieboxen werden sich nicht so stark auf das Ranking auswirken wie die höher platzierten Inhalte.

Thomas wies zudem darauf hin, dass Inhalte immer für den Nutzer erstellt und seine Bedürfnisse erfüllt werden sollten. Dabei kann die Betrachtung der Customer Journey helfen. Ähnliche Inhalte sind nur dann sinnvoll, wenn sie tatsächlich aus Sicht der SERPs nötig sind, ansonsten können Themen geclustert werden.

DSGVO

Neben den Vorträgen gab es beim Barcamp auch zahlreiche Diskussionsrunden, wie zum beispiel die von Sylvia Ostmann von koffer.de zur DSGVO. Gemeinsam wurde darüber gesprochen, ob und wie es möglich ist, nach der neuen Datenschutzrichtlinie Daten datenschutzkonform zu verarbeiten. Einig waren sich alle, dass es sich dabei um ein wichtiges Thema handelt, dass nciht auf die leichte Schulter genommen werden sollte. Wie man aber nun genau damit umgehen kann, ist noch ziemlich unklar. Am besten ist es wohl, sich in Bezug darauf rechtlichen beistand zu holen und einen Anwalt zu konsultieren.

Networking und Barbecue

Doch nicht nur inhaltlich konnte das Barcamp auf ganzer Linie überzeugen. Zwischen den Sessions war immer genug Zeit um sich mit Branchenkollegen über die gehörten Inhalte auszutauschen. Und durch den sehr persönlichen Charakter der Veranstaltung wurden auch während der Sessions gerne Fragen gestellt und Diskussionen gestartet.  Im Anschluss an die Sessions gab es noch ein gemeinsames Barbecue, in dessen Rahmen die Inhalte des Tages gemeinsam besprochen werden konnten.

Fazit

Das erste OMWest Barcamp hielt viele spannende Vorträge, Diskussionen und Insights bereit. Vielen Dank für die Organisation an Rhea Moore und Michael Janssen, sowie für die tolle Location an die AXA! Wir hoffen auf ein nächstes Barcamp und sind gerne wieder dabei!

Weitere Recaps

SEO Kennzahlen mit Google Tag Manager und Google Analytics erfassen

Um eine Website erfolgreich für Suchmaschinen zu optimieren, ist es wichtig, Erfolge und Misserfolge der eigenen Arbeit nachzuverfolgen und daraus zu lernen. Ein Monitoring ist also unabdingbar. Viele der dafür notwendigen Daten liefert Google Analytics. Mit dem Google Tag Manager könnt ihr diese Daten außerdem mit weiteren nützlichen SEO Kennzahlen anreichern, die euch dabei helfen, unzureichend optimierte Seiten, Nutzerdaten und Fehler zu finden. Diese Daten lassen sich in Google Analytics einfach mit bestehenden Werten verknüpfen und helfen euch beim Überprüfen eurer SEO-Maßnahmen und dem Beheben von Fehlern.

SEO relevante Nutzersignale messen

Man liest immer wieder, dass Nutzersignale direkte Rankingfaktoren sind. Das ist aber so nicht ganz richtig, da Google dies nicht bestätigt hat und fundierte Experimente fehlen. Was aber von Google bestätigt wurde ist, dass Nutzersignale (CTR „Click-Trough-Rate“, Verweildauer, Klickverhalten) bei der Evaluierung von bestehenden und neuen Such-Algorithmen verwendet werden.

Das letzte offizielle Statement von Google zum Thema Nutzersignalen kam von John Müller:

Die eingebauten Google Analytics Messwerte „Absprungrate (Bounce-Rate)“ und „Verweildauer (Time-on-Site)“ sind out-of-the-box als SEO-Messwerte nicht zu gebrauchen. „Absprünge“ kann man nicht nutzen, da ein Absprung z.B. auch gezählt wird, wenn ein Nutzer auf unserer Seite gefunden hat, was er gesucht hat, und die Seite nach dem Lesen des Inhaltes schließt.

Bei der „Verweildauer“ verhält es sich ähnlich, da diese nur gemessen wird, wenn der Nutzer eine neue Aktion auslöst, wie z.B. einen neuen Seitenaufruf. Wenn der Nutzer unseren Blogartikel gespannt für 20 Minuten liest, aber danach die Seite schließt, beträgt die Verweildauer null Sekunden.

Da Google immer besser darin wird, Nutzer zu verstehen und seinen Algorithmus auf die Bedürfnisse des Suchenden zu optimieren, sollten aussagekräftige Nutzersignale in eurem Google Analytics Setup trotzdem nicht fehlen. Hochwertige Inhalte zu erstellen kann sehr viel Arbeit in Anspruch nehmen und damit ihr analysieren könnt, ob eure Nutzer mit den Inhalten interagieren, haben wir drei Methoden aufgelistet, um Interaktionen mit dem Tag Manager zu messen.

Interaktionszeit messen

Damit wir messen können, ob unsere Besucher wirklich unsere Inhalte konsumieren, muss ein kleines Script im Google Tag Manager eingebaut werden. Hier findet ihr eine passende Anleitung, die euch sogar einen Container bereitstellt, den ihr einfach in euren Tag Manager importieren könnt.

Das Script misst auf jeder Seite die Interaktionen und löst alle 15 Sekunden ein Event aus, außer wenn der Tab gerade nicht aktiv ist, der Nutzer für 65 Sekunden seine Maus nicht bewegt hat oder keine Taste gedrückt hat. Diese Werte könnt ihr einfach über die Tag Manager Variablen auf eure Bedürfnisse anpassen.

Return to SERP Time (Dwell Time)

Die „Return to SERP Time (Dwell Time)“ benennt die Zeit, die ein Google-Sucher auf einer unserer Unterseiten verbringt, bevor er zurück zur ursprünglichen Suchergebnisseite wechselt. Sie ist zusammen mit der CTR (Click-Through-Rate) wahrscheinlich das wichtigste Nutzersignal, welches Google für seine Suche verwendet.

Aus Sicht von Google ist die Dwell Time ein idealer Messwert, um die Relevanz und Qualität von Suchergebnissen zu bewerten.

Wenn der Nutzer auf eurer Website nicht findet, was er sucht, ist er ziemlich schnell wieder zurück bei Google, um sich die Konkurrenzseiten anzugucken. Da wir den Nutzer aber halten wollen und Google dieses Verhalten messen kann, sollten wir die Dwell Time für unsere Langingpages verbessern.

Seht euch die Seiten mit einer niedrigen Dwell Time genau an. Wenn es keine gute Begründung für eine niedrige Dwell Time gibt, kann es sein, dass die Seite fehlerhaft ist oder nicht zur Suchintention des Nutzers passt. In diesem Fall macht es Sinn den Inhalt entsprechend anzupassen.

Dank Simo Ahova können wir, wie er selbst schreibt sehr „hacky“, die Dwell Time über den Tag Manager messen und als Custom Dimension der einzelnen Seiten zuordnen:

Dwell Time mit Google Analytics und Google Tag Manager erfassen

Dwell Time mit Google Analytics und Google Tag Manager erfassen

Die detaillierte Anleitung findet ihr hier.

Scrolltiefe messen

Das Scrolltiefen Tracking gehört bei uns zur Standard-Einrichtung, wenn wir ein neues Tracking einrichten. Dabei senden wir Events an Google Analytics, wenn der Nutzer 25%, 50%, 75% oder 100% der Seite erreicht. (Außerdem lässt sich auch die Absprungrate verändern, wenn man zum Beispiel einen Nutzer, der bis zu 50% gescrollt hat, nicht mehr als Absprung zählen möchte. Dazu muss aber ein separates Analytics-Tag eingerichtet werden.)

Hier sehen wir z.B. das Scroll-Verhalten auf der lunapark-Startseite:

Scrolltiefe mit dem Google Tag Manager erfassen

Scrolltiefe mit dem Google Tag Manager erfassen

Vor nicht allzu langer Zeit hat der Google Tag Manager neue Funktionen veröffentlicht, die das Scolltiefen-Tracking ohne zusätzliches Script realisieren lässt. Der Einbau wird damit sehr einfach. Eine gute Anleitung findet ihr als Video von Benjamin Mangold:

Seitenladezeit mit dem Tag Manager messen

Seitenladezeiten beeinflussen nicht nur unsere Conversion Rate, sondern werden laut Google ab Juli 2018 auch als Rankingfaktor für mobile Suchanfragen genutzt. Dabei stellt Google klar, dass dies nur die langsamsten Internetseiten betrifft.

Um keine Abstrafung zu riskieren und eine gute Nutzererfahrung zu gewährleisten, sollte der „Seiten-Timings“ Report von Google Analytics genutzt werden. Hier können wir sehen, welche Unterseiten optimiert werden müssen und welche Besucherarten an einer langsamen Ladezeit leiden.

Ihr kennt das vielleicht. Beim Aufrufen des Google Analytics Reports „Verhalten -> Websitegeschwindigkeit -> Übersicht“ sieht man keine genauen Werte sondern nur Stichproben:

Seitenladezeiten in Google Analytics

Seitenladezeiten in Google Analytics

Das hat den einfachen Grund, dass standardmäßig nur bei 1% der Nutzer die Seitenladezeit gemessen wird. Grund dafür ist, dass Google Analytics sicherstellen will, dass die Tracking-Ressourcen nicht für eine Funktion verbraucht werden, die der Analytics-Nutzer womöglich gar nicht nutzt.

Die Stichprobenrate kann man im Google Tag Manager einfach mit einem neuen Feld anpassen. Dazu muss man beim Standard Seitentracking-Tag ein neues Feld mit dem Namen „siteSpeedSampleRate“ anlegen. Für den Wert vergeben wir die Prozentzahl der Nutzer, die wir erfassen möchten, also „100“, wenn wir alle Zugriffe tracken wollen:

Tag für Seitenaufruf anlegen

Tag für Seitenaufruf anlegen

Hinweis 1 – Stichprobenrate bei maßgeschneiderten Setups

Diese Methode sollte man nur verwenden, wenn man einen „Tracker (Seitenaufruf)“ pro Seite verwendet, da sonst die Daten doppelt einlaufen und verfälscht werden. Bei folgenden Szenarien solltet ihr daher nochmal genauer nachschauen:

  • Single-Page Applications (wie z.B. AngularJS oder React), bei denen Seitenaufrufe über virtuelle Seitenaufrufe getrackt werden.
  • Wenn mehrere Seitenaufrufe auf einer Seite an dieselbe UA-Tracking ID versendet werden
  • Der Seitenaufruf-Tag im Tag Manager mehrere Trigger verwendet

Simo Ahava geht auf das Problem in seinem Blogbeitrag genauer ein und gibt mehrere Lösungsvorschläge.

Hinweis 2 – Limit der Ladezeitmessung erhöhen:

Auch wenn man die Stichprobenrate anpasst, werden pro Tag nur maximal 10.000 Hits von Google Analytics gemessen. Wenn euch das nicht reicht, könnt ihr mit Hilfe des Tag Managers und Events das Limit erhöhen. Die sehr anschauliche und einfach umzusetzende Anleitung findet ihr hier.

404 Fehler messen

Links, die auf 404 Seiten (Seite nicht gefunden) führen, übergeben „weniger“ Linkjuice, was besonders bei externen Links vermieden werden sollte. Außerdem führen 404 Fehler dazu, dass der Nutzer nicht findet, was er sucht und die Seite wahrscheinlich verlässt.

Die erste Anlaufstelle für das Finden von 404 Fehlern ist die Google Search Console. Allerdings wird die verlinkende Seite nicht immer mitgegeben. Durch ein Tracking mit dem Tag Manager können wir messen, wie oft die fehlerhaften Links geklickt wurden und können somit besser priorisieren, welche fehlerhaften Links als erstes korrigiert werden sollten.

Die sehr gute Anleitung für das „must-have-feature“, findet ihr auf dem Blog von Christian Ebernickel.

Tutorial: Interne Verlinkung messen

Die interne Verlinkung zählt zu den wichtigsten Maßnahmen in der Onpage-Optimierung. In der Search Console können wir nachsehen, wie oft eine bestimmte URL verlinkt wurde. Leider gibt uns Google hier nur die Möglichkeit einer quantitativen Auswertung.

Um die Qualität und Nutzerfreundlichkeit unserer internen Verlinkung zu bewerten, können wir mit dem Google Tag Manager ein Klick-Tracking für interne Links einrichten. Außerdem können wir an Google Analytics den geklickten Linktext übergeben, der prägnant mit aussagekräftigen Keyword-Linktexten verlinkt werden sollte.

Nicht geklickte interne Links können darauf hinweisen, dass diese thematisch nicht passend gesetzt wurden oder zum Beispiel die Darstellung der Links auf mobilen Geräten nicht eindeutig ist.

Außerdem können interne Links den Nutzer, der von Google kommt, länger auf unserer Seite halten, was wiederrum die „Return to SERP Time“ für unsere Seite verbessert.

Das Anlegen des Klick-Trackings geht relativ einfach:

  1. Stellt sicher, dass die vorkonfigurierten Variablen {{Click URL}} und {{Click Text}} aktiviert sind
  2. Erstellt einen Trigger „Klick – nur Links“, der feuert, wenn der angeklickte Link eure Domain enthält. HTTP und WWW sollten weggelassen werden, damit auch falsch verlinkte interne Links getrackt werden und nachträglich korrigiert werden können:
Trigger konfigurieren

Trigger konfigurieren

  1. Legt ein neues „Universal Analytics“-Tag an:
Tag konfigurieren

Tag konfigurieren

Die Daten in der Google Analytics Echtzeit-Anzeige:

Interne Links tracken mit Google Analytics

Interne Links tracken mit Google Analytics

Der Trigger lässt sich natürlich nach Belieben anpassen, damit ihr die Klicks nur für bestimmte Bereiche trackt. Durch die Funktion „Übereinstimmung mit CSS Selektor“ lassen sich z.B. nur die Klicks im Content-Bereich oder in der Hauptnavigation tracken. Je nach Klickverhalten sollten einzelne Unterseiten mit besseren Links optimiert werden oder nicht genutzte Links entfernt werden.

JavaScript Fehler identifizieren

JavaScript Fehler können bei Suchmaschinen und Nutzern dazu führen, dass die Internetseite nicht richtig bedient oder gelesen werden kann. Es kann z.B. vorkommen, dass Google die Seite nicht rendert und den Inhalt der Seite nicht erkennen kann, obwohl die meisten Browser die Seite richtig anzeigen.

Zu den häufigsten Fehlern, die durch falsches JavaScript zustande kommen, gehören:

  • Darstellungsfehler
  • Fehlerhafte Bedienung auf mobilen Seiten (z.B. Scrolling Fehler oder fehlerhaftes Menü)
  • Erhöhte Seitenladezeit
  • Fehlende Inhalte, die normalerweise asynchron nachgeladen werden

Mit dem Tag Manager könnt ihr die genaue Fehlermeldung inkl. Zeilennummer und die Seite auf der ein Fehler vorkommt als Event an Google Analytics übermitteln. Eine genaue Anleitung findet ihr hier.

Fazit

Die Messung von Nutzerdaten sollte auf keiner großen Seite fehlen, da ihr durch das Beheben der gefundenen Fehler nicht nur von Google durch bessere Rankings belohnt werdet, sondern die gesamte Nutzererfahrung für alle Nutzer verbessert wird. Mit Google Analytics und dem Google Tag Manager könnt ihr hier viele Analysen durchführen, die euch bei der Optimierung eurer Website helfen.

Habt ihr spezielle Fragen zum Tag Manager oder Suchmaschinen Optimierung? Nutzt gerne die Kommentar-Funktion, wenn wir euch behilflich sein können.

Weitere Quellen:

Recap zur WebSuccess 2018 in Köln

Bereits zum zweiten Mal und damit etabliert, trafen sich am 15 März 2018 Entscheidungsträger und Marketingverantwortliche sowie sonstige Online-Interessierte von kleinen und mittelständischen Unternehmen auf der WebSuccess in der Domstadt, um sich über aktuelle Entwicklungen und Lösungen in der Onlinewelt zu informieren. Die Auswahl passte, sagt die WebSuccess doch über sich, dass sie „DIE Messe und Konferenz für Online-Marketing in Köln ist“.

Die Themenauswahl samt Speakern wurde demnach auch mit dem Ziel ausgewählt, die KMUs „im digitalen Zeitalter noch erfolgreicher zu machen“, mit einführenden Vorträgen einen Überblick über das Thema zu verschaffen und Impulse für die praktische Umsetzung zu geben.

Rund 300 Teilnehmer und 18 Speaker freuten sich auf einen interessanten gemeinsamen Tag und Austausch. Unterteilt waren die Vorträge in jeweils drei Kategorien: Performance, Social Media und Content & Co.

Willkommen auf der WebSuccess

Willkommen auf der WebSuccess

Performance – Google Analytics und SEO

Wie bereits bei der PPC Masters in Berlin, hielt Christian Vollmert, Geschäftsführer von lunapark einen Vortrag über Google Analytics und die Customer Journey. Einen ausführlichen Bericht dazu findet ihr hier: https://www.luna-park.de/blog/26297-ppc-masters/.

Neben Analytics Themen war aber auch das Thema Suchmaschinenoptimierung (SEO) im Performance-Track angesagt. Markus Hövener referierte zum Beispiel über die 10 größten SEO Mythen. Passend dazu gab es von Nikolaus Herbert einen interessanten Vortrag dazu, wie man mehr Kunden über Suchmaschinen gewinnen kann. Daniele Esposito weitete das ganze aus, indem er beschrieb, wie man online sucht, aber lokal kauft. Eine täglich auftauchende Fragestellung gerade in lokalen KMUs.

WebSuccess 2018

WebSuccess 2018

David Odenthal nahm die Frage auch zum Anlass und hielt einen Vortrag über Conversions. Er ging dem Thema nach, wie man die Wahrnehmung des Besuchers steuern kann und ihn so im besten Fall zum Kunden macht. Zuerst einmal sollten wir uns überlegen, wie und wo wir Inhalte platzieren. Das heißt, wir müssen uns in den Besucher hineinversetzen und überlegen, ob er richtig abgeholt wird und die Seite übersichtlich ist. Die User Journey sollte so einfach wie möglich gestaltet sein. Dazu gehört aber auch, dass der Content und die Story so interessant gestaltet sind, dass der User sich möglichst lange auf meiner Seite aufhält und immer mehr erfahren möchte, um am Ende im besten Falle eine Conversion abzuschließen. Messen können wir das mit Hilfe von Mouse-Tracking Tools.

Social Media – YouTube, Facebook und Influencer-Marketing

YouTube, das war das heiße Thema im Bereich Social Media.

Christoph Burseg von VeeScore erklärte in seiner Session, wie man mit YouTube erstaunliche Erfolge mit kleinem Budget für KMUs erzielen kann und regte direkt zum Nachmachen an. Hendrik Unger ging in seinem Vortrag ein bisschen tiefer und in die Geheimnisse erfolgreicher YouTube-Kampagnen ein.

Social Media Tipps auf der WebSuccess

Social Media Tipps auf der WebSuccess

Aber nicht nur YouTube war ein gern gewähltes Thema, auch Facebook schien immer noch begehrt zu sein. Hierzu gab uns Felix Beilharz 7 heiße Tipps mit auf den Weg, wie man mit Facebook sein Social Media Marketing noch erfolgreicher machen kann.

  1. Content Ideen von anderen Firmen, sollte man nicht ignorieren, sondern ruhig beobachten, zerlegen und auf die eigene Branche übertragen
  2. Facebook Gruppen nutzen, da diese die abfallende Reichweite wieder auffangen können. Hierzu kann man entweder eigene Gruppen aufbauen und eine Themencommunity schaffen oder aber, man beobachtet bereits existierende Gruppen und postet zur passenden Zeit seinen Inhalt oder Link zum Blogbeitrag
  3. Auf aktuelle Themen aufspringen und dazu einen Bogen passend zur eigenen Branche spannen.
  4. Open Graph Tags verwenden.
  5. Ein bisschen polarisieren mit seinem Content.
  6. Das Gefühl von Zugehörigkeit vermitteln.
  7. Auffallen mit Unicodes und diese vermehrt nutzen.

Passend zu Felix Vortrag, hat uns Jan Stranghöner von den Social Marketing Nerds erklärt, wie unsere Facebook Kampagnen ab morgen um ein vielfaches besser performen. Wichtig ist hier zuallererst, dass wir uns überlegen, welchen inhaltlichen Schwerpunkt wir setzen wollen. Je schärfer das Profil der Marke, desto einfacher gestaltet sich danach auch die Verplanung. Auch sollten die Zielgruppen eingegrenzt werden und die Reichweite festgelegt werden. Zur Not auch mit Trennung der Themen nach Postleitzahl. Dann kann man sich anschauen, was bei den Mitbewerbern gut läuft und sich Anregungen holen, bevor man selber Ads schaltet. Jan sagt übrigens, dass man nicht zwingend immer neuen Content braucht, sondern bei Facebook Ads auch ruhig mal den alten Content nutzen kann und diesen wieder bespielt. Da kann man sich Gedanken machen, wie wiederkehrende Formate aussehen können und man sollte sich immer klar darüber sein, dass es immer noch jemanden gibt, der den Content noch nicht gesehen hat. Oft ist bei Facebook Ads auch ein lokaler oder saisonaler Bezug von Vorteil. Hat man seine Anzeige geschaltet, sagt Jan, dass auch Schätzfragen immer gut ankommen oder man die Topkommentare nutzen kann, um so die User zum Mitmachen anzuregen.

Nicht um YouTube und Facebook direkt, ging es bei Oguz Yilmaz. Selber einmal Influencer gewesen, gab der sympathische Bayer Tipps rund um die Einbeziehung von Influencern zur Vermarktung seines Produktes und stellte auch klar, dass dies nicht immer Sinn macht. Der Vorteil von Influencern ist ganz klar, dass diese bereits eine eigene, meist ziemlich große Reichweite besitzen und reale Menschen sind, keine Schauspieler. Ist mein Produkt jedoch recht unflexibel oder zu konservativ, bringt mir ein Influencer meist nicht den gewünschten Erfolg.

Irgendwas mit Influencer Marketing

Irgendwas mit Influencer Marketing

Content & Co. – Der richtige Inhalt und der richtige Newsletter

Im Track Content & Co. konnte man einiges über erfolgreiches Content-Marketing erfahren.

So wurde zum Beispiel von Frank Mühlenbreck erklärt, wie die Kundenzentrierung wirklich funktioniert, bezogen auf die digitale Welt. Fabian Rossbacher erklärte, wie man seinen Online-Shop aktiv mit Facebook-Leads und Chatbots, die mittlerweile überall auftauchen, groß machen kann. Und Andreas Wander von der Bochumer Content-Marketing-Agentur diva-e ging noch einmal grundsätzlich auf das Thema Content und den richtigen Inhalt ein und erklärte die Journey vom ersten Kundenkontakt bis zur langfristigen Kundenbindung.

Um ein ähnliches Thema ging es auch bei Maximilian Modl. Hier wurde das Geheimnis von verkaufsstarken Newslettern erklärt und dass E-Mailmarketing immer noch 40-mal mehr ausmacht, als Facebook und Twitter zusammen. Onlineshops machen ihre Umsätze zum Beispiel zu 18% durch Newsletter. Also gab Maximilian uns mit auf den Weg, was einen guten Newsletter ausmacht, erklärte, wann die besten Zeitpunkte zum versenden sind, damit eine möglichst hohe Öffnungsrate garantiert werden kann, und ging noch einmal auf das wichtige und kommende Thema DSGVO ein.

Fazit

Insgesamt kann man sagen, dass die WebSuccess eine tolle Konferenz ist und einen eindeutigen Mehrwert für Köln bietet. Es gab viele spannende Themen, die gerade Online-Anfängern einen tollen Überblick sowie Tipps und Tricks mit auf den Weg gegeben haben.

Die Vorträge kann man sich im Übrigen auch alle noch einmal anschauen. Hier der Link dazu.

 

Keyword-Mapping mit Excel erstellen

Bevor ihr mit der Suchmaschinenoptimierung für eure Website beginnt, ist es wichtig, eine fundierte Keyword-Strategie zu entwickeln und eine Grundlage zu ermitteln, anhand derer ihr Verbesserungen oder Verschlechterungen beobachten könnt. Vor allem wenn ihr an großen Websites arbeitet, verliert ihr im Laufe der Zeit den Überblick, wenn ihr „wild drauf los“ optimiert.

Welche Seiten ranken bereits für welche Keywords? Bringen eure Optimierungen überhaupt etwas? Gibt es Mehrfachrankings? Welche Keywords sind noch nicht abgedeckt? Bei der Beantwortung dieser Fragen hilft ein Keyword-Mapping. So habt ihr die Auswirkungen eurer SEO Maßnahmen im Blick und könnt besser auf Veränderungen reagieren.

Was ist ein Keyword-Mapping?

In einem Keyword-Mapping ordnet ihr jeder Unterseite eurer Website ein bestimmtes Hauptkeyword und weitere Nebenkeywords zu. Wichtig dabei: Jedes Keyword sollte nur mit einer URL ranken. Das heißt, ihr ordnet jedes Keyword nur einer einzigen Unterseite zu. Dadurch verhindert ihr Mehrfachrankings und beugt einer Kannibalisierung der Seiten untereinander vor.

Ein weiterer Vorteil der Keyword-Map ist, dass ihr weitere SEO Maßnahmen, wie die Verbesserung der internen Verlinkung, einfacher durchführen könnt. Habt ihr einmal die wichtigsten Keywords definiert, könnt ihr beim Setzen der internen Links darauf achten, dass immer nur diese Keywords als Ankertexte verwendet werden. So verhindert ihr Überschneidungen.

Keyword-Map erstellen

Am besten nutzt ihr für euer Keyword-Mapping eine Excel-Tabelle. So könnt ihr mit Hilfe des SVerweis noch Daten aus Monitoring Tools integrieren und habt die Rankings der einzelnen Keywords besser im Blick. Aber dazu später mehr.

Beschriftet in eurer Excel Datei unterschiedliche Spalten: Beschreibt in einer Spalte, um was für einen Seitentypen es sich handelt. Hier unterscheidet ihr zwischen Verteilerseite, Produktseite, Blogartikel usw. In einer anderen Spalte definiert ihr das Haupt- und ein paar Nebenkeywords für die Unterseite. Natürlich sollte es auch eine Spalte für die jeweilige URL geben. Weitere Informationen, die ihr in eure Map aufnehmen könnt, sind zum Beispiel das aktuelle Ranking und die tatsächlich rankende URL. Diese Daten fügt ihr per SVerweis aus eurem Monitoring Tool hinzu.

So könnte die Vorlage für eine Keyword Map aussehen

So könnte die Vorlage für eine Keyword Map aussehen

Vorgehen beim Keyword-Mapping

Eine gut strukturierte Keyword-Map bedarf ihrer Zeit. Plant hier ausreichend Ressourcen ein, damit ihr eure Website in Ruhe betrachten könnt. Auch für die Vor- und Nachbereitung solltet ihr ein wenig Aufwand miteinberechnen. So kommt ihr Schritt für Schritt zu einer übersichtlichen Keyword-Map, die euch dabei hilft, eure Optimierungen im Blick zu behalten.

Schritt 1: Keywordanalyse zu dem jeweiligen Themenbereich

Eine Keywordanalyse ist für euer Keyword-Mapping unerlässlich. Eine solche Analyse zeigt euch auf, welche Keywords für euer Themengebiet besonders wichtig sind und von Nutzern gesucht werden. Ihr habt dadurch eine große Auswahl an relevanten Begriffen, die ihr beim Mapping den einzelnen Unterseiten zuordnen könnt. Beachtet hierbei auch Longtailbegriffe; sie müssen nicht unbedingt als Hauptkeyword genutzt werden, dienen aber durchaus als Nebenkeyword.

Für eure Keywordanalyse könnt ihr den Keywordplanner, Google Suggest oder andere kostenlose Tools, wie Answerthepublic, nutzen.

Schritt 2: Wichtige Bereiche der Website definieren

Im nächsten Schritt definiert ihr die relevanten Bereiche eurer Website. Schaut euch dazu den Traffic an und überlegt, welche Unterseiten für euch besonders wichtig sind. Welche Seiten, bzw. Bereiche sollen auf jeden Fall von Usern gefunden werden? Welche Seiten weisen kaum Traffic auf und haben besonders hohes Optimierungspotential? Je nachdem wie groß eure Website ist, ist dieser Schritt mehr oder weniger aufwändig. Bei einer übersichtlichen Anzahl an Seiten ist es nicht schwer, wichtige Bereiche zu definieren, beziehungsweise alle Seiten zu mappen. Seiten wie dem Impressum, Kontaktformulare, usw. müsst ihr keine Keywords zuordnen.

Ist eure Website zu groß, als dass ihr auf Anhieb alle Seiten mappen könnt, beginnt zunächst mit dem für euch relevantesten Bereich. Im Anschluss könnt ihr direkt in die Optimierung gehen und euch dann nach und nach durch die ganze Website arbeiten.

Schreibt die jeweiligen URLs direkt in die jeweilige Spalte eurer Excel Datei; wenn ihr mehrere Bereiche mapped, empfiehlt es sich, für jeden Bereich einen Tab zu nutzen.

Verschiedene Reiter in der Keyword Map sorgen für Übersichtlichkeit

Verschiedene Reiter in der Keyword Map sorgen für Übersichtlichkeit

Beginnt beim Keyword-Mapping mit den Bereichen, die für eure Website am wichtigsten sind und die ihr zuerst optimieren wollt.

Schritt 3: Keywords zuordnen

Nutzt jetzt die vorhandene Keywordanalyse und die von euch definierten wichtigen Bereiche, um jeder URL ein Haupt- und einige Nebenkeywords zuzuordnen. Dabei ist es wichtig, dass ihr euch die Seiten genau anseht. Genügt der Inhalt der Seite der Nutzerintention? Also findet der Nutzer auf der Seite das, was er sucht, wenn er das jeweilige Keyword eingibt? Wollt ihr etwas verkaufen oder lediglich informieren? Bedenkt, dass ihr mit hohem Wettbewerb rechnen müsst, wenn ihr auf generische Keywords optimiert. Einzelne Longtailbegriffe haben zwar nicht so ein hohes Suchvolumen, in der Masse werden sie aber deutlich häufiger gesucht als Shorttails.

Nehmen wir an, ihr sucht passende Keywords für eine Seite, auf der Nutzer Wanderreisen mit Hunden buchen können. Würdet ihr hier das Keyword „wanderreisen“ wählen, wäre das zu allgemein und ihr verfehlt eure Zielgruppe. Denn jemand, der eine Wanderreise mit Hund buchen möchte, sucht vermutlich gezielter danach und jemand, der eine normale Wanderreise sucht, möchte keine hundefreundlichen Angebote angezeigt bekommen. Zudem ist der Wettbewerb für Wanderreisen mit Hund nicht so groß wie für Wanderreisen allgemein. Die spezifische Bezeichnung hat außerdem den Vorteil, dass sich der Nutzer abgeholt fühlt. Er ist dann eher bereit, zu buchen, sich für den Newsletter einzutragen oder seine Kontaktdaten zu hinterlassen.

Tragt den Seitentyp, die URL und die Keywords in eure Keyword Map ein.

Tragt den Seitentyp, die URL und die Keywords in eure Keyword Map ein.

Ordnet also jeder Unterseite zwei bis vier relevante Keywords zu. Achtet hier bereits darauf, dass jedes Keyword nur zu einer Unterseite thematisiert wird.

Schritt 4: Doppelte Inhalte eliminieren

Es kann sein, dass euch beim Keyword-Mapping auffällt, dass es mehrere Unterseiten zu einem Thema gibt oder dass sich Unterseiten thematisch sehr stark ähneln. Dann müsstet ihr beiden Unterseiten dasselbe Keyword zuordnen. In so einem Fall kann es zu Mehrfachrankings oder zu Duplicate Content kommen. Beides wirkt sich negativ auf das Ranking aus und sollte daher umgangen oder verhindert werden. Prüft an dieser Stelle vorab, ob sich die Inhalte wirklich zu sehr ähneln oder ob es zwei verschiedene Nuancen eines Themas sind und beide Seiten auf unterschiedliche Keywords oder Longtails optimiert werden können. Ist das spezifizierte Thema wichtig genug, optimiert die Seite auf das jeweilige Keyword. Wenn ihr zum Beispiel Themen wie Wanderreisen mit Hund, Unterkünfte für Wanderer mit Hund, Wanderrouten mit Hund etc. habt, macht es Sinn, jeweils eigene Seiten zu erstellen.

Wenn bereits zwei Seiten zum selben Thema bestehen, schaut ihr, welche der beiden Seiten die stärkere von beiden ist. Für einen URL-Vergleich könnt ihr zum Beispiel das Sistrix Tool nutzen.

Sistrix verrät euch, welche URL besser rankt

Sistrix verrät euch, welche URL besser rankt

Alternativ könnt ihr auch mit der Google Search Console herausfinden, welche URL bereits mehr Klicks auf die relevanten Keywords erhält oder mit einem Webanalyse Tool wie Google Analytics, welche der URLs mehr organischen Traffic erhält.

Habt ihr herausgefunden, welche URL besser rankt, habt ihr drei Möglichkeiten, wie ihr mit den URLs umgeht.

  1. Ihr könnt die schlechter rankende URL komplett löschen.
  2. Ihr könnt die schlechter rankende URL per Meta-Robots auf noindex setzen.
  3. Die schlechter rankende URL kann via Canonical Tag auf die bessere zeigen.

Das Löschen einer URL ist eine sehr drastische Methode, aber wenn die schlechtere URL keine Zugriffe und keine Backlinks hat, ist es bedenkenlos möglich. Sind Backlinks vorhanden, ist daran zu denken, diese auf die bevorzugte URL weiterzuleiten. Beachtet bei der Verwendung von noindex, dass die Backlinks, die auf diese URL zeigen, nicht mehr gewertet werden. Canonicals übertragen zumindest etwas von der Linkstärke auf die URL, auf die der Canonical Tag zeigt.

Unterscheiden sich die Inhalte der beiden URLs stark voneinander, könnt ihr beide zusammenfassen und auf der stärkeren URL veröffentlichen.

Schritt 5: Fehlende Inhalte integrieren

Wenn ihr die doppelten Inhalte aufgedeckt und eliminiert habt, solltet ihr schauen, für welche Keywords, die für euch relevant sind, ihr noch keine passenden Seiten habt. Schaut dazu noch einmal in die Keywordanalyse und gleicht die Begriffe mit denen ab, die ihr bereits gemapped habt. Welche relevanten Keywords fehlen jetzt noch? Hierzu könnt ihr neue Inhalte erstellen, die ihr dann auf die jeweiligen Begriffe optimiert.

Schritt 6: Monitoring

Wenn ihr euren Unterseiten passende Keywords zugeordnet habt, könnt ihr diese in ein Monitoring Tool einpflegen. Bei uns haben sich Tools wie Sistrix, AWR Cloud und der Keyword Monitor bewährt. Habt ihr eure Keywords eingegeben, könnt ihr euch monatlich oder wöchentlich einen Report ziehen und diesen in eure Map integrieren. An dieser Stelle ist es auch sinnvoll, sich vor der SEO Optimierung alle Rankings zu ziehen, damit ihr einen Status Quo vom Startpunkt habt. Diesen solltet ihr nicht überschreiben.

An dieser Stelle könnt ihr auch überprüfen, ob die zugeordnete Seite wirklich rankt oder doch die als unwichtig klassifizierte URL.

Schaut euch an, welche URLs bereits zu den ausgewählten Keywords ranken

Schaut euch an, welche URLs bereits zu den ausgewählten Keywords ranken

Wichtig hierbei ist, dass ihr einen Weg findet, um den Verlauf der Rankings zu dokumentieren. Nur so findet ihr heraus, ob eure Optimierungen, die ihr im Laufe der Zeit vornehmt, einen positiven Effekt haben.

Schritt 7: Gezielte Optimierung

Nun könnt ihr Schritt für Schritt die Seiten optimieren, deren Ranking ihr verbessern wollt. Eine sehr effektive Stellschraube sind hier die Snippet Optimierung, die Content Optimierung, sowie die interne Verlinkung. Schaut euch zum Beispiel die Überschriften auf der Seite an. Wenn es mehrere H1 Überschriften gibt und wenn relevante Keywords keine Erwähnung finden, besteht hier ebenfalls Optimierungsbedarf. Weitere Rankingfaktoren sind optimierte Bilder, Texte und auch die interne Verlinkung. Habt ihr eine Änderung vorgenommen, könnt ihr anhand eures Keyword-Mappings beobachten, ob und inwiefern eure Maßnahmen etwas bewirkt haben. Hier macht es auch Sinn zu dokumentieren, wann genau die URL-Optimierung stattgefunden hat.

Fazit

Das Keyword-Mapping ist zwar zeitintensiv, aber es hilft langfristig dabei, eine Seite strategisch zu optimieren. Ihr seht, welche Themengebiete noch fehlen und welche es doppelt gibt. Nach dem Anwenden der Optimierungsmaßnahmen seht ihr, ob diese eine Verbesserung erzielen. Arbeitet ihr für einen Kunden, könnt ihr ihm auf diese Weise die Entwicklung reporten. Aber auch als SEO in einem größeren Unternehmen könnt ihr so eure Erfolge nach euren Maßnahmen offenlegen.

Ihr führt eure Maßnahmen gezielter und strukturierter durch und optimiert nicht ins Blaue hinein. Außerdem seid ihr angehalten, euch intensiv mit der Seite und den Themenbereichen zu befassen. Ihr könnt doppelte Inhalte vermeiden und fehlende Inhalte hinzufügen.

Was bedeutet die DSGVO für Google Analytics und Google AdWords?

Der 25. Mai 2018 ist Stichtag – Ab diesem Datum muss die neue Datenschutzverordnung EU-weit umgesetzt werden. Viele Unternehmen sind jedoch noch verunsichert, in wie fern die DSGVO die Nutzung von Google-Produkten einschränkt.  Um dies genau beurteilen zu können, ist es wichtig das Gesetz zu kennen und zu verstehen. Daher gibt es an dieser Stelle erst einmal eine kurze Einführung in die Grundsätze der Datenschutz-Grundverordnung.

Was ist die DSGVO?

Die Datenschutz-Grundverordnung soll das Datenschutzrecht in der EU vereinheitlichen, denn bisher galten in den einzelnen EU-Staaten völlig unterschiedliche Datenschutzgesetze. Auch wenn die DSGVO für viele Länder der EU eine deutliche Verschärfung der Datenschutzrichtlinien bedeutet, ist die Umstellung für Deutschland nicht so massiv wie häufig propagiert.

Das Bundesdatenschutzgesetz (BDSG) und auch das Telemediengesetz (TMG) gehörten bisher zu den eher strengen Datenschutzgesetzen der EU, die Umstellung wird für Unternehmen in Deutschland also weniger gravierend ausfallen.

Die DSGVO ist eine generelle Datenschutzverordnung, welche den Umgang mit personenbezogenen Daten sowohl online als auch offline regelt. Eine Verordnung gilt nach EU-Recht verbindlich in allen Mitgliedsstaaten und muss nicht in ein nationales Gesetz überführt werden. Sie ist zudem auch ein erster Schritt, um das Datenschutzrecht an die veränderten Bedingungen im Rahmen der Digitalisierung anzupassen. Betroffen sind daher auch alle Unternehmen, die im Internet (personenbezogene) Daten über ihre Nutzer sammeln oder durch Dritte verarbeiten lassen, häufig mit Hilfe von Google Analytics und anderen Google-Diensten.

Ganz konkret regelt die DSGVO, wie personenbezogene Daten gesammelt und verarbeitet werden dürfen und teilt die einzelnen beteiligten Akteure in unterschiedliche Kategorien:

Die betroffene Person

Jede natürliche Person, von der Daten gesammelt werden. Unter der DSGVO erhalten betroffene Personen deutlich mehr Rechte.

  • Recht auf transparente Information: Der Verantwortliche stellt der betroffenen Person alle Informationen in Bezug auf die Datenverarbeitung in präziser, transparenter, verständlicher und leicht zugänglicher Form zur Verfügung. Die Sprache sollte leicht verständlich sein, insbesondere dann, wenn sich Informationen an Kinder richten.
  • Recht auf Auskunft: Die betroffene Person hat jederzeit das Recht einzusehen, ob und welche personenbezogenen Daten über sie gesammelt wurden und in welcher Form diese verarbeitet werden.
  • Recht auf Datenübertragbarkeit: Macht die betroffene Person von ihrem Recht auf Auskunft Gebrauch, müssen ihr die Daten in einem strukturierten, gängigen und maschinenlesbaren Format übermittelt werden.
  • Recht auf Berichtigung: Die betroffene Person kann jederzeit die Berichtigung unrichtiger Daten verlangen.
  • Recht auf Löschung (auch „Recht auf Vergessenwerden“): Die betroffene Person kann jederzeit die unverzügliche Löschung aller personenbezogenen Daten verlangen.
  • Recht auf Einschränkung der Verarbeitung: Die betroffene Person kann vom Verantwortlichen die Beschränkung der Datenverarbeitung verlangen.
  • Recht auf Widerspruch: Eine betroffene Person kann jederzeit Widerspruch gegen die Verarbeitung personenbezogener Daten einlegen.

Der Verantwortliche

Der Datenverantwortliche ist, wie der Name verrät, verantwortlich für die Sammlung, Speicherung und Verarbeitung der Daten. Er steht in einer direkten Nutzungsbeziehung zum Betroffenen und bestimmt „wie“ und „warum“ Daten verarbeitet werden. Bei diesen Daten handelt es sich daher in der Regel um First Party-Daten. Sobald Unternehmen personenbezogene Daten über ihre Kunden sammeln, sind sie als Verantwortlicher für den Schutz dieser verantwortlich.

Der Auftragsverarbeiter

Der Auftragsverarbeiter verarbeitet die personenbezogenen Daten im Auftrag des Verantwortlichen und arbeitet nur auf Weisung.

Google Analytics und die DSGVO

Die DSGVO regelt den Umgang mit personenbezogenen Daten. Das heißt, nur wenn ihr auch ebensolche sammelt und verarbeitet, findet die DSGVO Anwendung. Personenbezogene Daten sind Daten, die den Nutzer direkt oder indirekt identifizierbar machen, also Name, Anschrift, E-Mail-Adresse, Kontodaten oder der Geburtstag. Aber auch die IP-Adresse zählt in Deutschland zu den personenbezogenen Daten. Google untersagt prinzipiell die Speicherung personenbezogener Daten in Analytics, wertet die IP-Adresse allerdings nicht als solche.

Im Rahmen der Nutzung von Google Analytics müssen daher unter der DSGVO die IP-Adressen anonymisiert werden. Dies funktioniert über das Einsetzen eines zusätzlichen Stückes Code in den Tracking-Code. In der Konsequenz werden die letzten Stellen der IP-Adresse anonymisiert, so dass keine Zuordnung mehr stattfinden kann und dementsprechend KEINE personenbezogenen Daten gespeichert werden.

Die Implementierung von Google Analytics sollte daher immer nach dem folgenden Schema durchgeführt werden:

  1. Es wird ein Vertrag zur Auftragsdatenverarbeitung mit Google abgeschlossen. Dieser kann unter der DSGVO nun auch digital erfolgen und muss nicht mehr in Papierform versendet werden – Eine Arbeitserleichterung.
  2. Mit dem Tracking-Code wird auch die IP-Anonymisierung eingebunden.
  3. Die Datenschutzerklärung muss an die neuen Begebenheiten angepasst werden.
  4. Der Nutzer muss jederzeit von seinem Widerspruchsrecht Gebrauch machen können, z.B. durch ein Opt-out Cookie.

Aber Achtung: Unter Umständen, können personenbezogene Daten über URL-Parameter unbewusst in Google Analytics landen. Hier sollte genauer hingeschaut werden, damit es nicht zu unabsichtlichen Verstößen kommt – denn die können unter der DSGVO teuer werden und Google kann das Konto wegen Verstößen gegen die AGBs löschen.

Im Prinzip unterscheidet sich das Vorgehen also nicht sonderlich von der bisherigen Praxis.

Warum dann die Aufregung rund um die DSGVO?

Schwieriger wird die Sachlage, wenn personenbezogene Daten gesammelt und durch dritte Parteien weiterverarbeitet werden sollen, zum Beispiel im Rahmen von Remarketing-Kampagnen oder wenn Webanalyse-Daten mit personenbezogenen Kundendaten kombiniert werden.

In manchen Meldungen zur DSGVO werden hierzu förmlich Horrorszenarien heraufbeschworen, dabei gilt ein ganz einfacher Grundsatz:

Ihr möchtet personenbezogene Daten eurer Nutzer sammeln oder zur Verarbeitung an Dritte weitergeben? Dann bittet sie um Einwilligung! „Consent“ – im deutschen „Zustimmung“ – ist das Zauberwort der DSGVO. Denn gibt der Nutzer vor der Datenerhebung/-verarbeitung sein Einverständnis, dürft ihr die Daten auch weiterhin zu dem, in der Zustimmung festgelegten, Zweck nutzen.

Um personenbezogene Daten sammeln und verarbeiten zu können, muss die betroffene Person also in die Verarbeitung eingewilligt haben. Diese Praxis soll die Abläufe für die Nutzer transparenter machen und ihnen mehr Macht über die eigenen Daten geben.

Die Einwilligung ist zweckgebunden, ihr dürft die Daten also nur zu dem in der Einwilligung beschriebenen Zweck nutzen. Möchtet ihr darüber hinaus tätig werden, braucht ihr für jede Aktion eine erneute Zustimmung (siehe hierzu Art. 6 “Rechtmäßigkeit der Verarbeitung”). Neu ist dabei aber vor allem die erweiterte Rechenschaftspflicht des Verantwortlichen. Dieser muss die Einwilligungen seiner Nutzer dokumentieren und auf Anfrage durch die Behörden jederzeit vorweisen können.

Andere Google-Dienste

Im Falle von Google Analytics fungiert Google als Auftragsverarbeiter, dies gilt auch für Google Analytics 360 und die DoubleClick-Suite für Werbetreibende. Hier muss also vor der Nutzung ein Vertrag zur Datenverarbeitung mit Google geschlossen werden, die eigentliche Verantwortung für die Daten verbleiben bei dem Unternehmen, welches die Daten mit dem Google-Produkt sammelt und verarbeitet. Hierzu schickt Google momentan aktualisierte Allgemeine Geschäftsbedingungen für alle betroffenen Produkte an die Nutzer.

Google-Dienste wie AdWords, DoubleClick for Publishers, AdExchange und AdSense verwaltet Google hingegen als Verantwortlicher, denn Google nutzt hierfür eigene Nutzerdaten.

Bei der Nutzung dieser Dienste profitiert ihr zwar von den großen Datenmengen, die Google zur Verfügung stehen, die Daten werden jedoch nicht direkt mit euch geteilt, so dass Google hier keine personenbezogenen Daten an euch weitergibt. Die datenschutzrechtliche Beziehung besteht dann nur zwischen den betroffenen Personen und Google.

Alle Informationen rund um den Datenschutz in Bezug auf Unternehmenskunden findet ihr auch auf der Privacy-Seite von Google.

Fazit

Die DSGVO kommt und ja, sie wird Auswirkungen auf die Art, wie wir Daten sammeln, haben. Es besteht jedoch kein Grund zur Panik – Solange ihr keine personenbezogenen Daten eurer Nutzer erhebt, seid ihr auf der sicheren Seite. Personenbezogenen Daten hingegen dürfen nur noch unter Zustimmung der betroffenen Person gesammelt werden. Nutzt ihr Produkte von Google, so achtet darauf, ob ihr oder Google in der Vertragsbeziehung als Verantwortlicher fungiert und trefft entsprechende Maßnahmen zum Datenschutz.

Auch wenn alle Welt von der DSGVO redet: Viel relevanter wird für online tätige Unternehmen das Update der ePrivacy-Verordnung sein. Diese sollte ursprünglich zeitgleich mit der DSGVO in Kraft treten, verzögert sich nun aber auf unbestimmte Zeit. Diese Richtlinie soll explizit den Datenschutz und die Datenverarbeitung online regeln und gilt im jetzigen Entwurf als eine viel größere Herausforderung, da die Nutzung von Cookies z.B. zum Targeting in Frage gestellt wird. Wir halten euch auf dem laufenden – Meldet euch gerne zu unserem Newsletter an oder postet eure Fragen und Erfahrungen in den Kommentaren.

Recap zur SEO Campixx 2018

Zum zehnten Mal fand in diesem Jahr die SEO Campixx in Berlin am Müggelsee statt. Am 01. und 02.03.2018 fanden sich bei eisigen Temperaturen erneut 500 SEO-Begeisterte am Müggelsee ein, um an der (Un)Konferenz teilzunehmen. Maxi und Mareike waren mitten drin und berichten euch im Folgenden von den besten Beiträgen und den interessantesten Learnings, die sie diesmal mitgenommen haben.

Marco Janck begrüßt die Teilnehmer der SEO Campixx 2018

Marco Janck begrüßt die Teilnehmer der SEO Campixx 2018

SEOs selbst ausbilden (Nicole Mank)

Nicole Mank widmete sich in ihrem Vortrag dem Trainee-Programm der Web-Netz GmbH. Die Agentur hat ihren Sitz in Lüneburg und muss sich daher mit dem Problem herumschlagen, dass sie kaum ausgebildete SEO Fachkräfte findet. Deshalb setzen sie verstärkt auf die Ausbildung neuer SEOs. Die meisten Bewerber auf Trainee Stellen stammen direkt von der Uni. Um diese Zielgruppe schon früh zu erreichen, arbeitet Web-Netz eng mit der Leuphana Uni in Lüneburg zusammen. Zum Beispiel nehmen sie an dem Programm frühstarter teil, das Studenten das Berufsleben näherbringt. So lernen die Studenten schon früh den Beruf des SEOs kennen und wenn sie sich dafür entscheiden, geht die erste Bewerbung an Web-Netz. Auf eine zu besetzende Stelle kommen im Schnitt 5 Bewerbungen.

Die SEOs der neuen Generation unterschieden sich von den SEOs, die schon länger in der Branche sind. Probleme, die sich bei den neuen SEO Trainees häufig stellen, sind

  • Fehlendes Verständnis für das Internet und die Technologie dahinter
  • Sie sind weniger bereit sich nach der Arbeit im Selbststudium weiterzubilden
  • Sie sind es nicht gewohnt, selbstständig Lösungen zu finden, sondern müssen mindestens einmal gezeigt bekommen, wie etwas geht
  • Die Theorie in die Praxis umzusetzen, fällt ihnen häufig schwer

Aber sie bringen auch Vorteile mit:

  • Sie bringen frischen Wind in die Agentur mit neuen Ideen und viel Motivation
  • Sie sind ambitioniert und wollen sich beweisen
  • Sie lernen schnell
  • Sie werden schnell selbstständig
  • Sie organisieren sich in Gruppen und sind richtige Teamplayer

Um die Bewerber richtig einschätzen und sie den jeweiligen Teams zuordnen zu können, ist es wichtig, beim Bewerbungsgespräch auch nach privaten Interessen zu fragen. Nicole hat die Erfahrung gemacht, dass es leichter ist, Trainees fachliche Inhalte zu vermitteln als sie dazu zu bringen, sich ins Team zu integrieren. Daher ist wichtiger, ob ein Bewerber ins Team passt als dass er bereits praktische Erfahrungen gesammelt hat.

Zur Ausbildung der neuen SEOs gehören folgende Bereiche:

  • Onpage
  • Offpage
  • Kreation
  • Tools
  • Consulting
  • Online Marketing
  • CRO

Während der Ausbildung durchlaufen die Trainees verschiedene Phasen. In der ersten Woche dürfen sie sich erst einmal akklimatisieren, lernen das Ticketsystem und das Wiki kennen und lesen sich ein. Danach fangen sie sehr schnell an den einzelnen Abteilungen zuzuarbeiten. Sie beginnen in der Kreation mit Keywordanalysen und der Erstellung von Snippets und Texten. Dabei arbeiten sie schon an echten Projekten, wobei natürlich alles noch einmal überprüft wird, bevor es an den Kunden geht.

Nach den ersten drei Monaten lässt sich schon erkennen, in welchem Bereich die Trainees bevorzugt eingesetzt werden können, z.B. in der Kreation oder eher im Bereich Offpage. Die feste Zuordnung in ein Team erfolgt aber erst am Ende des Trainees.

Fachwissen wird im SEO Dojo vermittelt. In Form von wöchentlichen Kursen erarbeiten die Trainees auf Grundlage eines Lehrplans selbstständig grundlegende Themen wie zum Beispiel „Wie funktioniert das Internet?“ oder „Die wichtigsten SEO Tools“ und präsentieren sie der Gruppe. Der Lehrplan umfasst ca. 45 Wochen. Vertiefendes Wissen wird in der Web-Netz Academy vermittelt. Hierzu werden Fachreferenten in die Agentur eingeladen, die über tiefergehende Themen referieren. Am Dojo nehmen neben den Trainees auch Azubis und Praktikanten teil.

Ein wichtiger Teil der Ausbildung besteht darin, dass sich die Trainees mit aktuellen News auseinandersetzen und dass sie sich mit Branchenkollegen vernetzen. Zum Beispiel wird darauf geachtet, dass die Trainees an mindestens einer Konferenz pro Jahr teilnehmen. Allerdings scheuen sie sich oft davor andere Branchenmitglieder anzusprechen. Sobald die erste Angst überwunden ist, funktioniert das aber ganz gut.

Um zu kontrollieren, ob die Trainees das Gelernte auch umsetzen können, werden Fragebogen zur Selbsteinschätzung verwendet. Niedrig bewertete Themen werden dann noch einmal aufbereitet.

Nachdem das SEO Dojo erfolgreich durchlaufen ist, geht es an die ersten kleinen Projekte oder die Trainees werden als zweiter Ansprechpartner bei größeren Projekten eingesetzt. Außerdem gibt es noch Einzel-Teachings zu bestimmten Themen. Diese werden dann aber individuell auf die jeweilige Person zugeschnitten und sind eher strategisch ausgerichtet. Es folgen erste Spezialisierungen auf Themen wie mobile, local, Video SEO oder Ähnliches.

Das Trainee-Programm dauert ein Jahr und in der Regel werden die Trainees danach übernommen. Nach einem weiteren Jahr wissen sie im Grunde alles, was sie zu einem vollwertigen SEO macht. Leider verlassen viele gute Leute die Agentur schon nach ca. 2 Jahren, um dann in Unternehmen in Hamburg zu arbeiten, da dort die Verdienstmöglichkeiten höher sind. Das Trainee-Gehalt liegt bei 1.800 Euro, das Gehalt als Junior SEO danach bei 2.500 Euro.

Die Folien zum Vortrag findet ihr hier: https://www.slideshare.net/nicoleliebtpasta/seotrainees-selbst-ausbilden-89657663

Mobile Index – Was ändert sich/Was muss geändert werden? (Maximilian Bloch)

Maximilian Bloch referierte über das Thema Mobile First. Er leitete seinen Vortrag mit einigen Informationen zu der Entwicklung des mobilen Index ein. Seit 2015 gibt es stetig mehr Suchanfragen über mobile Endgeräte. Während sich die Rankings vor einigen Jahren noch primär nach der Desktop Version richteten, ist dies heutzutage nicht mehr der Fall. Nachdem Gary Illyes im Oktober 2016 den Mobile-First-Index ankündigte, wird die mobile Version federführend.

Dabei gibt es laut Bloch folgendes zu beachten:

  • der Main-Content muss auf der mobilen und der Desktop Version vorhanden sein. Dazu zählen auch Headlines, Bilder, Videos und Alt-Attribute
  • die Linkstruktur sollte ähnlich sein
  • die Hreflang-Auszeichnung sollte (evtl. angepasst) vorhanden sein
  • strukturierte Daten sollten gleichwertig sein, sie haben eine hohe Priorität

Ob und wie viel geändert werden muss, ist abhängig von der Art der mobilen Website. Beim Responsive Web-Design bleiben URL und HTML gleich. Beim Dynamic-Serving bleibt lediglich die URL gleich. Bei unterschiedlichen URLs für die Desktop und die mobile Version bleiben weder URL noch HTML gleich. Dementsprechend macht das responsive Webdesign die wenigsten Probleme. Beim Dynamic Serving wird abhängig vom User Agent des anfragenden Geräts unterschiedlicher Inhalt bereitgestellt. Ein Vorteil daran ist, dass eine individuelle Darstellung auf mobilen Endgeräten möglich ist. Ein Nachteil wiederum ist, dass die Auslieferung relevanter Inhalte sichergestellt werden muss. Bei unterschiedlichen URLs gilt es, besonders gut aufzupassen. Die mobile Version muss alle relevanten Daten und Auszeichnungen enthalten. Bei internationalen Seiten ist die Hreflang-Auszeichnung anzupassen.

Bloch betont in seinem Vortrag außerdem, wie wichtig strukturierte Daten für die mobile Version sind. Sie machen das Crawling einfacher und minimieren algorithmische Aufwände.

Die Folien zum Vortrag findet ihr hier: https://seo-atelier.de/mobile-first.pdf

Führen (nicht nur) für SEOs (Sebastian Erlhofer)

Sebastian Erlhofer von mindshape zeigte in seinem Vortrag auf, wie in seiner Agentur Teams geführt werden.

Er unterscheidet zwischen 5 Führungsstilen:

  • Führen durch Zwang: Einer sagt, wo es langgeht, alle anderen folgen. Wer nicht folgt, wird bestraft. Nachteil: Es wird nur das Nötigste gemacht.
  • Führen durch Aufgaben und Prozesse: Es werden den Mitarbeitern konkrete Aufgaben zugewiesen und ihnen gesagt, wie sie diese erledigen sollen. Nachteil: Mitarbeiter denken nicht selber mit. Voraussetzung: Es muss klare Prozesse geben, die auch allgemein verständlich sind
  • Führen durch Ziele: Es werden fixe Ziele definiert und die Mitarbeiter finden selbst Lösungen, um diese zu erreichen. Hilfsmittel dazu sind KPIs, Kennzahlen und Budgets. Nachteil: Das Management ist sehr stark eingebunden.
  • Führen durch flexible Ziele: Manager und Mitarbeiter entwickeln gemeinsam eine Strategie. Das Management gibt den Zeitplan vor. Verantwortung und Überblick sind wichtig.
  • Führen mit Sinn: Vision und Sinn geben die Richtung vor, in die autonom gearbeitet wird. Es gibt eine übergeordnete Ausrichtung.

Welcher Führungsstil der richtig ist, hängt von der Situation und den beteiligten Personen ab. Zum Beispiel sollte ein Trainee anders geführt werden als ein Senior Consultant.

Damit Mitarbeiter sich wohl fühlen und bestmöglich eingesetzt werden können, ist es wichtig, dass der Teamleiter sie gut kennt und einschätzen kann. Dazu sind spezielle Feedback Mechanismen notwendig. Dann können ihre Bedürfnisse erfüllt werden und bleiben auch länger in der Agentur. Bedürfnisse sind zum Beispiel: Sicherheit, Abwechslung, Bedeutsamkeit und Aufrechterhaltung des Selbstbildes, Verbindung mit Kollegen (mit denen man sich austauschen kann), Fairness, Wachstum (nur in Unternehmen, die wachsen, gibt es die Möglichkeit, sich weiterzuentwickeln und aufzusteigen), Sinn und Beitrag (die Arbeit hat auch für die Mitarbeiter einen Sinn).

Damit Mitarbeiter richtig gefördert werden und sich wohlfühlen, gibt es Prozesse. Dazu gehören Mitarbeitergespräche, in denen geklärt wird, wo sich der Mitarbeiter selber sieht und wo er hinmöchte. Außerdem sollten persönliche Ziele berücksichtigt werden. Die Gespräche können in unterschiedlichen Zeitabständen stattfinden:

  • Jahresgespräch: relativ selten, innerhalb eines Jahres können sich viele Dinge anstauen. Man merkt nicht, wann ein Mitarbeiter unglücklich wird.
  • Halbjahresgespräch: Auch hier ist die Zeitspanne sehr groß
  • One-on-One: Alle 2 bis 4 Wochen, eventuell auch jede Woche, 30 Minuten, „Wie ist der Stand der Dinge?“, 15 Minuten redet der Teamleiter, 15 Minuten der Mitarbeiter, danach wird alles notiert. Wichtig ist, dass diese Gespräche nicht ausfallen. Sonst fühlt sich der Mitarbeiter nicht ernst genommen und nicht respektiert.

Damit der Fokus nicht verloren geht, dürfen Teams aus maximal 5 bis 7 Personen bestehen. Grundsätzlich sollte man sich immer auf die stärksten Teammitglieder konzentrieren und das sind nicht immer die, die sich in den Mittelpunkt stellen. Regelmäßig sollte klassifiziert werden, wer im Team stark ist und wer eher schwach (High-Performer, Mid-Performer, Low-Performer).

Ein weiterer wichtiger Punkt sind Werte, die das Unternehmen vertritt. Damit Alle Mitarbeiter dieselben Werte leben, sollte schon bei der Einstellung neuer Mitarbeiter geprüft werden, ob dies der Fall ist. Dann passen neuen Mitarbeiter auch ins Team.

Außerdem muss klar sein, dass auch Fehler gemacht werden dürfen. Ohne Fehler kann man nicht lernen. Allerdings muss es klares Feedback zu Fehlern geben, damit ein Mitarbeiter auch weiß, was schlecht gelaufen ist. Bei Fehlern, die geschäftsgefährdend sind, sollte aber eingegriffen werden.

Ein weiterer wichtiger Punkt sind Krisengespräche. Vorwürfe sind hier nicht zielführend. Stattdessen sollte man dem BAHN-Prinzip folgen:

  • Beobachtung: Objektiv beschreiben, was schiefgelaufen ist
  • Auswirkung: Was ist dadurch passiert?
  • Hintergrund: Warum ist es schlecht, dass das passiert ist?
  • Nächster Schritt: Was kann man machen, damit das beim nächsten Mal anders läuft?

Trotzdem gibt es auch Situationen, in denen man damit nicht weiterkommt und man mit Sanktionen fortfahren muss. Diese lassen sich in folgende Abstufungen einteilen:

  • Körpersprache
  • Direktes Feedback oder indirektes Feedback (Lob des Konkurrenten)
  • Eigene Präsenz erhöhen
  • Androhung von Sanktionen
  • Sanktionen (z.B. Entzug des Home Office, Kaffees etc.)
  • Kündigung
  • Anzeige / Polizei

SEO Relaunches (Rhea Moore)

Rhea Moore stellte in ihrem Vortrag das Vorgehen bei einem SEO Relaunch vor. Sie unterscheidet dabei vier unterschiedliche Phasen. Nach der Initiierung folgt die Planungsphase. Die Durchführung ist der dritte Schritt und der Abschluss der letzte.

Bei der Initiierung geht es vorrangig darum, sieben W-Fragen zu klären.

  1. Was wird verändert?
  2. Wo stehen wir gerade?
  3. Warum wird gelaunched? (Gibt es ein strategisches Ziel? Soll ein akutes Problem gelöst werden? Soll der Umsatz gesteigert werden? Ist es aus SEO oder Usability Sicht notwendig? Gibt es S.M.A.R.T.e Ziele?)
  4. Wer ist alles beteiligt? (Hier kann man das so genannte RASCI Modell anwenden)
  5. Wie Ziele erreichen? (Arbeitspakete mit Deadlines festlegen)
  6. Wann?
  7. Wieviel? (Budgetplanung)

Die Planungsphase setzt sich auf drei verschiedenen Stufen zusammen. Hier sind zunächst eine umfassende Bestandsaufnahme und die Ermittlung eines Status Quo des Projekts erforderlich. In der nächsten Stufe sollte sich tiefergehend mit dem Content befasst werden. Ein Content Audit macht an dieser Stelle Sinn, um zu schauen, welche Inhalte gut und welche schlecht performen. Ein letzter Schritt sieht ausgiebiges Testing mit System vor.

Bei der Durchführung ist das A&O alle Beteiligten zu informieren. Auf diese Weise verhindert ihr, dass zum Beispiel Anzeigen noch auf alte URLs laufen. Wichtig ist auch, dass hier in dieser Phase das Tracking richtig einrichtet.

In der Abschlussphase geht es ums Monitoring und um die Analyse. Hier solltest ihr euch fragen, was eure KPIs sind und euch über eure Zielerreichung und Learnings Gedanken machen.

Weniger ist mehr – Indexierung bei Otto (Jan Wölk & Johannes Jansen)

Jan Wölk und Johannes Jansen zeigten in ihrer Session, wie bei Otto entschieden wird, welche Kategorie-Seiten für die Indexierung in Suchmaschinen freigegeben und welche ausgeschlossen werden. Insgesamt gibt es 34.000 Kategorie-Seiten, die indexiert sind. Pro Tag kommen ca. 400 neue Seiten dazu. Jede Landingpage wird dabei immer nur auf ein einziges Keyword optimiert.

Grundlage ist zunächst eine Keywordbase. Anhand einer halbautomatisierten Keywordrecherche werden Themenbereiche identifiziert, für die es sinnvoll ist, eigene Unterseiten zu erstellen. Dabei wird folgende Vorgehensweise verfolgt:

  • Einlesen in das Thema: Was gibt es rund um das Thema alles für Unterthemen
  • Wettbewerbsanalyse: Was macht der Wettbewerb?
  • Keyword-Tools: z.B. hypersuggest, answer the public
  • Anreicherung mit Suchvolumen
  • Bildung von Themenclustern
  • Zuordnung der einzelnen Themen zu entsprechenden Landingpages

Die Bewertung der Keywords erfolgt automatisiert. Relevanz-Kriterien sind zum Beispiel: Suchvolumen, Trends und Suchintention. Anhand dieser Kriterien werden auch Longtail-Keywords ermittelt, für die sich eine eigene Landingpage lohnt.

Das Index-Management bei Otto wurde früher so betrieben, dass grundsätzlich jede Seite erst einmal in den Index gelassen wurde. Nachträglich wurden dann die Seiten auf noindex gesetzt, die keine Relevanz hatten. Dadurch sind viele Seiten in den Index gelangt, die qualitativ schlecht waren, z.B. weil sie wenig Inhalte hatten und es nur wenige Produkte in der Kategorie gab. Heute läuft das Ganze umgekehrt. Jede neue Kategorie-Seite steht erstmal auf noindex und wird dann manuell für die Indexierung freigegeben, wenn sie relevant ist. Ob eine Seite relevant ist, wird anhand der Artikelzahl, des Suchvolumens und des Clusters ermittelt.

Um die weniger wichtigen Kategorien erst einmal aus dem Index zu bekommen, wurden in einem Schritt 60% der URLs auf noindex gesetzt. Es dauerte sechs Monate, bis diese alle deindexiert waren. Von ehemals 84.000 Kategorien waren danach nur 30.000 Kategorien im Index. Trotzdem gab es keine Einbrüche im Traffic.

Aber auch URLs, die eigentlich für die Indexierung vorgesehen sind, werden manchmal nicht indexiert. Dann wird geprüft, woran das liegt:

  • Wann wurde die URL auf index gestellt?
  • Wurde die URL bereits abgerufen über die Search Console?
  • War die URL jederzeit in der Sitemap?
  • Ist die URL erreichbar?
  • Ist die URL in der robots.txt ausgeschlossen?
  • Wird ein Canonical Tag falsch verwendet?
  • Hat die URL den Status Code 200?
  • Hat die URL keine Relevanz?
  • Ist der Inhalt qualitativ hochwertig?
  • Liegt eine Kannibalisierung vor?
  • Gibt es zu wenig interne oder zu viele externe Links?

Meistens kann so die Ursache ermittelt werden.

Bilder SEO 2018 – Viele neue Rankingfaktoren (Martin Mißfeldt)

Seit dem Update im Februar 2017 ist der Traffic von Bildern stark eingebrochen. Martin Mißfeldt leitet seinen Vortrag mit der Frage ein, ob die Google Bildersuche tot sei, um diese direkt zu verneinen. Denn für das organische Ranking ist Bilder SEO sehr wichtig. Er teilt die Optimierung von Bildern in Onpicture-SEO und Onpage-SEO auf. Zum Onpicture-SEO gehören die Optimierung der Bildqualität, die Exif-Daten, das Branding, die Komprimierung, die Benennung sowie das Speichern der Bildversion. Zum Onpage-SEO zählen unter anderem die Alt-Texte, die Bildunterschriften sowie Höhe und Weite. Diese Faktoren lassen sich im Nachhinein noch anpassen. Die Alt-Texte und die Bildunterschriften bieten die Möglichkeit, genau zu beschreiben, worum es auf dem Bild geht. Zur Bild-Optimierung gehört auch die Platzierung. Das Bild sollte zu dem umgebenden Text passen. Dabei ist die Überschrift vor dem Absatz, in dem sich das Bild befindet besonders relevant.

Martin Mißfeldt auf der SEO Campixx 2018

Martin Mißfeldt auf der SEO Campixx 2018

Mißfeldt sieht die (richtige) Verwendung von Bildern als große Chance in der organischen Suche. Voraussetzung dafür sind Bilder, die zum Inhalt der Website passen und gut sind. Außerdem sollten sie optimiert sein, damit auch der Googlebot sie erkennt.

Die Benefits des Bilder SEOs sieht Mißfeldt in der Steigerung des Lesevergnügens, im Schaffen von Einzigartigkeit, in der Verbesserung der Rankings sowie im Verstärken von positiven Nutzer-Signalen. Weitere Informationen zum Vortrag findet ihr auf seinem Blog.

Content Recycling: Neuen Content erstellen oder alten Content überarbeiten? (Martin Witte)

Martin Witte von SEO Profession zeigte in seinem Vortrag auf, wie mit Hilfe von der Überarbeitung alter Inhalte der Traffic deutlich gesteigert werden konnte.

Es gibt die Theorie, dass neuer Content auf Websites sehr wichtig ist. Je mehr Inhalte eine Website hat, desto relevanter ist sie und desto mehr neue Rankings erhält sie. Aber stimmt das auch?

Eine andere Theorie besagt, dass die Überarbeitung bestehender Texte sinnvoller ist. Die URLs haben bereits einen gewissen Trust bei Google, weil sie schon länger existieren. Durch eine Überarbeitung erhalten sie einen Ranking-Boost. Außerdem nimmt die Überarbeitung vorhandener Inhalte weniger Zeit in Anspruch als das Erstellen komplett neuer Texte. Soweit die Theorie.

Um zu prüfen, welche dieser Theorien eher zutrifft, nahm Martin eine Case Study vor. Grundlage waren News-Portale und Online-Magazine. Hier gab es 7.000 URLs mit Traffic, doch 80% des gesamten Traffic wurde durch nur 500 URLs generiert. Die schlechtesten 4.000 Seiten bringen gerade mal 1,2% des Traffics. Bei der Analyse wurde deutlich, dass der meiste Traffic über alte Artikel generiert wurde. Die älteren Artikel waren 10-mal erfolgreicher als die neuen.

Daraus abgeleitet beschloss Martin sich vor allem auf die Überarbeitung alter Artikel zu konzentrieren: 20% neue Artikel und 80% Überarbeitung alter Artikel. Doch welche Artikel sollten aktualisiert werden? Folgende Kriterien wurden dazu herangezogen:

  • Schwellenkeywords (über Sistrix identifizieren)
  • URL-Wechsler / Kannibalisierung
  • URLs mit hohen Seitenaufrufen aber wenig organischen Einstiegen

Wichtig ist auf jeden Fall, sich erst genau zu überlegen, welche Inhalte Sinn machen und nicht munter drauflos zu überarbeiten.

Techniken für die Überarbeitung:

  • Wenig, aber gut überarbeiten
  • Nur nachgefragte Inhalte überarbeiten (Suchvolumen)
  • Content aufwerten und anreichern
  • Content Distribution: Wie können die Inhalte anschließend noch verbreitet werden?
  • Interne Verlinkung verbessern
  • URL-Recycling: Inhalte, die sich nicht für eine Überarbeitung anbieten, stattdessen wird die URL mit neuem Inhalt versehen

Tools helfen bei der Überarbeitung und Optimierung für Google (WDF*IDF Tool von Ryte, Searchmetrics Content Experience, Termlabs.io oder Answer the public)

Inzwischen bringen die Top 40 Artikel mehr als 42% des organischen Traffics. Die Überarbeitung hat aber nicht bei jedem Artikel positive Effekte gezeigt. Von 50 überarbeiteten Artikel haben sich 37 verbessert.

Erkenntnis:

  • Bestehender Trust hilft
  • Die Überarbeitung der Texte hat insgesamt eine Ranking-Verbesserung erzeugt
  • Aber: Content Recycling spart keine Zeit. Teilweise ist die Überarbeitung der Texte sogar deutlich aufwändiger als die Erstellung neuer Inhalte.

Zusammenfassende Tipps:

  • Sprünge in die Top 20 sind durch die Überarbeitung der Inhalte schnell möglich
  • Kein Inhalt geht direkt nach oben, meistens gibt es eher ein auf und ab
  • Content Recycling ist aufwändig
  • Vorher recherchieren, wo es sich lohnt
  • Content muss immer wieder angepasst werden
  • Optimierung nach Suchintention ist ein großer Hebel; nicht rein auf die Keywords konzentrieren
  • Content ist nie fertig, aber manchmal ist das Ziel erreicht

Content & SEO – Failure is predictable (Thomas Mindnich)

Thomas Mindnich stellte in seinem Vortrag die These auf, dass Versagen vorhersehbar ist. Damit bezieht er sich auf die Positionierung von Websites in den SERPs. Hier gibt es eine magische Grenze für relevante Inhalte. Nach Mindnich gibt es aber zu viele Rankingfaktoren, als dass es eine pauschale Antwort auf die Frage gibt, welche Maßnahme zu einem besseren Ranking führt und welche nicht. Ein Blick auf das „relevant Set“ von Google, also auf die Top Suchergebnisse, die oberhalb der magischen Grenze stehen, ermöglicht keine genaue Analyse. Dazu müsste man sich auch mit all den schlechter positionierten Suchergebnissen befassen, was aufgrund der Menge kaum möglich ist. Nach Mindnich ist es also schwierig vorherzusagen, was bei der Content Optimierung funktioniert, wohl aber, was nicht funktioniert.

Voraussetzung dafür ist, dass das SEO-Fundament passt. Eine große Hilfestellung bietet hier unter anderem die Google Search Console. Die Richtlinien sollten gelesen und eingehalten werden. Wichtig ist auch, dass ihr euch die Information-Retrieval-Theorie vor Augen haltet.

Ein passendes SEO-Fundament verzichtet auf Storytelling. Storytelling ist schwer mit SEO-Anforderungen zu vereinbaren, da kein Fokus auf der relevanten Query liegt. Es gilt zwischen Main Content und Supplementary Content zu unterscheiden sowie die Gewichtung der einzelnen Website Bereiche zu beachten. Der Footer ist beispielsweise weniger gewichtig, als der Title einer Seite. Eine weitere Hilfestellung sind die Google Quality Rater Guidelines.

Wichtig ist auch, dass ihr den User-Intent beachtet. Mindnich unterscheidet hier zwischen:

  • navigational (eine bestimmte Seite soll erreicht werden)
  • informational (Informationen und Wissen werden nachgefragt)
  • transactional (es soll eine Aktivität ausgeführt werden)

Bei der Suchabsicht ist zudem die Customer Journey zu berücksichtigen.

Abschließend führt Mindnich die Punkte Unique Content und holistische Inhalte auf, wobei ihr beim Unique Content stets das Interesse und die Nachfrage im Auge behalten solltet.

Networking und Rahmenprogramm

Der Fokus der Campixx lag auch in diesem Jahr nicht alleine auf den Vorträgen. Die besten Infos erhält man meist doch in den Gesprächen mit den Branchenkollegen und für Networking war zwischen den Sessions immer genug Zeit. Und auch das Rahmenprogramm hatte wieder viel zu bieten mit „Wer wird SEOnär“ und anschließender Party.

Fazit

Auch nach 10 Jahren hält die SEO Campixx immer noch das, was sie verspricht. Vielen Dank für die Organisation an Marco Janck und sein Team!

Weitere Recaps

Fehl euer Recap noch? Sagt einfach bescheid und wir verlinken euch.

ppcm-logo

PPC Masters 2018 – Unser Recap

 „Das Event für alle, die mit Klicks handeln!“ – hiermit lockte die fünfte PPC Masters Konferenz mit rund 300 Teilnehmern am 22.02.2018 nach Berlin. Die PPC Masters  fand 2014 zum ersten Mal statt und ist seit 2015 in Berlin in wechselnden Locations. 17 nationale und internationale Speaker bereicherten dieses Jahr das Event mit spannenden Vorträgen und vermittelten neben brandaktuellem Wissen auch praktisches Know-how. Es wurden Themen rund um SEA, SEO, Facebook und Google Analytics aufbereitet.

Marc Rüsing von Performics aus Düsseldorf eröffnete die Konferenz und freute sich auf einen aufregenden Tag, bei dem für jeden Geschmack etwas dabei sein wird.

Willkommen bei den PPC Masters in Berlin

Willkommen bei den PPC Masters in Berlin

Customer Journey in Google Analytics

Christian Vollmert, Geschäftsführer von lunapark, war an diesem Tag selbst Referent und hielt einen Vortrag über „Google Analytics und die Customer Journey“. In seinem Vortrag zeigte Christian, wie in Google Analytics eine Customer Journey betrachtet werden sollte und welche Einstellungen notwendig sind, um wichtige Insights sowie Optimierungen ableiten zu können.

Christian Vollmert auf der PPC Masters 2018

Christian Vollmert auf der PPC Masters 2018

Christian erläuterte wie mit der Customer Journey umgegangen werden sollte und wie der Kunde am besten abgeholt werden kann. Oftmals ist es schwierig Unternehmen die Bedeutung der Customer Journey verständlich zu machen. Viele wollen nur Conversions und Transaktionen generieren, vernachlässigen aber die notwendigen Steps, die dazu geführt haben, dass die Conversion überhaupt stattfinden konnte. Die Wichtigkeit dieser einzelnen Touchpoints des Kunden mit dem Produkt oder Unternehmen ist ihnen nicht bewusst. Die Dauer der Customer Journey ist dabei vom Produkt abhängig und kann variieren.

Wichtige Voraussetzung um die Customer Journey richtig zu interpretieren, ist die Auseinandersetzung mit den Webanalyse-Daten. Je größer eine Website ist, umso wichtiger ist es sich mit der Datenerfassung und Auswertung und der Customer Journey zu beschäftigen. Leider bleibt dies in der Praxis meistens auf der Strecke.

Um sich der Customer Journey zu nähern, sollten folgende Fragen aus Nutzersicht / Kundensicht gestellt und beantwortet werden:

  • Was will der Kunde?
  • Aus welcher Perspektive kommt der Kunde?

Eine Auseinandersetzung mit der eigenen Zielgruppe ist außerdem unerlässlich.

Gründe, warum im Unternehmen die Customer Journey noch nicht definiert ist, sind meist:

  • Aufwand
  • Wettbewerb
  • Mangelnde Qualität der Daten: Datengrundlage ist nicht richtig (es werden nicht alle Zugriffe erfasst etc.)
  • Fehlendes Know How im Unternehmen

Vorgehensweise Customer Journey:

  1. Customer life circle in Google Analytics
  2. Drei Blickwinkel Digital Analytics: Akquise (welche Kanäle sind relevant), Conversions (welche Ziele), Verhalten (welche Inhalte sind relevant? Wetter, Service, Anreise, Veranstaltung etc.)
  3. Google Analytics Workflow: Ziele & Tracking Konzept, GTM, Analytics analysieren, UTM Parameter, Dokumentation/Tracking

Der Tipp an dieser Stelle: Channel Gruppierung: Die Pflege der Channels und Zuordnung ist ein elementarer Faktor (Hinweis: bei „Direct“ schauen, dass Newsletter nicht reinläuft).

Ebenso ist es interessant die „Multi Channel“ zu betrachten, sprich wie kommen die Leute und über welche Pfade auf die Website. Hier kann immer tiefer analysiert werden. Es empfiehlt sich die Channels regelmäßig zu untersuchen und dann gezielt neue Kampagnen darauf auszurichten.

Mit dem Nutzer Explorer könnt ihr anhand von Kunden-IDs sehen, wie oft ein Nutzer auf der Seite war, bevor er konvertiert hat. Somit können relevantere Zielgruppen erreicht werden (Segmentierung auf Teilbereiche Nutzer/Geräte/seitenmäßig). Auch die Berichte unter Conversions sind interessant: Multi Channel (Ecommerce).

Zum Schluss wurde noch die 10/90 Regel vorgestellt. Diese besagt, dass von 100€ Budget in etwa 10€ in das Tool (Google Analytics) und 90€ in Leute investiert werden sollte, denn es wird Fachpersonal mit richtigen Know How benötigt, um dies alles gewinnbringend umzusetzen.

Hier sind die Folien zum Vortrag:

AdWords 15mal besser machen

Martin Röttgerding (Bloofusion) verriet uns in seinem Vortrag 15 Tipps, mit denen sich die Anwendung und Arbeitsweisen in AdWords optimieren lassen. Sein Sammelsurium an Tipps und Tricks lässt sich grob in vier Bereiche aufteilen:

  • Suchpartner
  • Benutzerdefinierte Spalten
  • Feedbasierte Anzeigen & Subfeeds
  • Remarketing
Martin Röttgerding verrät 15 Tipps zum besseren Umgang mit Google AdWords

Martin Röttgerding verrät 15 Tipps zum besseren Umgang mit Google AdWords

Angefangen mit dem Thema Suchpartner. Um die Suchnetzwerkpartner (z.B. Suchleisten auf web.de, gmx oder t online) richtig handzuhaben und einschätzen zu können, ob eine Aktivierung für die eigenen Kampagnen sinnvoll ist, ist eine Betrachtung der Performance Werte unerlässlich. Oftmals haben die Suchpartner viele Impressionen, aber eine niedrige CTR. Da stellt sich die Frage, wie das sein kann. Der Grund hierfür ist, dass die Anzeigen nicht nur in den normalen Suchergebnissen erscheinen, sondern auch in den Ergebnissen von Shoppingportalen (ebay, Amazon). Hier werden die Anzeigen meist ganz unten, nach allen Shoppinganzeigen ausgespielt und die wenigsten Nutzer scrollen überhaupt so weit runter. Beim Aufruf der Seite wird aber bereits eine Impression gezählt, egal wie weit runtergescrollt wird.

Da diese beiden Bereiche nicht ausgeschlossen werden können, ist der Tipp hier sich nicht verwirren zu lassen und über benutzerdefinierte Spalten z.B. nur die Google CTR anzeigen zu lassen ohne Suchpartner. So sind die Zahlen viel aussagekräftiger. Außerdem zeigen Shoppingportale nicht nur Anzeigen in den Suchergebnissen an. Suchanfragen werden auch künstlich kreiert, was wiederum die Daten verwässert. Diese künstlichen Suchanfragen gilt es aufzuspüren und auszuschließen. Auch dies kann über benutzerdefinierte Spalten bewerkstelligt werden. Generell ist es ratsam, die Suchpartner-Option zu testen und das weitere Vorgehen von den Werten abhängig zu machen.

Mit benutzerdefinierten Spalten könnt ihr Daten einfacher analysieren und dadurch Zeit einsparen. Ein Problem dabei ist die durchschnittliche Positionsangabe, denn die Definition ist hier unklar. Da in Google die Anzahl der Anzeigen über und unter den organischen Suchanzeigen variiert (meist zwei bis vier Anzeigen), ist es ratsam statt der durchschnittlichen Position den Anteil der Toppositionen (Top-Anteil) zu betrachten. Dieser Wert kann über die benutzerdefinierten Spalten hinzugefügt werden. Des Weiteren ist es möglich noch spezifischere Werte wie typische Ergebniskennzahlen einzublenden (z.B. Kosten-Umsatz-Relation, Gewinn) oder zusätzliche CPA- und KUR-Kennzahlen (Beispiel: Ersparnis gesamt).

Bei den feedbasierten Anzeigenanpassungen gab Martin den Tipp Aktionstexte mit Anzeigenanpassungen auszutauschen. Dies ist ratsam, wenn häufig bestimmte Aktionen stattfinden. Hierfür wird ein Datenfeed mit nur einer Spalte und einer Zeile benötigt. So können Daten simple ausgetauscht werden. Das ist zwar nicht für jeden interessant, wenn aber Texte in Anzeigen öfters ausgetauscht werden müssen, erleichtert dieses Vorgehen eure Arbeit. Ein weiterer Tipp: Aktionen im Vorfeld einrichten. Hier variieren Faktoren wie das Start und Enddatum, Planung nach Wochentag und Tageszeit.

Beim Remarketing ging es zunächst um das Problem, dass es häufig Überschneidungen gibt und Nutzer gleichzeitig in mehrere Zielgruppen fallen. Dies erschwert die Analyse. Daher ist es ratsam trennscharfe Gruppen einzurichten.

Ein Tipp: Hinterfragt die Standardzeiträume. Als Standard-Gruppenzugehörigkeit sind standardmäßig 30 Tage hinterlegt. Ob dies Sinn macht, ist vom Einzelfall abhängig, denn häufig sind mehrere Zeiträume interessant (und diese sollen überschneidungsfrei dargestellt werden).

Martin brachte hier ein Fallbeispiel von einer „Dynamischen Remarketing Kampagne“, die in den letzten 30 Tage insgesamt ein gutes Ergebnis hervorgebracht hatte. Für die Auswertung sollte nun festgestellt werden, wie die Performance an den einzelnen Tagen war. Das Ergebnis wurde dazu auf Umsatz pro Tag heruntergebrochen und es stellte sich heraus, dass in den ersten drei Tagen das beste Ergebnis erzielt wurde. In den Tagen danach ging es rapide herunter und die letzten Tage generierten nur noch knapp ein Drittel des Umsatzes.

Nun will man natürlich noch wissen, wann der Umsatz in den ersten Tagen hauptsächlich generiert wurde. Genauere Untersuchungen ergaben, dass direkt am Anfang – am ersten Tag – zwei Drittel des Umsatzes generiert wurden (84%) und die Tage darauf nur noch minimal konvertiert wurde. Es lässt sich zwar nicht sagen, in welcher Stunde die Leute auf die Seite kamen und einen Kauf tätigten, aber Martin vermutete, dass der Großteil der Nutzer bereits kurz davor auf der Seite war und wieder zurückkehrte. Deswegen kann man nicht mit Sicherheit sagen, wie viele Leute auch ohne Remarketing einen Kauf getätigt hätten – „wahrscheinlich aber sehr Viele“ (Vermutung von Martin).

Ein weiterer Tipp: kleinteilige Remarketing Kampagnen. Die Empfehlung ist hier mehrere kleinere Kampagnen zu erstellen – sprich 30 Zielgruppen für je einen Tag, da die ersten Tage – wie sich im Fallbeispiel zeigte – wertvoller sind.

Das Problem bei kleinteiligen Kampagnen ist jedoch die Google AdWords Anforderung von mindestens 100 Cookies pro Zielgruppe. Dies betrifft vor allem Kampagnen mit wenigen Besuchern oder speziellen Kombinationen. Die Lösung ist es dies auf Anzeigengruppenebene auszusteuern – sprich: Zielgruppe Besucher 10 Tage und Ausschlüsse 9 Tage. Dieser Tipp ist jedoch nur sinnvoll für Remarketing und nicht RLSA.

Hier ist der Link zur Präsentation von Martin Röttgerding: http://bloo.link/ppcmasters18

Sixt – Automatisierung im SEA mit Hilfe von Google Big Query

Im Vortrag von Philipp Mainka von Sixt ging es darum, wie mit Hilfe von Automatisierungsprozessen der Aufwand bei der Kampagnenaussteuerung in Google AdWords minimiert werden kann. Mit Google Big Query lässt sich hier viel Zeit einsparen.

Philipp Mainka zu Automatisierungsprozessen

Philipp Mainka zu Automatisierungsprozessen

Philipp Mainka betreut den Bereich SEA für Sixt International. Für ihn ist es wichtig, die Kampagnen unter dem „SEA Destination View“ zu betrachten. Das bedeutet, dass sowohl inländische Suchanfragen, als auch Suchanfragen aus anderen Ländern auftreten. Sprich, es kann ein Amerikaner in Amerika nach einem Mietauto suchen, aber auch ein Brasilianer nach einem Mietauto in Amerika. Aus diesem Grund werden so gut wie alle Länder mit SEA Anzeigen bespielt und deshalb gibt es eine Vielzahl an mehrsprachigen Accounts, was sehr viel Aufwand bei der Kampagnenpflege mit sich bringt. Aus diesem Grund starteten sie bei Sixt mit den Automatisierungsprozessen.

Im Folgenden werden einzelnen Schritte beschrieben, die Philipp und sein Team durchlaufen haben und erklärt, auf was dabei alles geachtet werden muss.

Der erste Schritt bestand darin zu identifizieren, wo am meisten Zeit aufgewendet wird. Dies fällt überwiegend auf das Kampagnenmanagement inkl. Betreuung, auf das Reporting (z.B. Auctions Insight gibt’s nicht auf MCC Ebene) und auf das Bid Management.

  1. Reporting/Datenzusammentragung/Tabelle/BQ

Aufgabe ist es alle Daten in ein Tool zu bündeln und ein Database-Managementsystem (Datenbank) aufzubauen. Dies funktioniert über die Google Cloud und Big Query ganz leicht, denn das Interface ist leicht verständlich und die Integrationsfunktion ist selbsterklärend. Es muss nur einmal der Datentransport aktiviert werden und dann wird es immer automatisch aktualisiert.

  1. Täglich automatisieren

In der Datenbank werden aus vielen Tabellen die nötigen Daten zusammengezogen. Es ist sinnvoll die Daten zusätzlich mit wichtigen Infos anzureichern (z.B. Verfügbarkeit etc.). Damit sich die Daten täglich aktualisieren, muss ein Apps Script (automatische Trigger Rules setzen oder SQL Queries in Big Query abspeichern) erstellt und eingebaut werden.

  1. Datastudio Connectors

Da die Daten bereits vorher zusammengeführt und ausgewertet werden, lädt Data Studio schneller. Mit Data Studio können Dashboards gebaut werden, mit denen die zuständigen Manager dann arbeiten können. (MCC Operational Dashboards: aktive ad groups/accounts, Erweiterungen, wo sind abgelehnte Anzeigen etc.?). Wenn einmal Big Query bereitgestellt ist, hat das ganze Team Spaß daran auszuprobieren und es werden hilfreiche Berichte erstellt.

  1. Kampagnenmanagement

Der zweite Bereich betraf das Kampagnenmanagement und insbesondere das Keyword-Verwaltung. Anzustreben ist stets eine Keyword Expansion/Ausweitung, denn es gibt unaufhörlich neue Keywords und Kombinationen, die wichtig sind. Best Practice wäre, wenn die Suchanfragen vorklassifiziert werden. Die Daten sind bereits in Big Query in den Suchanfragen vorhanden. Nun gilt es die Keywords anhand folgender Faktoren zu klassifizieren:

  1. Welche Sprache?
  2. Welche Location? (z.B. Stadtname)
  3. Welche Marke/Unternehmen (Brand oder Wettbewerber, Contact, eigene Dictionaries aufbauen und erweitern mit Kategorien)
  4. GEO Expansion via Place API

Hier wird noch längst nicht alles richtig zugeordnet und so wird manuell nicht Erkanntes zum Dictionary hinzugefügt, aber das maschinelle Lernen nimmt stetig zu.

Das Ziel und die Idee dahinter ist es, die Daten in Struktur zubringen, um diese besser auszuwerten und so den Keywordpool enorm anzureichern.

  1. Bid Management

Das Bid Management soll automatisiert werden, aber hier ist es schwierig ein gutes Tool zu finden. Bisher hat Philipp nur eine Semi-Automatisierung bewerkstelligen können, aber sein Ziel ist es sich auch hier die Arbeit zu erleichtern. Der erste Schritt besteht darin Regeln zu definieren, wie generell beim Bid Management vorgegangen werden soll. Danach können diese Regeln in die Datenbank eingearbeitet werden (SQL). Dadurch ergeben sich bereits eine Menge Vorteile:

+ regelbasiert

+ low volume möglich

+ eigene Cluster erstellt

+ Brand separat betrachtet bzw. in Entscheidung für CPC integriert

Und das alles ist auf Basis von Big Query möglich.

Neben dem positiven Effekt der Zeitersparnis ist durch die Automatisierung zudem die Account-Pflege deutlich besser geworden. Außerdem ist durch die Erstellung passend zugeschnittener Dashboards Transparenz gewährleistet und die zuständigen Personen finden alle wichtigen Informationen übersichtlich aufbereitet.

Philipp startete vor einem halben Jahr mit seinem Team in München und ist stolz wie weit sie in dieser Zeit gekommen sind. Wir können dem nur zustimmen und sind gespannt was auf der nächsten Konferenz darüber berichtet wird.

Die perfekte Symbiose von SEA und SEO

Désirée Kellner von morefire aus Köln plädierte in ihrem Vortrag dafür SEA und SEO nicht als isolierte Einzelmaßnahmen anzusehen, sondern als ganzheitliches Suchmaschinenmarketing. Dadurch kann für den jeweiligen Kunden der größtmögliche Effekt erzielt werden. Anhand eines Beispielfalls erläuterte Désirée wie die Bereiche SEA und SEO noch effektiver verzahnt werden können und wie die daraus resultierenden Synergieeffekte einen Nutzen bringen.

Désirée Kellner auf der PPC Masters in Berlin

Désirée Kellner auf der PPC Masters in Berlin

Das Fallbeispiel handelte von einem Problem, vor welchem sie vor geraumer Zeit als SEA Consultant stand:

  • Budgetkürzung bei einem Kunden
  • hoher Wettbewerb
  • hohe Klickpreise

So konnten die Potenziale nicht wirklich ausgeschöpft werden. Désirée stand nun vor dem Problem, dass sie eins von zwei für den Kunden sehr wichtigen, aber sehr teuren Keywords (hoher CPC) pausieren musste. Die Frage: Welches? Sie analysierte die zwei Keywords anhand folgender Faktoren: Performance, Qualitätsfaktor, Suchvolumen. Diese Werte allein machten es aber nicht möglich eine fundierte Entscheidung zu treffen. Daraufhin entschloss sie die Keywords aus Nutzersicht noch einmal näher zu betrachten: „Was sieht der Nutzer?“. In den Suchergebnissen wurde die eigene Anzeige, aufgrund von eingeschränktem Budget, nicht gezeigt. In der Organischen Suche rankte ein Keyword besser, als das andere (Position 3 und 28).

An dieser Stelle ein Exkurs – drei Strategien:

Dual Bidding (SEO braucht immer Zeit bis sich das ganze einläuft)

  • versucht SEA und SEO gut zu positionieren (dafür braucht man viel Budget)
  • besagt, wenn man in SEO und SEA gute Positionen hat, wirkt sich das gut aus auf die SEO Position (laut Google)

Up and Down

Pull Down Strategie

  • erst über SEA dann über SEO, wenn gutes Ranking

Die Entscheidung fiel auf die Dual Bidding Strategie mit dem etwas teureren, aber dem besser positionierten (SEO) Keyword. Da so eine Entscheidung nicht nur für ein Keyword getroffen werden musste, sondern für viele mehr wäre dies manuell sehr viel Aufwand gewesen. Deswegen wurde ein Skript geschrieben, das die organischen Rankings direkt in AdWords reinzieht und zudem ein Label (Position <2/2-5/5-10) erstellt, welches auf einen Blick erkennen lässt, welches Keyword wo positioniert ist. Dies läuft vollautomatisch über die API.

Das Fazit: Was ist wirklich wichtig? Ein Einzelkampf bringt keinem etwas, denn nur ein Zusammenspiel ist erfolgreich und somit sollte enger zusammengearbeitet werden!

Fazit

Mein Fazit über die fünfte PPC Masters Konferenz ist rundum positiv. Es war ein spannender Tag, mit interessanten Referenten und Teilnehmern aus den verschiedensten Branchen auf Unternehmens- und Agenturseite. Ein besonderer Dank an die tolle Organisation dieses Events. Ich freue mich auf das nächste Jahr.

Weitere Recaps

Strukturierte daten mit dem Google Tag Manager integrieren

Strukturierte Daten mit dem Google Tag Manager bereitstellen

Strukturierte Daten werden für die Suchmaschinenoptimierung immer wichtiger. Allerdings ist es nicht immer einfach, diese in den Quelltext der eigenen Website zu integrieren, besonders wenn sich die IT quer stellt. Die Markups lassen sich allerdings auch über den Google Tag Manager integrieren. Wie das geht und wann das Sinn macht, erfahrt ihr in diesem Artikel.

Was sind Strukturierte Daten?

Strukturierte Daten helfen Suchmaschinen dabei, den Inhalt einer Internetseite besser zu verstehen und die Auszeichnung wird von Google durch Rich Results, also hervorgehobene Suchergebnissen, besser in den SERPs (Search Engine Results Pages) angezeigt. Zwar hat Google strukturierte Daten noch nicht als Rankingfaktor bestätigt, aber durch die prominentere Darstellung in den SERPs profitiert man signifikant durch eine bessere CTR (click-through-rate).

Am Thema strukturierte Daten für eine bessere Suchmaschinen-Optimierung kommt man im Jahr 2018 laut mehreren Quellen nicht mehr vorbei. Dies bestätigen moz.com, Searchengineland und Ryte.

Durch die relativ neue Funktion von Google, auch JavaScript zu interpretieren, könnt ihr Schema.org, der Quasi-Standard für strukturierte Daten, über den Google Tag Manager bereitstellen, ohne den Quellcode der Seite anzupassen.

Warum sollte ich strukturierte Daten über den Tag Manager bereitstellen?

Richtig nützlich wird der Google Tag Manager, wenn ihr das Schema über mehrere Plattformen einbauen müsst, da hier verschiedene Technologien verwendet werden können. So kann es vorkommen, dass umfangreiche Vorgaben zum Beispiel im Shopsystem, Blogsystem und auf der mobilen Ansicht bzw. für AMP-Seiten umgesetzt werden müssen.

Die Implementierung ist je nach System einfacher, ist besser zu pflegen und macht euch unabhängig von der IT-Abteilung. In der Regel geht das schneller, ist nicht so fehleranfällig und viel übersichtlicher, als der direkte Einbau auf der Internetseite. Mit dem Vorschaumodus könnt ihr das generierte Schema testen ohne die Änderungen online stellen zu müssen.

Der Nachteil der Integration über den Google Tag Manager besteht darin, dass die strukturierten Daten nur von Google interpretiert werden können. Für andere Suchmaschinen werden sie nicht ausgespielt. Außerdem dauert es länger, bis sie von Google eingecrawlt werden, da sie auf JavaScript basieren.

Wie funktioniert der Google Tag Manager?

Ist der Google Tag Manager einmal auf der Internetseite eingebaut, habt ihr die Möglichkeit Tags, also Skripte oder Code-Bausteine, unabhängig von Entwicklungszyklen und der IT-Abteilung auf eurer Internetseite zu implementieren. Dies ist besonders praktisch, um Nutzerdaten und Events z.B. an Google Analytics und Werbenetzwerke zu übermitteln. Aber auch strukturierte Daten könnt ihr über das JSON-LD Format nachtragen.

Der Google Tag Manager funktioniert im Grunde mit drei Elementen:

  • Tags – Skripte und Snippets, die unabhängig voneinander auf der Internetseite ausgeführt werden. Im Tag Manager gibt es dafür verschiedene Tag-Vorlagen für z.B. Google Analytics. Außerdem können eigene HTML / JavaScript Tags bzw. Tracking Pixel hinterlegt werden.
  • Trigger – Die Trigger stellen die Regeln im Tag Manager dar, wann ein gewisser Tag ausgeführt werden soll. Hier kann z.B. definiert werden, dass Google Analytics auf allen Seiten ausgeführt wird oder dass ein Conversion-Pixel nur auf der Bestellbestätigungsseite gefeuert wird.
  • Variablen – In Variablen sind verschiedene Informationen gespeichert, die bei Aufruf unserer Website gefüllt werden. Mit diesen Variablen können die Trigger ausgelöst und die Tags mit Inhalten befüllt werden. Im Tag Manager gibt es vordefinierte Variablen wie z.B. die aktuelle Seiten-URL.

Mehr Informationen findet ihr in den Artikeln „Google Tag Manager: Vorteile & Anwendungsbereiche“ und „Google Tag Manager Konto richtig einrichten“.

JSON-LD Markup durch den Tag Manager erstellen lassen

Theoretisch müsst ihr die entsprechenden Schema.org Daten im JSON Format nur durch den Tag Manager ausspielen. Für statische Daten, zum Beispiel den Unternehmensdaten, macht das durchaus Sinn. Richtig spannend wird es allerdings, wenn ihr eure strukturierten Daten dynamisch generieren lasst.

Um den Einbau eines dynamischen JSON-LD Scripts zu veranschaulichen, habe ich als Beispiel unsere Blogartikel mit strukturierten Daten ausgestattet.

Schritt 1: JSON-LD Markup erstellen

Die wichtigsten Anlaufstellen für ein passendes Markup sind Schema.org oder die Google Dokumentation.

Das Artikel Markup findet ihr in der Google Dokumentation unter: https://developers.google.com/search/docs/data-types/article

Klickt man in der Dokumentation auf „See Markup“, dann gelangt man direkt auf das eigene Testing-Tool von Google und kann den JSON-LD Beispiel Code direkt anpassen.

In meinem Screenshot habe ich die Felder gelb markiert, die dynamisch gefüllt werden sollen:

Beispiel Code

Beispiel Code

Damit das Markup mit richtig formatierten Variablen gefüllt werden kann und programmierbar wird, müsst ihr den Code aufbereiten. Für WordPress-Seiten gibt es dank Yoast das Yoast’s JSON-LD Script Helper Tool, mit dem ihr euer JSON LD Markup einfach umwandeln könnt.

Den aufbereiteten Code könnt ihr als „Benutzerdefiniertes HTML“-Tag im Google Tag Manager hinterlegen:

Benutzerdefinierter HTML-Tag im Google Tag Manager

Benutzerdefinierter HTML-Tag im Google Tag Manager

Beachtet: „document.write“ muss aktiviert sein.

Schritt 2: Variablen erstellen

Headline

Die Überschrift des Blog-Artikels könnt ihr über den Variablen-Typ „DOM-Element“ abfragen. Als Auswahlmethode wählt ihr „CSS-Selektor“ und in das Feld „Element-Selektor“ tragt ihr den passenden CSS Selektor ein. In diesem Fall reicht „h1“, da hier pro Blogseite nur eine H1-Überschrift verwendet wird:

Variable für h1 Überschrift

Variable für h1 Überschrift

Den „Attributname“ könnt ihr leer lassen, da ihr den Text innerhalb des HTML Elements haben wollt:
<h1 class=“post-title entry-title“ itemprop=“headline“>Strukturierte Daten: Mehr Aufmerksamkeit in den SERPs</h1>

Description und weitere Felder

Als Beschreibung des Textes ist die Meta-Description perfekt. Auf unserer Seite ist die Meta Description wie folgt im HTML-Code eingebaut:
<meta name=“description“ content=“Indem ihr strukturierte Daten auf eurer Website auszeichnet, können Suchmaschinen sie besser verstehen &amp; spielen eure Suchergebnisse auffälliger aus.“/>

Der passende CSS-Selektor ist in unserem Fall:
meta[name=“description“]

Für den Attributnamen tragt ihr „content“ ein, da ihr den Inhalt vom Attribut „content“ abfragen wollt.

Variable konfigurieren

Variable konfigurieren

Die restlichen Felder werden in unserem Fall, dank dem „Yoast SEO-Plugin“ in das HTML geschrieben, und können auch mit CSS-Selektoren angesteuert werden.

Nachdem ihr die Variablen angelegt habt, solltet ihr diese direkt auf der passenden Seite im Vorschaumodus vom Tag Manager testen. Dafür klickt ihr auf der linken Seite bei den Events auf „DOM-Ready“ und überprüft auf der rechten Seite die Variablen-Werte:

Variable testen

Variable testen

Schritt 3: Einen „Benutzerdefinierten HTML“ Tag erstellen

Im Tag Manager könnt ihr jetzt euren angepassten Code mit den Variablen ergänzen. Außerdem gibt es im Artikel-Markup auch Felder, die auf jeder Seite gleich sind und deshalb angepasst werden müssen. In unserem Fall ist das z.B. der Firmenname und das Logo:

Artikel-Markup

Artikel-Markup

Beachtet: „document.write“ muss aktiviert sein.

Schritt 4: Wann sollen die strukturierten Daten ausgespielt werden (Trigger erstellen)

Durch den Trigger könnt ihr genau definieren, wann der Tag ausgespielt werden soll. In unserem Fall ist das jede Seite die „/blog/“ in Seitenpfad enthält, außer den Übersichtsseiten:

Trigger konfigurieren

Trigger konfigurieren

Außerdem bietet es sich an, im Trigger festzulegen, dass man den Tag nur ausführt, wenn die Variable abgefragt wurde, also nicht „undefined“ ist.

Schritt 5: JSON-LD testen und veröffentlichen

Bevor ihr die Änderungen live stellt, solltet ihr im Vorschau-Modus vom Google Tag Manager die Variablen testen und prüfen, ob der Trigger nur bei Blogbeiträgen feuert und nicht zum Beispiel auf der Startseite oder den Übersichtsseiten. Wenn alles soweit gut aussieht, könnt ihr eure Änderungen veröffentlichen und mit dem Testing Tool von Google prüfen.

Fehler bei der Implementierung können dafür sorgen, dass bestehende Rich Results nicht in den SERPs angezeigt werden. Daher sollte immer in der Search Console unter „Darstellung der Suche -> strukturierte Daten“ die Indexierung der einzelnen Seiten beobachtet werden:

Strukturierte Daten in der Search Console prüfen

Strukturierte Daten in der Search Console prüfen

Bitte beachtet, dass Google mehr Zeit für das Indexieren von JavaScript benötigt und dies je nach Größe und Aktualität der Seite ca. 2 bis 4 Wochen dauern kann. Im oberen Screenshot seht ihr, dass mit dem ersten JavaScript Crawl 143 von ca. 200 Blogseiten vom JS Crawler erfasst wurden.

Ihr könnt die Indexierung anstoßen, indem ihr eure sitemap.xml in der Search Console neu einreicht. Bei einzelnen Seiten könnt ihr auch in der Search Console unter „Crawling -> Abrufen & Rendern“ die Indexierung beschleunigen. Durch das Rendern wird automatisch auch das JavaScript ausgeführt und die Indexierung beantragt.

Welche Daten sind ideal, um mit dem Tag Manager umgesetzt zu werden?

Theoretisch können alle strukturierten Daten mit dem Tag Manager bereitgestellt werden. Einzige Ausnahme: Strukturierte Daten-Markups für das Merchant Center

Allerdings durchläuft der JavaScript Crawler seltener die Seite und kann bei einem Crawl nur eine bestimmte Anzahl von Seiten crawlen. Da News und Events zeitkritische Inhalte sind, sollten strukturierte Daten für diese Formate immer durch den Webserver bereitgestellt werden.

Videos

Die Measureschool hat ein kleines Skript entwickelt, welches nach einmaligen Einrichten, automatisch alle YouTube Videos auf eurer Seite mit strukturierten Daten über den Tag Manager ausstattet. Mit der Hilfe der YouTube API werden alle nützlichen Daten, wie das Vorschaubild und die Videodauer bereitgestellt. Die Anleitung findet ihr auf YouTube:

https://www.youtube.com/watch?v=TnCINj0Miy0

Suche – Search Box

Sucht man bei Google nach einer bestimmten Domain oder Marke, wird in den Sitelinks direkt eine Suchbox angezeigt:

Search Box in den SERPs

Search Box in den SERPs

Durch die richtige Einbindung von schema.org, könnt ihr hier stattdessen eure interne Suchfunktion verknüpfen und der Nutzer wird direkt auf die Suchergebnisseite eurer Internetseite geleitet. Das ist besonders sinnvoll, da durch eine neue Google-Suche die Konkurrenz AdWords schalten kann. Die Einbindung mit den Tag Manager ist simpel, da man das angepasste JSON Markup durch den Tag Manager nur auf der Startseite ausspielen muss. Die passende Google Dokumentation findet ihr hier:
https://developers.google.com/search/docs/data-types/sitelinks-searchbox

Produkte

Richtig ausgezeichnet, werden eure Produkte in den SERPs und mobil in der Bildersuche prominenter dargestellt. Der Tag Manager eignet sich bei einem konstanten Produktsortiment sehr gut zur Auszeichnung, da ihr die Bewertungen und Preisinformationen aus dem Produktseiten abfragen könnt.

Strukturierte Daten für Produkte

Strukturierte Daten für Produkte

Rezepte

Damit Rezepte in der mobilen Suche als „Rich Cards“ ausgespielt werden, muss das Rezept als AMP Seite angelegt werden und mit strukturierten Daten ausgespielt werden.

Strukturierte Daten für Rezepte

Strukturierte Daten für Rezepte

Außerdem gibt Google vor, dass die strukturierten Daten der AMP Seite, mit denen der normalen Seite (Canonical Page) übereinstimmen müssen. Für eine optimale Aufbereitung von Rezepten für Google kommt man also nicht daran vorbei, beide Versionen auszuzeichnen. Wie bei den Produkten könnt ihr alle nötigen Variablen aus dem HTML abfragen und die Rezeptseiten genau definieren und triggern.

Die Google Dokumentation zu Rezepten findet ihr hier: https://developers.google.com/search/docs/data-types/recipe

Unternehmensdaten

Wenn eure Seite viel englischsprachige Besucher hat, bietet sich das Auszeichnen der Unternehmensinformationen über den Tag Manager an. Dadurch werden bei google.com Kontaktdaten, das Logo und Social Media Profile in Knowledge Graph angezeigt, wenn der Nutzer direkt nach dem Unternehmen sucht:

Strukturierte Daten für Unternehmen

Strukturierte Daten für Unternehmen

Bewertungen

Wenn bei einem Suchergebnis 4 oder 5 Sterne-Bewertungen angezeigt werden, ist es wahrscheinlich, dass dieses Ergebnis am öftesten angeklickt wird. Außerdem erhält der Nutzer, schon bevor er auf die Seite gelangt, einen guten Eindruck.

Bei der Auszeichnung muss man mehrere Vorgaben von Google beachten:
https://developers.google.com/search/docs/data-types/review

Die Umsetzung mit dem Tag Manager kann komplexer sein, als bei den anderen Beispielen, aber es lohnt sich wegen der positiven Auswirkung auf die CTR.

Fazit

Die Implementierung von strukturierten Daten wird ein immer wichtigerer Bestandteil der Suchmaschinenoptimierung und mit dem Google Tag Manager können SEOs die Maßnahmen selber durchführen und steuern. Da das JavaScript Crawling von Google noch stark weiterentwickelt wird, sollte man, wenn man die Möglichkeit dazu hat, den Einbau allerdings direkt im Quellcode vornehmen. Zudem sind die Daten sonst auch nur für Google interpretierbar, nicht für andere Suchmaschinen. Aber schon heutzutage lohnt sich der Einbau mit dem Google Tag Manger, da es eine sehr effiziente Variante ist, die Sichtbarkeit eurer Website bei Google zu verbessern. Übrigens lassen sich auch noch weitere SEO relevante Vorgaben mit dem Google Tag Manager umsetzen.

Habt ihr spezielle Fragen zum Tag Manager oder zu strukturierten Daten? Nutzt gerne die Kommentar-Funktion, wenn wir euch behilflich sein können.