suchmaschinen amerika

Suchmaschinenmarktanteile Amerika 2017

Während Google in den meisten europäischen Ländern um die 90 % der Suchmaschinen Marktanteile verzeichnet (Suchmaschinen Marktanteile Europa), sieht es auf dem heimischen Markt ganz anderes. Google ist zwar auch in den USA die dominanteste Suchmaschine, aber die ebenfalls in den Staaten ansässigen Suchdienste bing und Yahoo! sind hier stärker als in anderen teilen der Welt.

Wie die Verteilung auf dem Suchmaschinenmarkt in den Vereinigten Staaten und in anderen Ländern des amerikanischen Kontinents aussieht, erfahrt ihr in diesem Artikel. Berücksichtigt wurden dabei die acht amerikanischen Länder mit den meisten Internetnutzern. Die dargestellten Zahlen stammen aus dem Monat November 2017.

Suchmaschinenmarktanteile USA

Auf dem US-Suchmarkt wird eine Schlacht zwischen den Suchmaschinen Google, Bing und Yahoo ausgetragen. Jeder will möglichst viel vom großen Kuchen abhaben und kämpft um jedes Prozent. Auch wenn Google auf dem US-Markt nicht die 90% knacken kann, beansprucht die Suchmaschine trotzdem mit einem Anteil von 88,4% den größten Marktanteil für sich und somit deutlich mehr als doppelt so viel wie bing und Yahoo! zusammen. Außerdem tummeln sich hier noch die Suchdienste DuckDuckGo und MSN, die aber beide deutlich unter 1% liegen.

Suchmaschinenmarktanteile USA 2017

Suchmaschinenmarktanteile USA 2017

Sieht man sich im Vergleich dazu die Zahlen aus 2014 an, ist gut zu erkennen, dass Google in den letzten drei Jahren seinen Vorsprung vor bing, Yahoo! und anderen Suchdiensten weiter ausbauen konnte. Hier waren die anderen Suchmaschinen noch mit etwa einem Drittel vertreten. Ask hatte zu diesem Zeitpunkt noch einen Anteil von 2%, inzwischen ist die Suchmaschinen komplett aus der Statistik verschwunden.

Suchmaschinen Marktanteile USA 2014

Suchmaschinenmarktanteile USA 2014

Suchmaschinenmarktanteile Brasilien

Mit einem Marktanteil von 97,2% ist Google die dominanteste Suchmaschine in Brasilien. Im Gegensatz zu den USA, wo Bing und Yahoo einen beachtlichen Marktanteil verzeichnen, erreichen diese zusammen auf den brasilianischen Markt nur einen Anteil von unter 3%.

Suchmaschinenmarktanteile Brasilien 2017

Suchmaschinenmarktanteile Brasilien 2017

Im Vergleich zu 2014 ist auch hier zu sehen, dass Google nach und nach andere Suchmaschinen verdrängt.

Suchmaschinen Marktanteile Brasilien 2014

Suchmaschinenmarktanteile Brasilien 2014

Suchmaschinenmarktanteile Kanada

In Kanada werden 91,6% der Suchanfragen an Google gestellt. 9% der Kanadier greifen bei ihrer Internet-Suche bevorzugt auf Bing, Yahoo! oder einen anderen Suchdienst zurück.

Suchmaschinenmarktanteile Kanada 2017

Suchmaschinenmarktanteile Kanada 2017

2014 lag Google noch knapp unter 90%. DuckDuckGo hatte sich noch nicht richtig am Markt etabliert.

Suchmaschinen Marktanteile Kanada 2014

Suchmaschinenmarktanteile Kanada 2014

Suchmaschinenmarktanteile Mexiko

95,3% aller Suchanfragen in Mexiko werden von Google bedient. Auf bing entfallen 3,2% der Anfragen und auf Yahoo 1,4%.

Suchmaschinenmarktanteile Mexiko 2017

Suchmaschinenmarktanteile Mexiko 2017

Vor drei Jahren hatte Google noch 3% weniger Marktanteil, dafür hat Yahoo! in der Zwischenzeit mehr als die Hälfte verloren.

Suchmaschinen Marktanteile Mexiko 2014

Suchmaschinenmarktanteile Mexiko 2014

Suchmaschinenmarktanteile Argentinien

Mit einem Marktanteil von 97,3% ist Google die verbreitetste Suchmaschine in Argentinien. Auf bing entfallen 1,4% und auf Yahoo! 1,2%.

Suchmaschinenmarktanteile Argentinien 2017

Suchmaschinenmarktanteile Argentinien 2017

Auch in Argentinien konnte Google seinen Marktanteil im vergleich zu 2014 ausbauen. Der Suchdienst Ask ist auch hier innerhalb der letzten drei Jahre komplett verschwunden.

Suchmaschinen Marktanteile Argentinien 2014

Suchmaschinenmarktanteile Argentinien 2014

Suchmaschinenmarktanteile Chile

In Chile bedient Google rund 98,1% der Suchanfragen. Mit bing werden 1% der Suchanfragen aufgerufen, mit Yahoo! gerade mal 0,8%.

Suchmaschinenmarktanteile Chile 207

Suchmaschinenmarktanteile Chile 2017

 

Suchmaschinen Marktanteile Chile 2014

Suchmaschinenmarktanteile Chile 2014

Suchmaschinenmarktanteile Kolumbien

97,1% der durchgeführten Suchanfragen werden in Kolumbien von Google verarbeitet. Auf bing entfallen 1,2% und auf Yahoo! 1,6%.

Suchmaschinenmarktanteile Kolumbien 2017

Suchmaschinenmarktanteile Kolumbien 2017

In 2014 lag Googles Anteil noch unter 95% und bing und Yahoo! bestimmten zusammen immerhin noch fast 5% des Marktes.

Suchmaschinen Marktanteile Kolumbien 2014

Suchmaschinenmarktanteile Kolumbien 2014

Suchmaschinenmarktanteile Peru

In Peru verzeichnet Google einen Marktanteil von 97,6 % bei Internet-Suchanfragen. Bing erschließt einen Anteil von 1,1% und Yahoo von 1,3%.

Suchmaschinenmarktanteile Peru 2017

Suchmaschinenmarktanteile Peru 2017

Wie in den anderen amerikanischen Ländern erlangt Google auch in Peru immer mehr Marktanteil. In den letzten drei Jahren konnte die Suchmaschine aus Mountain View  nochmal um 2% nachlegen.

Suchmaschinen Marktanteile Peru 2014

Suchmaschinenmarktanteile Peru 2014

Ihr könnt die Grafiken zu den Suchmaschinen Marktanteilen kosten- und rechtefrei einsetzen. Bitte gebt dann aber als Quelle: luna-park GmbH, Köln.
Bei Veröffentlichung bitten wir um Zusendung eines Belegexemplars/ Links.

Suchmaschinenmarktanteile weltweit 2017

Google kann auch 2017 seinen Anteil am weltweiten Suchmaschinenmarkt ausbauen und erzielt dabei 92,1%. Besonders in Europa und  in Deutschland ist der Suchmaschinen-Riese die unangefochtene Nummer 1 unter den Suchmaschinen.

Globaler Suchmaschinenmarkt 2017

Globaler Suchmaschinenmarkt 2017

Der Abstand zum nächstgrößeren Wettbewerber Bing, Microsofts hauseigener Suchmaschine, beträgt, weltweit betrachtet, fast 90%. Globale Nummer 3 mit einem Marktanteil von 1,7%% ist die immer mehr an Marktanteil verlierende Suchmaschine Yahoo!, dicht gefolgt vom chinesischen Suchdienst Baidu. Ein weiterer Suchdienste, der hier auftaucht, ist die russische Suchmaschine Yandex.

Die Suchmaschinenwelt 2017

Obwohl Google in jedem Teil der Welt der Marktführer ist, sind trotzdem regionale Unterschiede im Suchmaschinenmarkt zu erkennen. Gerade in Googles Heimat Nordamerika werden oftmals auch die weiteren Suchmaschinen genutzt. Ganz vorne liegen dabei bing und Yahoo!

In Südamerika oder Afrika hingegen, sind die Marktanteile der anderen Suchmaschinen sehr gering.

In Ozeanien hat es bing geschafft, einen vergleichsweise stattlichen Marktanteil von 4,26 % zu erreichen.

In Asien werden häufig lokale Suchmaschinen wie das chinesische Baidu oder russische Yandex genutzt. Sie kommen kumuliert auf einen Marktanteil von 4,41 %.

Weltweite Suchmaschinen-Nutzung 2017

Weltweite Suchmaschinen-Nutzung 2017

Desktop vs. Mobil vs. Tablet

Googles Dominanz wird noch deutlicher, wenn man die mobilen Suchmaschinenmarktanteile betrachtet. Hier kann der kalifornische Suchriese beachtliche 95% Marktanteil vorweisen, was wohl darauf zurückzuführen ist, dass Google bei den meisten Smartphones als Standardsuchmaschine voreingestellt ist.

Am meisten Marktanteile abtreten muss hierbei bing. Mit einem mobilen Marktanteil von lediglich 0,57% in 2017 wird offensichtlich, dass bing fast ausschließlich von Desktop und Tablet Usern verwendet wird. Ähnliche tendenzen sind bei Yahoo! zu erkennen.

Suchmaschinen Nutzung: Desktop, Mobile und Tablet

Suchmaschinen Nutzung: Desktop, Mobile und Tablet

Entwicklung der Marktanteile der wichtigsten Suchmaschinen

Ein Vergleich mit den Jahren 2014 bis 2016 zeigt, dass Google seinen Marktanteil weltweit weiter ausbaut, bing und yahoo! verlieren dagegen. Allerdings können sich die regionalen Suchmaschinen Baidu und Yandex weiter behaupten und gewinnen an Bedeutung.

Globaler Suchmaschinenmarkt 2016

Globaler Suchmaschinenmarkt 2016

Suchmaschinenmarktanteile Weltweit 2015

Weltweiter Suchmaschinenmarkt 2015

Suchmaschinenmarktanteile

Weltweiter Suchmaschinenmarkt

Entwicklung des Marktanteils von Google

Die Erfolgsgeschichte von Google beginnt im September 1998 in einer Garage in Kalifornien, in der Larry Page und Sergey Brin den Nachfolger ihrer Suchmaschine BackRub in Form von Google gründeten. Betrachten wir die vergangenen 7 Jahre, so lässt sich erkennen, dass Google seine Stellung auf dem weltweiten Suchmaschinenmarkt langfristig sichern konnte. Der Marktanteil liegt konstant um die 90 %. Grund hierfür dürften auch die Kooperationen mit Unternehmen wie AOL und den deutschen T-Online, GMX und Web.de sein, die auf ihren Seiten die Google Suche als Service anbieten.

Entwicklung des Google Marktanteils 2010 - 2017

Entwicklung des Google Marktanteils 2010 – 2017

Entwicklung des Marktanteils von bing

Die Suchmaschine bing, welche von Microsoft als Konkurrenz zu Google gestartet wurde, ist der Nachfolger der Live Search und aktuell die Suchmaschine mit dem zweitgrößten Marktanteil weltweit. Kurz nach dem offiziellen Start der Beta Version in 2009, wurde mit Yahoo! eine strategische Partnerschaft insbesondere im Werbebereich, das Yahoo! bing Network, geschlossen.

In einigen Ländern liegt der Marktanteil von bing deutlich höher. So berichtete zum Beispiel Michael Schöttler im SEO Portal im Juni 2016, dass bing laut ComScore in Deutschland einen Marktanteil von 10 % habe. Unsere Daten beziehen sich auf die Daten von Statcounter, die einen so starken Zuwachs bei bing nicht bestätigen. Martin Mißfeld untersuchte exemplarisch den Traffic einiger seiner eigenen Websites und kam hier auf einen bing Anteil von deutlich unter 5 %.

Entwicklung des bing Marktanteils 2010 - 2017

Entwicklung des bing Marktanteils 2010 – 2017

Entwicklung des Marktanteils von Yahoo!

Die im Januar 1994 von David Filo und Jerry Yang gegründete Suchmaschine und Webportal Yahoo! verliert über die letzten Jahre betrachtet immer mehr an Marktanteil und Bedeutung. In 2010 konnte Yahoo! noch einen Marktanteil von knapp 4% vorweisen. Jetzt, im Jahr 2017, liegt die Suchmaschine nur noch bei 1,7%.

Entwicklung der Yahoo Marktanteile 2010 - 2017

Entwicklung der Yahoo Marktanteile 2010 – 2017

Entwicklung des Marktanteils von Yandex

Bei Yandex handelt es sich um eine russische Suchmaschine. Neben Russland ist sie vor allem in weiteren osteuropäischen Raum verbreitet. Weltweit gesehen spielt Yandex jedoch nur eine kleine Rolle auf dem Suchmaschinenmarkt.

Entwicklung der Yandex Marktanteile 2010 - 2017

Entwicklung der Yandex Marktanteile 2010 – 2017

Entwicklung des Marktanteils von Baidu

Die im Jahr 2000 gegründete chinesische Suchmaschine Baidu, welche in China Marktführer ist, schafft es 2016 erstmals weltweit die 1% Marktanteilshürde zu überwinden. Dies spiegelt den Wachstumskurs wider, den Baidu über die letzten Jahre hingelegt hat, auch wenn er weltweit betrachtet noch auf einem gegenüber Google geringen Niveau stattfindet.

Entwicklung der Baidu Marktanteile 2010 – 2017

Entwicklung der Baidu Marktanteile 2010 – 2017

Die Wichtigkeit von Suchmaschinen im Internet

Ein häufig diskutiertes Thema ist die Frage, ob Internetnutzer immer noch Suchmaschinen als erste Anlaufstation zum Einholen von Informationen und für tiefer gehende Web- und Produktsuchen nutzen. Hier konnte eine Erhebung der Arbeitsgemeinschaft Online Forschung in 2015 zeigen, dass für 92,9% der Internetnutzer die Verwendung von Suchmaschinen die wichtigste Anwendung im Internet darstellt. Damit ist es weiterhin unumgänglich in den Suchmaschinen präsent zu sein, um von Internetnutzern gefunden zu werden, ganz egal um was für eine Art von Webauftritt es sich handelt.

Häufigst genutzte Internetanwendungen

Meist genutzte Internetanwendungen

Suchmaschinenmarkt Europa

Suchmaschinenmarkt Amerika

Suchmaschinenmarkt Asien

Suchmaschinenmarkt im russischsprachigen Raum

 

Titelbild © Rawpixel – Fotolia.com

Google Analytics Konto einrichten

Google Analytics Konto richtig einrichten: Verlässliche Webanalyse Daten erhalten

Die Einbindung des Webanalyse Tools Google Analytics ist nicht sonderlich schwer. Sobald der Tracking Code richtig implementiert ist, laufen die Daten in euer Analytics Konto ein. Allerdings handelt es sich dabei um ungefilterte Daten. Spam-Zugriffe und interne Zugriffe von Mitarbeitern erscheinen in den Berichten und verfälschen unter Umständen eure Auswertungen. Zudem könnt ihr durch die Verknüpfung mit anderen Google Diensten noch weitere Daten erhalten. In diesem Artikel erfahrt ihr, wie ihr euer Analytics Konto richtig einrichtet, um möglichst zuverlässige Daten zu erhalten.

Aufbau des Google Analytics Account

In eurem Google Analytics Account gibt es drei Hierarchien: Konto > Property > Datenansicht. Jeder Account kann 100 Konten enthalten, jedes Konto wiederum 50 Properties und jede Property 25 Datenansichten. Einstellungen könnt ihr auf allen drei Ebenen vornehmen.

Um in die Einstellungen zu gelangen, klickt ihr im Menü auf „Verwaltung“.

Um euer Google Analytics Konto richtig einzurchten, müsst ihr in die Verwaltung gehen.

Um euer Google Analytics Konto richtig einzurichten, müsst ihr in die Verwaltung gehen.

Einstellungen auf Property-Ebene

Einstellungen, die ihr auf Property-Ebene vornehmt, wirken sich auf alle untergeordneten Datenansichten aus. Geht dazu erstmal in die Grundeinstellungen.

Berichte zu Demografischen Markmalen und Interessen

Hier habt ihr die Möglichkeit, die Berichte zu Demografischen Merkmalen und Interessen eurer Nutzer freizuschalten. Dadurch erhaltet ihr zum Beispiel Informationen zu Alter und Geschlecht eurer Nutzer. Wenn ihr diese Funktion aktiviert, müsst ihr allerdings in eurer Datenschutzerklärung darauf hinweisen.

Berichte zu demografischen merkmalen im Analytics Konto aktivieren

Berichte zu demografischen Merkmalen und Interessen im Analytics Konto aktivieren

Mehr Informationen zu diesem Feature findet ihr im Artikel „Demografische Merkmale und Interessen in Google Analytics“.

Search Console verknüpfen

An dieser Stelle könnt ihr auch die Google Search Console (GSC), ehemals Google Webmaster Tools, mit eurer Property verknüpfen. So erhaltet ihr weitere suchmaschinenbezogene Daten zu eurer Website direkt in Analytics. Voraussetzung dafür ist, dass ihr die Google Search Console eingerichtet habt und dafür dasselbe Google Konto verwendet wie für Analytics. Wählt dann einfach die richtige GSC Property aus und schon stehen euch die entsprechenden Berichte in Analytics zur Verfügung. Wichtig: Ihr könnt jede Analytics Property immer nur mit einer einzigen GSC Property verknüpfen.

Welche Vorteile euch die Verknüpfung im Einzelnen bringt und wie ihr dabei vorgeht, erfahrt ihr im Artikel „Google Search Console mit Google Analytics verknüpfen“.

Google Analytics mit der Google Search Console verknüpfen

Google Analytics mit der Google Search Console verknüpfen

Organische Suchmaschinen

Nicht alle Zugriffe, die über Suchmaschinen erfolgen, werden standardmäßig als organischer Suchmaschinen-Traffic ausgezeichnet. Dies trifft vor allem für kleine, weniger bekannte Suchmaschinen zu wie zum Beispiel Ask. Auch bei Zugriffen über Suchpartner wie t-online, gmx oder web.de, die ihre Suchergebnisse aus dem Google Index beziehen, ist dies der Fall. Stattdessen werden sie als Verweis-Traffic ausgegeben.

Unter Tracking-Informationen habt ihr die Möglichkeit, noch weitere Quellen anzugeben, die als organischer Traffic eingestuft werden sollen.

Organische Suchmaschinen richtig auswerten in Google Analytics

Organische Suchmaschinen richtig auswerten in Google Analytics

Hier könnt ihr die Suchmaschinen mit den entsprechenden Suchparametern angeben, damit sie als organischer Traffic erfasst werden.

Suchmaschinen und Suchparameter angeben

Suchmaschinen und Suchparameter angeben

Mehr dazu findet ihr im Blogartikel „Organische Suchmaschinen auswerten“.

Verweis-Ausschlussliste

In der Verweis-Ausschlussliste könnt ihr Domains hinterlegen, die in Zukunft nicht mehr als Verweis-Traffic einlaufen sollen. Standardmäßig ist hier eure Domain eingebeben. Sollte das nicht der Fall sein, solltet ihr sie hier noch ergänzen.

Verweisausschlussliste im Google Analytics Konto pflegen

Verweisausschlussliste im Google Analytics Konto pflegen

Falls ihr externe Bezahldienste wie Paypal nutzt oder eine andere externe Dienste eingebunden habt, auf die Nutzer während des Bestellprozesses wechseln, solltet ihr diese Domains hier ebenfalls angeben. Dadurch kann Google Analytics Conversions und E-Commerce-Daten dann richtig zuordnen.

AdWords Konto verknüpfen

Falls ihr Google AdWords Anzeigen schaltet, solltet ihr auch euer AdWords Konto mit Analytics verknüpfen. Dadurch werden Daten zu euren Kampagnen auch im Analytics-Konto angezeigt und ihr könnt sie mit den anderen Daten vergleichen und kombinieren.

Google AdWords Konto mit Google Analytics Konto verknüpfen

Google AdWords mit Google Analytics verknüpfen

Wie ihr dabei genau vorgeht, erfahrt ihr im Artikel „Google AdWords mit Google Analytics verknüpfen“.

Weitere Google Tools

Darüber hinaus gibt es noch einige andere Google Tools, die ihr an dieser Stelle mit Analytics verknüpfen könnt. Zu diesen zählen:

  • Google AdSense
  • Google Play
  • Postbacks

Mit Google Analytics 360 habt ihr auch noch Verknüpfungsmöglichkeiten mit:

  • Ad Exchange
  • DoubleClick Campaign Manager
  • DoubleClick Search

Eine Verknüpfung macht aber natürlich nur Sinn, wenn ihr diese Dienste auch verwendet.

Datenansichten anlegen und einrichten

Standardmäßig ist bereits eine Datenansicht in eurer Property angelegt. Diese enthält erstmal keine Filter, das heißt, alle Daten laufen hier ein, auch Spamzugriffe und andere Zugriffe, die eure Auswertungen verfälschen können. Um hier möglichst präzise Daten zu erhalten, könnt ihr hier noch weitere Einstellungen und Filter einrichten. Grundsätzlich ist es außerdem ratsam, mehrere Datenansichten zu verwenden.

Einstellungen auf Datenansicht-Ebene

Zunächst könnt ihr aber für die bestehende Datenansicht schon einige Einstellungen vornehmen, zum Beispiel einen Namen auswählen.

Einstellung auf Datenansicht-Ebene vornehmen

Einstellung auf Datenansicht-Ebene vornehmen

Klickt dafür einfach auf den entsprechenden Punkt im Menü.

Einstellungen für Datenansichten in Google Analytics

Einstellungen für Datenansichten in Google Analytics

Gebt außerdem eure URL an. Zur Info: Die URL, die hier eingetragen wird, wirkt sich nicht auf das Tracking an sich aus. Dafür ist lediglich entscheidend, auf welchen Seiten der Tracking-Code eingebunden ist.

Passt auch eure Zeitzone an, damit ihr später Analysen aufgrund von Stoßzeiten auf eurer Website durchführen könnt.

By the Way: Wenn ihr Google Analytics mit AdWords verknüpft habt, dominiert die Zeitzone, die in AdWords ausgewählt wurde und überschreibt die Zeitzone aus Google Analytics. Deshalb solltet ihr bei der Einrichtung von AdWords darauf achten, dass Kampagnen für unterschiedliche Kontinente auch so angelegt werden, dass sie individuell zugeordnet werden können. Bei AdWords könnt ihr die Zeitzone nur einmal anpassen. Es empfiehlt sich deshalb, hier zu Beginn ein Konzept zu entwickeln, das die korrekte Verknüpfung mit Google Analytics direkt mit einschließt.

Das Feld Standardseite müsst ihr nur ausfüllen, wenn eure Startseite sowohl unter der normalen URL (z.B. www.luna-park.de) also auch mit einer angehängten Endung wie index.html, index.php oder Ähnliches aufrufbar ist (z.B. www.luna-park.de/index.html). In diesem Fall tragt ihr hier die entsprechende Endung ein. Dann fasst Analytics die Daten für beide URL-Varianten zusammen.

Das Feld für die Suchparameter könnt ihr erstmal leer lassen.

Passt noch die Währung an und setzt einen Haken beim Feld „Bots herausfiltern“.

Optional könnt ihr hier auch noch einstellen, dass eure Site-Search getrackt wird. Dies hat den Vorteil, dass Google Analytics erfasst, nach welchen Begriffen eure Nutzer auf eurer Website suchen.

Site Search aktivieren um die interne Suche zu tracken

Site Search aktivieren um die interne Suche zu tracken

Verschiedene Datenansichten anlegen

Ihr solltet mindestens zwei Datenansicht anlegen. Je nachdem, was für Auswertungen ihr machen möchtet, auch gerne noch mehr.

Rohdatenansicht

Sobald ihr Filter auf eine Datenansicht anwendet, werden die herausgefilterten Daten nicht mehr erfasst und sind damit unwiederbringlich verloren. Damit euch das nicht passiert, solltet ihr immer eine Datenansicht anlegen, auf der keine Filter vorhanden sind. Sie dient als Backup, für den Fall, dass irgendwo ein Filter nicht richtig funktioniert, Kampagnen falsch verknüpft wurden oder aus irgendeinem anderen Grund Daten nicht mehr vollständig einlaufen. Ihr könnt dazu die standardmäßig vorhandene Datenansicht verwenden oder eine neue anlegen. Unter „Einstellungen der Datenansicht“ habt ihr die Möglichkeit, diese auch direkt in „Rohdaten“ umzubenennen. Die normalen Datenansicht-Einstellungen könnt ihr hier aber trotzdem anwenden.

Masterdatenansicht

Als nächstes legt ihr eine Master Datenansicht an. Dies wird die Ansicht, mit der ihr später auch arbeitet. Klickt dazu einfach auf „Neue Datenansicht erstellen“.

Neue Datenansicht anlegen

Neue Datenansicht anlegen

Hier habt ihr nun die Möglichkeit, die Zugriffe ausschließen, die für eure Auswertungen nicht wichtig sind. Legt dazu entsprechende Filter an. Eine Auswahl an sinnvollen Filtern findet ihr weiter unten.

Weitere Datenansichten

Neben der Master-Datenansicht macht es Sinn, auch noch Datenansichten anzulegen, aus denen interne Zugriffe herausgefiltert werden bzw. eine Datenansicht, in der nur interne Zugriffe einlaufen. Außerdem könnt ihr auch Datenansichten anlegen, in denen nur bestimmte Bereiche der Website erfasst werden. Dies ist abhängig davon, wie detailliert ihr eure Daten auswerten möchtet und wie eure Website aufgebaut ist. Mögliche Ansichten wären zum Beispiel:

  • Nur externe Zugriffe
  • Zugriffe auf Testserver / Entwicklerumgebung
  • Nur mobile Zugriffe
  • Nur Desktop-Zugriffe
  • Nur Website-Bereiche für B2B-Kunden

Filter

Damit ihr nur die Zugriffe erfasst, die ihr auch sehen möchtet, solltet ihr entsprechende Filter einrichten. Achtet auf die Reihenfolge der Filter. Diese ist entscheidend. Folgende Filter machen grundsätzlich Sinn:

Spam-Filter

Viele Zugriffe auf eurer Website werden gar nicht durch echte Nutzer generiert, sondern durch Bots oder gefakete Zugriffe. Es handelt sich dabei um Ghost-Spam oder Referral Spam. Diese Zugriffe verfälschen eure Daten. Google ist zwar bemüht, bekannte Spammer auszuschließen, doch hundertprozentig funktioniert dies noch nicht. Deshalb solltet ihr in jedem Fall die nötigen Spam-Filter einrichten.

Eine Anleitung dazu findet ihr im Artikel: „Google Analytics Spam-Filter: Ghost Traffic und Referrer Spam ausschließen“.

Interne Zugriffe ausschließen

Ein weiterer Filter, der durchaus Sinn machen kann, ist der Filter für interne Zugriffe. Für gewöhnlich bewegt ihr euch auf eurer eigenen Website anders als ein fremder Nutzer. Dasselbe trifft auch für eure Mitarbeiter zu. Stellt euch vor, ihr habt einen Onlineshop und eure eigenen Mitarbeiter nutzen die Google-Suche, um bestimmte Produkte zu finden. Dies verfälscht eure Zahlen komplett.

Eine hundertprozentige Möglichkeit, dies zu bewerkstelligen, gibt es leider nicht. Unternehmen, die über eine firmeneigene IP-Adresse verfügen, können hier aber mit einem IP-Filter bereits gute Werte erhalten. Mehr dazu findet ihr im Artikel „Interne IP-Adressen ausschließen“.

Am besten legt ihr eine eigene Datenansicht für externe Zugriffe an. Wenn es euch auch interessiert, wie sich eure Mitarbeiter über eure Website bewegen, dann erstellt auch eine Datenansicht für interne Nutzer. Dazu müsst ihr nur die internen IP-Adressen einschließen.

Weitere nützliche Filter

Neben den oben genannten Filtern, gibt es auch noch weitere, die eure Arbeit erleichtern können. Zum Beispiel habt ihr die Möglichkeit, mit einem Filter dafür sorgen, dass alle URLs und Angaben zu Kampagnen automatisch klein geschrieben werden. Oder wenn ihr viele Seiten mit angehängten Parametern habt, die die Darstellung eurer Inhalte nicht verändern, könnt ihr diese aus den URLs abschneiden lassen, so dass hier Daten für die entsprechenden Seiten zusammengefasst werden. Dasselbe gilt für URL mit und ohne Trailing-Slash.

Je nachdem, was ihr auswerten möchtet, habt ihr hier noch viele weitere Möglichkeiten, Filter anzuwenden und dadurch bessere Daten zu erhalten.

Fazit

Allein das Einbinden des Tracking-Codes genügt noch nicht, um zuverlässige Daten zu erhalten. Auch die Einstellungen auf Konto, Property- und Datenansicht-Ebene im Analytics Account müssen stimmen und entsprechend angepasst sein. Wenn ihr die oben aufgeführten Punkte berücksichtigt, habt ihr bereits eine gute Datengrundlage, um mit euren Analysen zu beginnen. Als nächstes könnt ihr euch noch überlegen, welche Aktionen Nutzer auf eurer Seite durchführen sollen und dafür entsprechende Ziele in Google Analytics anlegen. Ein weiterer Punkt ist das Einrichten von personalisierten Berichten und Dashboards. In unserem Blog findet ihr Vorlagen für Berichte und Dashboards, die ihr herunterladen und in euer Analytics Konto importieren könnt.

Google Updates

Google Updates – Die wichtigsten Änderungen am Google Algorithmus

Panda, Penguin, Hummingbird, Phantom, Fred und wie sie alle heißen – Google testet und verändert laufend seinen umfassenden Algorithmus. Im Oktober 2017 wurde zuletzt ein neues Update publik, das die Relevanz der lokalen Suche weiter fördert. Doch dazu später mehr. Hier möchten wir euch einen Überblick über die wichtigsten Google Updates der letzten Jahre geben und euch Einblicke in ihre Auswirkungen bieten. Anschließend solltet ihr bestens gewappnet sein und wissen, worauf ihr achten solltet, um möglichst nicht vom nächsten Google Update betroffen zu sein. 

Basics: Update vs. Data Refresh

Bevor wir euch jedoch die wichtigsten Updates vorstellen, ist ein kleiner Exkurs nötig. Denn nicht alle Optimierungen, die Google durchführt, sind automatisch Updates. Jeder, der sich tiefer mit dem Thema Google Updates beschäftigt, wird früher oder später auch über den Begriff „Data Refreshs“ stoßen.

Der Unterschied ist schnell erklärt: Unter einem Update versteht man eine tatsächliche Änderung des Google Algorithmus, wie zum Beispiel die Panda oder Penguin Updates. Solche Updates sind quasi Filter, die über den Algorithmus gelegt werden und sich auf einen bestimmten Aspekt des gesamten Algorithmus, bestehend aus zigtausend Rankingfaktoren, beziehen. Diese Filter brauchen aber immer eine Datenbasis, auf der sie funktionieren können. Wenn Google einen Filter, wie beispielsweise Penguin verbessert und einzelne Faktoren des Filters anders gewichten möchte, dann wird hierfür nur die Datenbasis aktualisiert. Es wird also ein Data Refresh durchgeführt. Wenn Google jedoch neue Signale und Aspekte identifiziert und in den Filter mit aufnimmt, dann handelt es sich um ein Update.

Updates haben deshalb einen sehr viel größeren Effekt auf Websites und deren Ranking, als ein Data Refresh (Quelle: Sistrix.de).

Panda Update

Das Panda Update wurde erstmalig im Jahr 2011 ausgerollt und dient als Qualitätsfilter für Google in Bezug auf Website-Inhalte. Mit Hilfe des Filters wird der Content von Websites auf Qualität und vor allem den Mehrwert für den Nutzer geprüft. Das Update gilt als Zusatzmodul, welches an den Core-Algorithmus von Google angehängt wurde.

Seit dem ersten Roll-out wurden bereits vier aktualisierte Versionen in unregelmäßigen Abständen veröffentlicht. Vor allem die Panda Updates 4.0 und 4.1 im Jahr 2014 haben erheblichen Einfluss auf Website-Rankings in den Suchergebnissen gehabt.

Google-Panda-update

Welche Ziele verfolgt Google mit dem Panda Update?

Mit Hilfe dieses Updates hat sich Google vor allem das Ziel gesetzt qualitativ hochwertige und einzigartige Inhalte auf Websites zu identifizieren, die einen echten Mehrwert für den Nutzer bieten.

Welche Auswirkungen hat das Panda Update?

Websites mit unseriösem und schlechtem Inhalt werden einerseits mit schlechteren Rankings abgestraft, andererseits konnten Websites mit eigenem gutem redaktionellem Inhalt bessere Rankings erzielen. Mit jedem weiteren Panda Update fügt Google mehr Signale zum Filter hinzu, die dabei helfen qualitativ hochwertige Inhalte von minderwertigen zu unterscheiden. Laut Searchmetrics waren vom Update 4.1 teilweise internationale Größen, wie HRS.de oder Nokia.com betroffen. Kleinere und mittlere Seiten mit hochqualitativem Inhalt konnten von den Updates profitieren. Kurz nach dem Update vermutete Julian Dziki, dass auch einzelne gut recherchierte Artikel besser ranken.

Um vom Panda Update zu profitieren, ist es also wichtig, dass ihr eigene hochwertige Inhalte auf der Website bereitstellt, die vor allem den Mehrwert der Nutzer als Ziel haben. Doppelte Inhalte und Informationen externer Quellen, die 1-zu-1 übernommen wurden, solltet ihr vermeiden.

Penguin Update

Das Penguin Update wurde erstmalig im April 2012 ausgerollt und von Google kommuniziert. Neben dem Panda Update ist das Penguin Update ein weiterer Qualitätsfilter von Google und ist seit Penguin 4.0 in den Core Algorithmus integriert. Fokussiert sich das Panda Update jedoch hauptsächlich auf Website-Inhalte, so dreht sich beim Penguin Update alles um das Identifizieren von Spam, Verlinkungen und Backlinks.

Seit dem ersten Roll-out gab es vier aktualisierte Versionen des Updates. Seit September 2016 werden diese Updates nicht mehr extra kommuniziert da Penguin nun in Echtzeit agiert. Aktualisierungen am Filter werden laut Google kontinuierlich vorgenommen, ohne Ankündigung.

Welche Ziele verfolgt Google mit dem Penguin Update?

Google erkennt mit Hilfe dieses Filters im Algorithmus Websites, die unnatürliche Backlinkmuster aufweisen oder Keyword-Stuffing betreiben. Diese werden abgestraft, indem sie Rankings verlieren oder tatsächlich ganz aus dem Google Index gestrichen werden. Seit dem Penguin Update 4.0 ist der Qualitätsfilter laut Google noch besser geworden: Der Filter ist nun in der Lage nicht mehr die Rankings einer ganzen Website zu beeinflussen und bei spammigen Links abzuwerten, sondern auf URL-Basis Spamsignale zu identifizieren und nur die URLs mit spammigen Links abzuwerten.

Welche Auswirkungen hat das Penguin Update?

Websites, die unnatürlichen und unseriösen Linkaufbau betrieben haben, oder mit Hilfe von Keyword-Stuffing ihre Seite künstlich in den Rankings nach vorne gebracht haben, werden von Google rigoros abgestraft. Mittlerweile ist Google in der Identifizierung von unnatürlichen Backlinks sehr gut und feinfühlig geworden. Ein nachhaltiger Linkaufbau ist also unerlässlich!

Als Penguin noch nicht in Echtzeit im Core Algorithmus integriert war, sondern manuell durch Google ausgerollt werden musste, konnte die Auswirkung eines Penguin Updates stets gut erkannt werden anhand einer Steigerung der Sichtbarkeit einer Website oder dem Verlust derselben. Da Penguin nun in Echtzeit bei jedem Crawl einer URL in Kraft tritt, sind die Auswirkungen deutlich weniger einfach zu benennen. Generell ist die Funktion des Filters in Echtzeit jedoch positiv, da von Penguin betroffene Seiten somit nicht bis zum nächsten Roll-out warten müssen, sondern direkt die Auswirkungen ihrer Arbeit im Linkaufbau sehen.

Hummingbird Update – ein neuer Google Algorithmus

Im August 2013 bestätigte Google den Launch einer neuen Generation des Google Algorithmus – passend zum 15. Geburtstag der Google Suche. Hummingbird war und ist nicht nur eine Änderung im Algorithmus, sondern stellt einen gänzlich neuen Algorithmus dar, der seitdem die Basis der Suche bildet. Knapp 90% aller Suchanfragen waren zum Zeitpunkt des Roll-outs von Hummingbird betroffen.

Der Name Hummingbird (dt. „Kolibri“) soll laut Google darauf hindeuten, dass die Suchergebnisse nun schneller und vor allem präziser ausgeliefert werden können. Dieses Update ist ein weiterer Schritt in Richtung der semantischen Suche und stellt die Weiche zu einer neuen Generation der Suche dar, die mit RankBrain (siehe unten) fortgeführt wurde.

Wie funktioniert der neue Suchalgorithmus?

Anstatt nach einzelnen Wörtern in der Suchanfrage eines Nutzers zu suchen und diese dann einzeln zu interpretieren, ist Google seit Hummingbird in der Lage die Suchanfrage insgesamt zu analysieren und eine semantische Beziehung zwischen den einzelnen Wörtern herzustellen. Dadurch wird die Nutzer-Intention hinter der Suchanfrage deutlicher und auch die Ausrichtung und Intention einer Website kann so mit Hilfe von Hummingbird besser ausgelesen werden. Vor allem die Suche mittels Sprachfunktion soll so enorm verbessert werden, weil hier ebenfalls der ganze Satz interpretiert werden kann.

Welche Ziele verfolgt Google mit dem Hummingbird Update?

Das Ziel hinter Hummingbird ist, dass Google die Nutzer-Intention hinter einer Suchanfrage besser erkennen und interpretieren möchte. Vor allem konversationelle Suchanfragen, also Suchanfragen, die im Stil einer Unterhaltung oder einer Frage gestellt werden, können besser interpretiert werden. Beispielsweise kann Google mittlerweile die Absicht hinter Suchanfragen, wie „Zeige mir Bilder des Kölner Doms“ oder „Wird es heute regnen?“ sehr gut erkennen:

Suchergebnis zur Suchanfrage "Wird es heute regnen?"

Suchergebnis zur Suchanfrage “Wird es heute regnen?”

Suchergebnis zur Suchanfrage: "Zeige mir Bilder vom Kölner Dom"

Suchergebnis zur Suchanfrage: “Zeige mir Bilder vom Kölner Dom”

Welche Auswirkungen hat das Hummingbird Update?

Laut Searchmetrics nahm die Diversität der Suche nach Hummingbird ab, da ähnlichere Resultate für semantisch gleiche Suchanfragen ausgespielt werden. Die Anzahl an unterschiedlichen URLs in den Suchergebnissen hat um knapp 6% abgenommen. Vor allem bei Keywords mit semantischer Ähnlichkeit ist das oft der Fall.

Ein kleiner Tipp am Rande: Mit strukturierten Daten könnt ihr eure Website besser auf die semantische Suche ausrichten, da so die auf der Website vorhandenen Daten von Suchmaschinen besser ausgelesen und interpretiert werden können.

Google Mobile Update

Im Februar 2015 kündigte Google ein Mobile Update für den 21. April 2015 an und startete somit die Offensive, die mobile Suche benutzerfreundlicher zu gestalten. Da immer mehr Nutzer per Smartphone Google-Suchen durchführen kommt Google diesen Nutzern hiermit entgegen.

Von den Medien wurde dieses Update als “Mobilegeddon”angekündigt, weil befürchtet wurde, dass mit erheblichen Auswirkungen auf die Suche zu rechnen sei. Einige Webmaster haben trotz der langen Frist bis zum Update im April letzten Jahres die Zeit nicht genutzt, um ihre Website mobil zu optimieren und mussten große Einbußen in Bezug auf ihre Sichtbarkeit in Kauf nehmen. Insgesamt blieben die befürchteten Schwankungen allerdings im Rahmen.

Dieses Jahr im Mai fand ein zweites angekündigtes Mobile Update statt, welches jedoch einen weitaus geringeren Effekt hatte. Mittlerweile sind die meisten Websites bereits mobil optimiert, wie Daniel Furch von Searchmetrics bestätigt und auch auf moz.com vermutet wird.

Welche Ziele verfolgt Google mit dem Mobile Update?

Das Ziel dieser Updates ist es, der stetig wachsenden Anzahl mobil surfender Smartphone Nutzer Suchergebnisse auszuspielen, die besonders benutzerfreundlich sind. Denn generell gilt für das Google Mobile Update: eine mobil optimierte Seite ist nicht nur gut für das Ranking, sondern bringt vor allem dem Nutzer, der eure Seite mit einem Smartphone besucht viele wertvolle Vorteile und eine bessere Benutzerfreundlichkeit.

Wenn ihr eure mobile Seite noch detaillierter testen möchtet, dann könnt ihr dies mit Hilfe eines Google Tools tun.

Welche Auswirkungen hat das Mobile Update?

Wie von Google angekündigt werden Websites mit responsive Design oder mobile Websites nach dem Update in Smartphone Suchergebnissen besser positioniert. Laut Searchmetrics haben auch Websites, die vom ersten Update betroffen waren, größtenteils nachgebessert und mittlerweile ebenfalls eine mobilfreundliche Seite. Generell ist der Anteil an Websites, die eine mobilfreundliche Seite haben, stark gewachsen. Laut Searchmetrics ist ihr Anteil an von 76% im Mai 2015 auf 98% im Mai 2016 gestiegen.

RankBrain – Machine Learning im Google Algorithmus

Im Oktober 2015 gab Google bekannt, dass RankBrain bereits seit mehreren Monaten Teil des Algorithmus ist und nach Inhalten und Backlinks als drittwichtigster Rankingfaktor zählt.

onpage.org definiert Machine Learning wie folgt:

Machine Learning (deutsch: maschinelles Lernen) ist ein wichtiger Bereich der Computerwissenschaft und Bestandteil künstlicher Intelligenz. Computerprogramme die auf Machine Learning basieren, können mit Hilfe von Algorithmen eigenständig Lösungen für neue und unbekannte Probleme finden. Maschinelles Lernen kommt auch beim Online-Marketing und bei der Webanalyse zum Einsatz.

Der Unterschied zwischen RankBrain und allen anderen Ranking-Faktoren ist also, dass laut Google Senior Research Scientist Greg Corrado die Erkenntnisse, die die Grundlage der bisherigen Ranking-Faktoren bilden, auf interner Forschung basiert haben und RankBrain diese Erkenntnisse nun auf Basis von Machine Learning selbst gewinnt.

Google-Rank-Brain

Welche Ziele verfolgt Google mit RankBrain?

Generell verfolgt Google mit RankBrain die Absicht Suchanfragen von Nutzern so gut zu analysieren, dass auch Websites unter den Suchergebnissen angezeigt werden, die eventuell nicht dem genauen Wortlaut der Suchanfrage des Nutzers entsprechen. Vor allem bei sehr langen (Longtail-Keywords) oder generischen Suchanfragen soll RankBrain dabei helfen, diese besser zu interpretieren. (Quellen: searchengineland.com und Searchmetrics)

Kurz gefasst ermöglicht RankBrain einen einfacheren Umgang mit neuen oder sehr generischen Suchanfragen, indem es Verknüpfungen zu ähnlichen bekannten Suchanfragen herstellt und lernt, die Suchintention hinter den Suchanfragen des Nutzers basierend auf statistischen Erfahrungswerten besser zu identifizieren. Die Nutzerintention steht hier also wieder einmal im Vordergrund. Mit RankBrain können:

  • Mehrdeutige (generische) Suchanfragen besser interpretiert werden
  • Umgangssprache und Wortneuschöpfungen besser erkannt werden
  • Suchanfragen per Sprachfunktion besser interpretiert werden

Welche Auswirkungen hat RankBrain?

Da RankBrain bei jeder Suchanfrage genutzt wird, beeinflusst es die Rankings von sehr vielen Websites. Google hat bis dato offiziell nur wenige verständliche Beispiele zur genauen Funktion von RankBrain gegeben. Kai Spriestersbach hat jedoch einige gute Beispiele gesammelt. So wurde für die folgende Suchanfrage nach RankBrain ein deutlich sinnvolleres Suchergebnis ausgespielt, als vorher:

Suchergebnisse zur Suchanfrage "Why are PDFs so weak" vor RankBrain

Suchergebnisse zur Suchanfrage “Why are PDFs so weak” vor RankBrain

Suchergebnisse zur Suchanfrage "Why are PDFs so weak" nach RankBrain

Suchergebnisse zur Suchanfrage “Why are PDFs so weak” nach RankBrain

Auch in Deutschland hilft RankBrain dabei, Suchanfragen besser zuzuordnen wie Kai Spriestersbach zeigt. Wurde vor RankBrain zur Frage „Wer ist abs?“ nur der offensichtlichere Bezug zum Antiblockiersystem (ABS) hergestellt, spielt Google mittlerweile andere relevantere Seiten zu der Suchanfrage in den Suchergebnissen aus, da mit Hilfe von RankBrain erkannt wird, dass bei der Frage „WER ist abs?“ eher nach einer Person, als nach einem System gesucht wird.

Suchergebnisse zur Suchanfrage "Wer ist Abs" vor RankBrain

Suchergebnisse zur Suchanfrage “Wer ist Abs” vor RankBrain

Suchergebnisse zur Suchanfrage "Wer ist Abs" nach RankBrain

Suchergebnisse zur Suchanfrage “Wer ist Abs” nach RankBrain

Laut Kai Spriestersbach haben andere Rankingfaktoren, wie Beispielsweise Backlinks und Keywords im Title seit RankBrain an Bedeutung verloren, da Google nun basierend auf maschinell erfassten statistischen Erfahrungswerten in der Lage ist Beziehungen zwischen Suchanfragen herzustellen, die vorher nicht möglich waren. Nutzersignale und die Nutzer-Intention hinter einer Suchanfrage spielen hierbei eine zentrale Rolle.

Noch mehr Informationen zu Rankbrain findet ihr im Artikel “Künstliche Intelligenz im Einsatz oder: Was ist RankBrain?

Quality Update oder Phantom Update

Immer Mal wieder finden unerwartete und unerklärte Schwankungen in den Suchergebnissen statt, da Google Änderungen im Algorithmus testet und diese nicht wie bei den Panda oder Penguin Updates kommuniziert. Da es keinen offiziellen Namen für derartige Updates gibt, hat sich der Name Phantom Update oder Quality Update entwickelt. Generell scheint es sich bei Updates dieser Art um Änderungen im Kern des Algorithmus zu handeln, die sich laut Google auf die Qualitätssignale des Core Algorithmus beziehen. Die genaue Natur der betroffenen Ranking Signale kommentiert Google jedoch nicht. Martin Mißfeldt vermutet jedoch, dass ein Zusammenhang zwischen dem Phantom Update im Frühjahr 2015 und dem Roll-out von RankBrain besteht. Da der genaue Zeitpunkt des Roll-outs von RankBrain nicht offiziell bestätigt wurde und im Oktober 2015 nur kommuniziert wurde, dass RankBrain bereits seit mehreren Monaten Teil des Algorithmus sei, würde der Zeitpunkt des Phantom Updates im Frühjahr 2015 gut mit dem Roll-out von RankBrain übereinstimmen.

In letzter Zeit wurde vermutet, dass ein weiteres Phantom Update ausgerollt wurde (Searchmetrics und internetworld berichteten darüber). Eine offizielle Bestätigung von Google gab es bisher noch nicht.

Welche Ziele verfolgt Google mit dem Phantom Update?

Bei den Phantom Updates stehen laut Searchmetrics Qualität und Nutzerintention im Fokus. Hochwertige, relevante und einzigartige Inhalte und eine gute Website Struktur, die es ermöglicht alle Inhalte auch einfach zu erreichen, werden positiv bewertet. Laut der von Google veröffentlichen Quality Rater Guidelines liegt der Fokus bei der Bewertung von Websites vor allem auf dem Grad der Befriedigung der Nutzerintention, wie auch Kai Spriestersbach behauptet. Gerade aus diesem Grund ist eine Vermutung, dass RankBrain und die Quality bzw. Phantom Updates etwas miteinander zu tun haben einleuchtend.

Welche Auswirkungen hat das Phantom Update?

In der Kalenderwoche vom 04.05.2015 bis 11.05.2015 haben Domains weltweit laut Sistrix zwischen 20% und 60% an Sichtbarkeit verloren. Anschließend bestätigte Google eine Änderung des Core Algorithmus vorgenommen zu haben.

Das Update scheint jedoch nicht einen spezifischen Website-Typ zu betreffen, sondern verschiedene Website-Typen. Laut Searchmetrics sind vor allem Nutzersignale ausschlaggebend. Wenn der Inhalt einer Seite thematisch oder strukturell nicht auf die Intention des Nutzers abgestimmt ist, was sich durch negative Nutzersignale auszeichnet, wirkt sich dies langfristig auf die Sichtbarkeit einer Website aus.

Fred Update

Anfang März 2017 gab es erneut große Diskussionen ausgelöst von Barry Schwartz und weiteren bekannten Köpfen der Branche um ein weiteres Update des Kern-Algorithmus, das lange Zeit nicht von offizieller Google Seite bestätigt wurde. Mehr aus Spaß wurde das Update inoffiziell auf den Namen Fred getauft.

Nachdem Fred Ende März von offizieller Seite bestätigt wurde, ist die genaue Wirkungsweise des Updates noch nicht hundertprozentig klar, da auch hier seitens Google nur wenige Informationen preisgegeben werden. Gary Illyes verwies allerdings darauf, dass Seiten, die abgestraft wurden, konkret gegen aktuelle Webmaster Richtlinien verstoßen hätten.

Welche Ziele verfolgt Google mit dem Fred Update?

Sistrix hat allerdings nach der offiziellen Bestätigung des Updates eine Analyse der Auswirkungen des Fred Updates erstellt und ist zu dem Schluss gekommen, dass es sich hierbei wieder um eine Optimierung der Rankingkriterien handelt, die sich mit der Qualität der Seiteninhalte einer Website beschäftigen. Der Mehrwert der Inhalte für den Nutzer steht hier wieder einmal im Fokus.

Welche Auswirkungen hat das Fred Update?

Laut der Analyse von Sistrix sind vor allem Websites unter den Verlierern, die minderwertige Inhalte anbieten und stark anzeigenlastig sind, sprich viele Werbebanner Above-the-Fold (im direkt sichtbaren Bereich einer Seite) aufweisen. Dies bestätigen auch die Analyseerkenntnisse von Barry Schwartz. Seiten mit stark veraltetem oder sehr dünnem Content, sowie „SEO-Texte“ die mit Keywords überoptimiert wurden, werden mit Hilfe des Fred Updates negativ bewertet. Ebenso verlieren Seiten, deren Hauptziel es ist, viele Nutzer über Google mit minderwertigen Inhalten zu generieren und sich über Affiliate Programme zu monetarisieren, anstatt dem Nutzer einen Mehrwert zu bieten.

Domains, die zuvor bereits von Panda und/oder Penguin Updates betroffen waren, sind auch dieses Mal meist unter den Verlierern anzutreffen und mussten Ranking-Einbußen von 40 bis 100+ Positionen hinnehmen.

User Localization Update – Mehr Relevanz für die lokale Suche

Gegen Ende Oktober 2017 gab Google bekannt, dass es nun nicht mehr möglich sei, gezielt Suchanfragen in spezifischen Google Indexes durch die Eingabe der jeweiligen country code Top Level Domain (ccTLD) durchzuführen. Konnte man vorher noch basierend auf der eingegebenen ccTLD spezifische Suchergebnisse pro Land einsehen, auch wenn man sich physisch nicht in diesem befand, so geht das mittlerweile nicht mehr. Stattdessen wird dem Nutzer per default basierend auf seinem physischen Standort die Suchergebnisse des jeweiligen Google Indexes ausgespielt. Eine manuelle Auswahl des Google Indexes über die Domain-Eingabe funktioniert nicht mehr – sobald ich Google.fr eingebe, wird trotzdem mein Standort in Deutschland erkannt und unten links dargestellt:

Google spielt Suchergebnisse abhängig vom Standort des Nutzers aus

Google spielt Suchergebnisse abhängig vom Standort des Nutzers aus

Von nun an bestimmt also euer physischer Standort den Google Index und die Suchergebnisse. Der Name User Localization Update ist wohl auf Searchmetrics zurückzuführen – Google selbst hat diesem Update keinen konkreten Namen gegeben.

Welche Ziele verfolgt Google mit dem User Localization Update?

Laut Google wird mittlerweile eine von fünf Suchanfragen mit lokalem Bezug durchgeführt – das Update soll also dementsprechend die relevantesten Suchergebnisse pro Nutzer ausspielen und dies auf Basis des physischen Standorts. Das bedeutet konkret, wenn ihr euch in Deutschland auf der Arbeit befindet und dort etwas googelt, werden euch SERPs des deutschen Indexes (Google.de) angezeigt. Seid ihr dann allerdings im Urlaub in Frankreich und sucht dort nach dem Wetter, erhaltet ihr automatisch das relevanteste Suchergebnis, nämlich die Wettervorhersage für euren Standort im französischen Index und nicht für das Wetter bei euch zu Hause in Deutschland. Ziel von Google ist es mit diesem Update, die Relevanz der Suchergebnisse für den Nutzer zu steigern und den jeweiligen individuellen Kontext des Nutzers besser berücksichtigen zu können.

Welche Auswirkungen hat das Localization Update?

Searchmetrics hat zu diesem Thema einen interessanten Artikel verfasst und Experten der Branche zu ihren Meinungen befragt. Folgende Kernaussagen solltet ihr mitnehmen:

  • Die Bewertung von Websites ändert sich nicht, nur das Tracking der Rankings pro Land wird für Toolanbieter in diesem Bereich ggf. eine Herausforderung
  • Globale Portale werden es evtl. in Zukunft schwieriger haben bei lokalen Suchen zu erscheinen, da lokalen Ergebnissen mehr Relevanz zugewiesen wird
  • Das Update bestätigt Best Practices der Branche und ruft zu keinem grundlegenden Strategiewechsel auf
  • Internationale SEO Standards wie hreflang und die regionale Ausrichtung mit Hilfe der Google Search Console ebenso wie die Verwendung der jeweils relevanten Begriffe pro Land und Sprache sollten allerdings noch einmal überprüft werden, sofern ihr diese in eurer internationalen SEO Strategie noch nicht berücksichtigt
  • Zusätzlich unterstützt das Update die Relevanz mobiler Suchanfragen, da diese meist eh sehr häufig einen lokalen Bezug haben laut Searchengineland und Google
  • Das Update verdeutlicht außerdem noch einmal die voranschreitende Ausrichtung auf personalisierte Suchergebnisse für jeden einzelnen Nutzer und seinen individuellen Kontext

Fazit

Das letzte Google Update zeigt wieder einmal, dass die Suchmaschine sich immer weiter auf KPIs wie Relevanz und Kontext des einzelnen Nutzers fokussiert. Zukünftig solltet ihr neben technischen Aspekten wie der Ladezeit, Mobilfreundlichkeit und HTTPS Verschlüsselung auch inhaltliche Aspekte berücksichtigen. Hierzu zählen zum Beispiel die Menge der relevanten Informationen im oberen Seitenbereich (Above-the-fold), ein moderates Maß an Werbung auf euren Seiten, sowie relevante Texte mit Informationen, die einen Mehrwert für den Nutzer bieten, basierend auf seiner Suchintention.

Als Faustregel solltet ihr euch merken:

Wer SEO qualitativ hochwertig umsetzt, seriös und transparent arbeitet, Kreativität einbringt und dabei immer den Kontext des Nutzers im Blick behält, der lässt sich von Panda, Penguin, RankBrain, Fred und Co. nicht beeindrucken.

 

Bildnachweis: Einige der verwendeten Bilder stammen von stramark.

SEOkomm

SEOkomm 2017 Recap

Einen Überblick auf aktuelle Entwicklungen und einen Ausblick auf die Trends des nächsten Jahres gab am 17. November 2017 die SEOkomm in Salzburg. Zum Abschluss des Jahres fanden sich fast 900 SEOs und SEO-Interessierte im Ausstellungscenter brandboxx ein. Darunter viele alte Hasen aber auch neue Gesichter. Und sie wurden nicht enttäuscht: Auch dieses Jahr gab es hochkarätige Vorträge von Branchenexperten.

Keynote: Position Zero (Marcus Tandler)

Marcus Tandler von Ryte eröffnete mit seiner Keynote bestehend aus 420 Slides die Veranstaltung. Er gab einen Rückblick auf die Entwicklung von Ryte im letzten Jahr und erklärte, wie bei der Umstellung von OnPage.org auf ryte.com vorgegangen wurde. Dabei ging er auf typische SEO Themen wie wdf*idf Optimierung und neuere Themen wie Featured Snippets ein, die vor allem bei der Optimierung des Ryte Wikis beachtet wurden. So gelang es ihm am konkreten Beispiel aktuelle Ranking-Kriterien allgemein zu beleuchten und einen Ausblick auf SEO 2018 zu geben.

Dabei ging er auch auf die Search Console als Datenbasis ein. Ein wichtiges Thema war hier die Optimierung der CTR: Ein gutes Ranking alleine nützt nicht viel, wenn das Ergebnis nicht angeklickt wird oder der Inhalt der Seite nicht den Erwartungen der Nutzer entspricht. Durch schlechte Nutzersignale gehen dann auf lange Sicht auch die Rankings verloren. Die Bedeutung von hoher Content-Qualität kann daher gar nicht überschätzt werden.

Speed ist ein weiteres wichtiges Thema und damit auch AMP. Möglicherweise wird es bald AMP only Websites geben, auch bei Onlineshops. Gerade in Bezug auf die mobile Nutzererfahrung ist die Ladegeschwindigkeit von großer Bedeutung. In dem von Google angekündigten mobilen Index sieht Marcus den nächsten großen Entwicklungsschritt der Suchmaschine. Denn die mobile Nutzung von Websites nimmt kontinuierlich zu, während die Desktop-Nutzung stagniert.

Ein Aspekt, der in Zukunft an Bedeutung verlieren wird, ist die URL. Gerade für die mobile Nutzererfahrung spielt diese sowieso eine untergeordnete Rolle. Ob Daten nun von einer Website kommen oder über eine API zur Verfügung gestellt werden, ist dem Nutzer erstmal egal. Auch für IoT (Internet of Things) und Big Data spielt dies eine wichtige Rolle. Außerdem ergibt sich daraus für Progressive Web Apps eine große Chance. Beispiele für andere Formate sind xml-Feeds, schema und JSON ID. Wichtig ist die Beziehung von Meta-Daten untereinander, also der Kontext, in dem die Daten zueinander stehen.

Aber was kommt nach mobile first? Vielleicht cloud indexing first. Google baut seine Cloud-Dienste immer weiter aus. Ladegeschwindigkeiten sollten kein Thema mehr sein, wenn Inhalte direkt bei Google gehostet werden. Je mehr Inhalte auf den eigenen Servern liegen, desto besser kann Google die User Journey abbilden. Daher ist es durchaus möglich, dass irgendwann Inhalte besser ranken, die direkt bei Google liegen. Da Nutzer-Signale besser gedeutet werden können, verlieren dann auch Links an Bedeutung.

Mit der Voice Search ändert sich ebenfalls das Nutzerverhalten und damit auch die Bedeutung der URL. Sprachsuche macht das Bedienen des Keyboards unnötig. Es wird keine URL mehr eingetippt, sondern ein direkter Zugang zu den Daten gegeben. Die URL dient hier momentan nur noch als Mittelsmann.

Was heißt das Ganze für uns SEOs? Wir müssen umdenken. Gerade in Bezug auf die Voice Search verlieren Keywords, wie wir sie bisher kennen, an Relevanz. Wichtiger werden W-Fragen, denn Sprachsuche funktioniert in ganzen Frage. Diese sollten in der Keywordanalyse unbedingt berücksichtigt werden.  Und ebenfalls wichtig sind die Antwortboxen in den Suchergebnissen. Die Ergebnisse können direkt vorgelesen werden. Hier solltet ihr in Zukunft genau recherchieren, welche Fragen eure Nutzer haben, passenden Content zur Verfügung stellen und ihn entsprechend optimieren.

Shops mit Google Analytics E-Commerce Tracking optimieren (Markus Vollmert)

lunapark Geschäftsführer Markus Vollmert zeigte in seiner Session, wie man mit Google Analytics Onlineshops gezielt optimieren kann.

Markus Vollmert auf der SEOkomm 2017 in Salzburg

Markus Vollmert auf der SEOkomm 2017 in Salzburg

  1. Enhanced E-Commerce verwenden: Dadurch erhaltet ihr mehr zusätzliche Daten wie zum Beispiel Aktionen von Nutzern, Impressions zu bestimmten Produkten in Ergebnislisten, welche Produkte wurden in den Warenkorb gelegt etc. Allerdings muss Enhanced E-Commerce erst aktiviert und richtig eingebunden werden.
  2. Kaufverhalten analysieren: Wie bewegt sich der Nutzer auf der Website und wie bildet man das im Reporting ab? Google Analytics stellt dazu eine Trichter Visualisierung mit Tabellen-Chart zur Verfügung, die auch nur für bestimmte Nutzer-Typen angezeigt werden kann (z.B. Bestandskunden vs. Neukunden). Es ist nicht nötig, spezielle Trichter dafür anzulegen. Auch eigene Segmente können hier ausgewählt werden.
  3. Produktinhalte: Welche Produkte wurden wie oft eingeblendet. Dies funktioniert auch bei Kaufempfehlungen wie „Kunden, die sich für dieses Produkt interessiert haben, kauften auch folgende Produkte“. Detailinformationen zu einzelnen Produkten werden noch einmal gesondert erfasst. Dazu gibt es einen eigenen Bericht, dem ihr entnehmen könnt, welche Produkte zwar angezeigt wurde, aber keine Klicks erhielten.
  4. Werbeflächen: Welche Werbeflächen z.B. auf der Startseite wurden wie oft eingeblendet und angeklickt. Dem Bericht dazu könnt ihr entnehmen, welche Banner bzw. Teaser gut performen und welche nicht.
  5. Suchfilter: Seiten zu Suchfiltern erscheinen oft als kryptische URL in Google Analytics und es lässt sich nur schwer erkennen, welche Filter ausgewählt wurden. Mit Custom Dimensions lässt sich das viel besser nachvollziehen und leichter aufsplitten als zum Beispiel mit Event-Tracking.
  6. Power Segmente: Segmente lassen sich auch auf Nutzer-Ebene einrichten, nicht nur auf Sitzungsebene. Damit lässt sich eine Abfolge festlegen und ihr könnt Besucher anzeigen lassen, die z.B. über Kampagne XY auf die Seite gelangt sind, sich bestimmte Inhalte angesehen oder bestimmte Aktionen ausgeführt haben.
  7. Nutzerexplorer: Mit dem Nutzerexplorer kann nachvollzogen werden, wie sich einzelne Nutzer auf der Seite bewegt und verhalten haben.

Wer Enhanced E-Commerce ausprobieren möchte, aber die IT damit erstmal nicht belästigen möchte kann sich den Demoshop von Google ansehen. Die Folien zum Vortrag findet ihr hier:

Datenorientiertes SEO mit Fokus auf die Google Search Console (Sebastian Erlhofer)

Sebastian Erlhofer von Mindshape erklärte in seinem Vortrag, wie man anhand von Daten Website optimieren kann, anstatt zu raten oder sich ausschließlich auf sein Bauchgefühl zu verlassen. Eine Grundlage kann zum Beispiel Big Data sein, doch die meisten KMUs verfügen nicht darüber. Das heißt, wir müssen uns eine andere Datengrundlage schaffen bestehend aus zum Beispiel:

  • Google Search Console
  • Google Analytics (oder anderen Webanalyse Tools)
  • APIs von Tools
  • Screaming Frog
  • Log Files

Leider gibt es bisher noch kein Tool, das alle diese Daten miteinander kombiniert. Wir müssen uns also unser eigenes SEO Framework bauen.

Sebastian Erlhofer auf der SEOkomm 2017

Sebastian Erlhofer auf der SEOkomm 2017

Tipps zur Nutzung der Google Search Console:

  • Properties für unterschiedliche Website-Varianten anlegen (http, https, mit www, ohne www etc.)
  • Im Hinterkopf behalten: Es sind nur für 1000 URLs pro Tag Daten verfügbar
  • API nutzen
  • Daten auf Tagesbasis exportieren und speichern
  • Daten in der Search Console verstehen, z.B. die Berechnung der durchschnittlichen Position pro Keyword
  • Mehrfachrankings identifizieren und URLs entsprechend optimieren bzw. deoptimieren, damit keine Kannibalisierung entsteht
  • CTR-Analyse: Bei welchen Keywords ist die CTR unterdurchschnittlich in Bezug auf die Position des Keywords, dort entsprechend Snippets anpassen.

Ein wichtiger Punkt bei der Optimierung ist Machine Learning. Wie das ganze funktioniert, erklärte Sebastian beispielhaft daran, wie man Thin Content identifizieren kann. Zunächst muss man eine Zahl an Seiten mit wenig Content klassifizieren, so dass daraus ein Testset entsteht. Dieses kann man dann auf noch nicht klassifizierte Seiten anwenden. Klingt kompliziert, ist es auch. Aber mit ein wenig Übung, sollte es funktionieren.

Um die Performance von Content richtig zu bewerten, sind Absprungrate und Verweildauer nicht immer ausreichend. Besser ist auch gleich Scrolltiefentracking einzurichten. Anschließend könnt ihr euch aus den verschiedenen Werten selbst eine Formel bauen und berechnen, welche Inhalte gut performen und welche nicht.

Bei der Bewertung von Keywords solltet ihr euch nicht allein auf das Suchvolumen des Keyword Planers verlassen. Macht lieber eine Chance-Analyse indem ihr die Mitbewerber analysiert, die Domain Authority, Sichtbarkeitsindex und Page Quality betrachtet und die Top 10 Suchergebnisse zu dem Keyword anseht.

Weitere Tipps waren:

  • Internen Pagerank berechnen und entsprechend wichtige Seite bei der internen Verlinkung berücksichtigen
  • Time To First Byte monitoren, am besten auf Seitentyp-Basis
  • Google Analytics Allerts nutzen

Fazit: Nutzt Daten anstatt zu raten!

Blumento-pferde per Sprachsuche bestellen? (Karl Kratz)

Karl Kratz widmete sich in seiner Session der Sprachsuche und demonstrierte live, wie gut man mit Alexa und Siri kommunizieren kann bzw. wie frustrierend dies meistens noch ist. Auch wenn die Sprachassistenten noch in den Kinderschuhen stecken, früher oder später werden sie soweit sein, dass sie zuverlässig funktionieren. Und als SEO bzw. Online Marketer sollte man darauf vorbereitet sein. Zum Beispiel sollte man sich bei der Entwicklung bzw. Benennung seiner Marke durchaus überlegen, wie gut sich diese aussprechen lässt.

Karl Kratz auf der SEOkomm über Digitale Assistenten

Karl Kratz auf der SEOkomm über Digitale Assistenten

Zu berücksichtigen sind auch die Suchsysteme und Datenbansen, die die unterschiedlichen Assistenten verwenden. Google Home verwendet die Produkte von Google (Google My Business, Google Suche etc.). Siri, Cortana und Alexa berufen sich zum Teil auf Bing, Trip Advisor, Yelp und andere Dienste. Eine Optimierung auf Geräte übergreifende Sichtbarkeit ist daher sehr wichtig. Dies betrifft sowohl die Optimierung in den verschiedenen Subsystemen als auch das Rezensionsmanagement. Da sich die Systeme verändern und nicht sicher ist, ob die Assistenten in Zukunft nicht auch schon mal die Datenbasis wechseln, kann die Konzentration auf einen Subdienst sehr gefährlich werden.

So schützt du dein SEO vor den Kollegen (Maike Schultze-Rhonhof)

Maike Schultze-Rhonhof von der Axa erklärte in ihrem Vortrag, wie man in einem großen Team auch Mitarbeiter dazu bringt, die keine Ahnung von SEO haben, trotzdem darauf zu achten, dass sie durch ihre Arbeit erreichte SEO Erfolge nicht wieder verlieren. Die Lösung ist die Einführung eines SEO Approval.

Warum ist ein SEO Approval wichtig?

Um die SEO Performance einer Website kontinuierlich zu steigern, ist es wichtig, dass die Qualität der Website dauerhaft gut ist. Alles was einmal indexiert wurde, kann nicht mehr so einfach rückgängig gemacht werden. Google vergisst nicht. Fehler wie Duplicate Content, falsche noindex-Auszeichnungen etc., die durch unachtsame Kollegen vorgenommen werden, schaden der Sichtbarkeit erheblich. Daher ist es extrem wichtig, dass auch die fachfremden Kollegen verstehen, welche Bedeutung SEO für die Website hat.

Was ist ein SEO Approval?

Im Grunde ist ein SEO Approval eine Anforderungsliste, die abgehakt werden muss, bevor Mitarbeiter Änderungen an der Website vornehmen. Sie enthält SEO-Akzeptanz-Kriterien, die erfüllt sein müssen, bevor irgendwas geändert wird. Voraussetzung dafür ist, dass euer Unternehmen versucht, sich agil aufzustellen. Der SEO Approval kann dann im Prozess integriert werden und die Mitarbeiter kommen nicht mehr daran vorbei.

Maike Schultze-Rhonof erklärt, was es mit dem SEO Approval auf sich hat

Maike Schultze-Rhonof erklärt, was es mit dem SEO Approval auf sich hat

Was für Fragen stehen im Approval?

Mögliche Fragen sind folgenden:

  • Wurden Änderungen auf Template-Ebene oder Content-Ebene vorgenommen und dabei Link-Attribute verändert?
  • Wurden URLs verändert?
  • Wurden Status Codes angepasst?
  • Wurden SEO-relevante Markups verändert wie z.B. HTML-Formatierungen, strukturierte Daten, Canonicals etc.
  • Gab es Veränderungen am Content oder wurde Content versteckt?
  • Gab es Änderungen an der Sichtbarkeitssteuerung (index, noindex etc.)?
  • Wurden Tracking-Code-Snippets angepasst oder entfernt?

Kann das so einfach funktionieren?

Tatsächlich hilft es, wenn der SEO Approval als Liste an der Wand hängt, so dass die Kollegen ihn immer vor Augen haben. Nützlich ist auch die Integration in Ticket-System oder im CMS.

Wichtig ist aber vor allem der Austausch mit den Kollegen, damit diese verstehen, warum sie darauf achten sollen. Schulungen können hier auch bei fachfremden Mitarbeitern gut funktionieren.

Trotzdem ist es natürlich immer gut, ein regelmäßiges Monitoring durchzuführen, damit man auch wirklich sicher ist, dass es keine Änderung an der Website gibt, die die Sichtbarkeit beeinträchtigt.

Content: Failure is predictable (Thomas Mindnich)

Thomas Mindnich von TermLabs.io ging in seinem Vortrag darauf ein, dass man vieles austesten sollte, um zu guten Ergebnissen zu gelangen. Dank RankBrain, der AI von Google, lässt sich nicht mehr sagen, was genau zu tun ist, damit man sicher auf den vorderen Positionen in den Suchergebnissen landet. Die Orientierung am Wettbewerb ist nicht immer zielführend. Also bleibt einem kaum etwas anderes übrig, als bei der Entwicklung einer SEO-Strategie verschiedene Dinge auszuprobieren. Schließlich lernt man auch aus Fehlern. Thomas ging dabei vor allem auf Texte ein.

Als Orientierung kann man die Google Guidelines heranziehen. In ihnen ist festgehalten, was erwünscht ist und was aus Google Sicht nicht erwünscht ist. Zum Beispiel wertet Google Keywordstuffing als schlecht. Wie Google Keywordstuffing erkennt, erklärte Thomas kurz anhand von Information Retrieval, dem Vector Space Model und WDF*IDF. Top Rankings sind demnach nur möglich, wenn die Top Terme des Textes thematisch zu dem Keyword passen und in der richtigen Gewichtung enthalten sind. Erscheinen andere Terme häufiger, bewertet Google den Text als weniger relevant und er wird schlechter ranken.

Außerdem kann Google den Hauptinhalt einer Unterseite identifizieren und den Fokus darauf legen. Reine SEO Texte, die weit unter dem Hauptteil oder in der Sidebar eingebunden sind, helfen demnach nicht wirklich beim Ranking. Google erkennt, dass diese mit dem eigentlichen Inhalt nichts zu tun haben.

Thomas Mindnich auf der SEOkomm 2017 in Salzburg

Thomas Mindnich auf der SEOkomm 2017 in Salzburg

Wichtig ist außerdem der Paradigmenwechsel von Keywords hin zu Topics. Während vor einigen Jahren noch für jede Keyword-Variante einzelne Inhalte erstellt wurden, ist Google inzwischen in der Lage, thematische Zusammenhänge besser zu verstehen. Daher verspricht die Zusammenfassung thematisch gleicher Inhalte inzwischen mehr Erfolg.

Darüber hinaus ist bei der Erstellung von Inhalten darauf zu achten, dass sie unique sind. Das bedeutet aber nicht, dass es noch überhaupt keine Inhalte zu einem bestimmten Thema geben darf. Themen, über die bisher noch nicht geschrieben wurde, haben meistens den Nachteil, dass sich niemand dafür interessiert. Gemeint ist damit, dass ihr zwar bestehende Themen abarbeiten dürft (und sollt), aber halt besser als euer Wettbewerb. Wie ähnlich die Inhalte sein dürfen, müsst ihr wiederum austesten. Dies hängt vom Keyword/Thema und dem Suchbedürfnis des Nutzers ab.

Häufig ist von holistischen Inhalten die Rede, die alle Fragestellungen eines Themas abdecken. Dies macht nur insofern Sinn, wie diese Inhalte tatsächlich mit dem Hauptinhalt der Website zusammenpassen. Eine Unterseite, die zu dem Keyword „Anwalt in Salzburg“ ranken soll, braucht keinen holistischen Text zum Thema Salzburg. Jemand, der nach einem Rechtsanwalt sucht, wird sich in dem Moment nicht für Ausgehtipps oder die Geschichte der Stadt interessieren. Der thematische Fokus sollte dann schon auf der Anwaltssuche liegen. Ziel ist es hier, möglichst viele User Intents abzudecken, also Fragestellungen, nach deren Lösung der Nutzer sucht. Dann ist die Wahrscheinlichkeit, für viele Keywords zu ranken, sehr hoch.

Website Auditing mit Screaming Frog SEO Spider (Justin Keirath)

Justin Keirath gab in seiner Session neun Inspirationsmöglichkeiten für Website-Analysen mit dem Screaming Frog. Der Vortrag war sehr technisch, gab aber gute Einblicke, welche Analyse-Möglichkeiten der Screaming Frog durch Custom Extraction, Custom Search und den Verknüpfungen mit Google Search Console und Google Analytics bietet.

Justin Keirath inspiriert das Publikum der SEOkomm

Justin Keirath inspiriert das Publikum der SEOkomm

  1. Konkurrenzanalysen: Wie oft veröffentlicht ein Konkurrent Artikel und von welchen Autoren?
  2. Linkauditing
  3. Identifizierung von Seiten für Snippet Optimierung (durch die Verknüpfung mit der GSC können Seiten in den Top 10 mit niedriger CTR identifiziert werden)
  4. Google Cache Check (hier am besten einen Proxi-Server und niedrige Crawling-Einstellung verwenden)
  5. Bulk Google Pagespeed Check (durch Anbindung an Google Analytics feststellen, welche Seiten schlechte Ladezeiten haben)
  6. Seiten ohne Zugriffe identifizieren (mit Daten aus Google Anlytics, ähnlich wie ein Content Audit)
  7. Bulk Structured Data Markup Check (wo gibt es Fehler bei der Einbindung von strukturierten Daten)
  8. Review Snippets überprüfen (Proxi verwenden)
  9. „Thin Content“-Kategorieseiten identifizieren

Linkbuilding & Linkmanagement 2018 (Christoph C. Cemper)

Christoph C. Cemper von den LinkresearchTools gab einen Überblick über Linkmanagement 2018. Zunächst machte er deutlich, dass Links als Rankingfaktor nach wie vor von Bedeutung sind. Mit dem Google Update Pinguin 4.0 werden Abstrafungen von negativen Links inzwischen nicht mehr auf Domain-Ebene vorgenommen, sondern können auch auf Verzeichnis-Ebene oder auf einzelne Unterseiten gehen. Proaktives Disavown schlechter Links ist also immer noch sehr wichtig.

Regelmäßiges Link Risk Management sorgt daher sowohl dafür, dass sich eine betroffene Website von einer Penalty erholt und schützt vor neuen Abstrafungen. Deshalb ist es auch enorm wichtig, nicht nur einmalig einen Link Audit zu machen. Das Web verändert sich. Eine regelmäßige Überprüfung des Linkprofils ist daher absolut anzuraten.

Auch alte Disavow-Files sollten regelmäßig überprüft werden. Es ist möglich, dass hier Domains enthalten sind, die früher negativ bewertet wurden, sich aber inzwischen erholt und an Stärke gewonnen haben. Was damals als Spam gewertet wurde, muss heute nicht zwangsläufig immer noch Spam sein.

Christoph C. Cemper über Linkmanagement auf der SEOkomm

Christoph C. Cemper über Linkmanagement auf der SEOkomm

Ebenfalls ein Teil des regelmäßigen Linkmanagements ist die Überprüfung von Links, die auf 404-Seiten zeigen. Hier geht Linkpower verloren. Sucht eine thematisch passende Unterseite und leitet die alte URL auf diese weiter.

Ein ungepflegtes Linkprofil kann auch den Effekt neuer Links beeinflussen. Vielleicht baut ihr gute neue Links auf, diese zeigen aber keine Wirkung, weil das Fundament nicht stimmt.

Zu guter Letzt sollte ihr auch den Wettbewerb nicht aus den Augen lassen und euch anschauen, wo dieser steht und wo ihr steht.

Unser Fazit

Wie schon in den letzten Jahren zeichnete sich die SEOkomm auch 2017 wieder durch eine sehr gute Organisation aus. Neben hochkarätigen Speakern und einer tollen Location gab es zwischen den einzelnen Vorträgen genug Zeit um Luft zu schnappen, das Gehörte zu verarbeiten, mit Branchenkollegen zu reden und neue Kontakte zu knüpfen. Die Party am Abend bildete den gelungenen Abschluss einer erfolgreichen SEO Konferenz, die wir auch im nächsten Jahr gerne wieder besuchen. Vielen Dank an die Gastgeber Oliver Hauser und Uschi!

Weitere Recaps

Infos zu weiteren Online Marketing Konferenzen

Analytics Summit

Recap zum Analytics Summit 2017

Ein Blick auf das Leben eines Webanalysten seit Google Analytics 360 und die Hoffnungen für die Zukunft mit Google Attribution 360

Hamburg, 09.11.2017: Bei original Norddeutschem Schmuddelwetter haben sich rund 500 Onlinemarketer – hauptsächlich aus dem Bereich der Webanalyse – im Curio-Haus im Hamburger Stadtteil Rotherbaum eingefunden, um dem Analytics Summit 2017 beizuwohnen, den hochkarätigen Speakern zu lauschen und von deren Erfahrung zu profitieren. Inmitten dieser geballten Ansammlung von Wissen wir – Michaela und Julia – die euch gerne an ihren Erfahrungen und Learnings von diesem Tag erzählen wollen.

Bei dem Angebot an hochkarätigen Speakern und Vorträgen fiel die Auswahl der Favoriten zwar denkbar schwer, nichts desto trotz kommen hier unsere absoluten Highlights der Veranstaltung.

Dave Barney – What Search Data can teach us about the offline world

Für uns in jedem Fall ein gelungener Einstieg in die Veranstaltung: Einen sehr interessanten Vortrag lieferte Dave Barney von Google. In seinem Beitrag „What Search Data can teach us about the offline world“ zeigte er, wie es bereits jetzt möglich ist, aus Suchdaten Schlüsse auf das Weltgeschehen zu ziehen und anders herum zu sehen, wie die Umwelt das Suchverhalten der User beeinflusst.

Dave Barney auf dem Analytics Summit 2017

Dave Barney auf dem Analytics Summit 2017

Am Beispiel von Fernsehwerbung, die er laut eigenen Aussagen einige Abende vorher im deutschen Abendprogramm sah, untersuchte er unter Zuhilfenahme von Google Correlate und Google Trends das Suchverhalten kurz nach Schaltung der Werbung. Auf diese Weise kann man beispielsweise sehen, auf welchem Sender die Werbung am besten performt.

Aber auch immer wiederkehrende Suchen im Jahresverlauf, wie z.B. die Suche nach „Gewichtsreduktion“ zum 1. Januar hin, lassen sich hiermit sehr gut verdeutlichen.

Ein weiteres interessantes Projekt, das Dave Barney in seinem Vortrag vorstellte, fand in Zusammenarbeit mit der Telekom statt. Hier wurden physische Storevisits mit Hilfe der Mobilgeräte gemessen und mit den Suchdaten verknüpft. Auf diese Art wird zum Beispiel klar, wie viele User sich vor dem Besuch in einem Shop im Internet über die angebotenen Produkte informieren.

Adrian Heinrich: Analytics und R – Nutzung von Google Analytics Daten für statistische Modellierung

Wie man in Google Analytics den Rohdatenexport via BigQuery nutzen kann, um statistische Auswertungen durchzuführen, hat uns Adrian Heinrich von Dawanda gezeigt. In diesem, zugegebener Maßen sehr technischen Vortrag, ging er zunächst auf die Vor-und Nachteile einer lokalen und einer cloudbasierten Installation von R-Studio ein. Durch die Verknüpfung von Google Analytics und R-Studio können große Datenmenge direkt in R-Studio verarbeitet werden, sodass Sampling Probleme vermieden werden können. Wichtig dabei: eine besonders gründliche Bereinigung der Daten. Saisonale Schwankungen und fehlerhafte Datenerfassungen sollten nach Möglichkeit in den Analysen ausgeschlossen werden. Anschließend können verschiedene Forecast-Analysen sowie die Zeitreihenanalysen dazu genutzt werden, Zukunftsprognosen zu erstellen.

Adrian Heinrich beim Analytics Summit 2017

Adrian Heinrich beim Analytics Summit 2017

Somit werden die Daten aus Google Analytics nicht mehr nur dazu genutzt, die aktuellen Bewegungen der User auf der Website zu analysieren, sondern auch Rückschlüsse auf deren zukünftiges Verhalten zu ziehen. Auf diese Weise ist es Unternehmen möglich, frühzeitig gewinnbringende und trafficsteigernde Quellen zu erkennen und sich auf diese stärker zu fokussieren.

Till Schramm: Tue Gutes und rede darüber – Reporting mit Hilfe von Spreadsheets und APIs

Den im Verhältnis zur Raumgröße wohl größten Zuschauer bzw. Zuhörerzustrom beim Analytics Summit 2017 hatte Till Schramm mit seinem Thema „Tue Gutes und rede darüber – Reporting mit Hilfe von Spreadsheets und APIs“.

Nachdem alle einen Platz gefunden hatten – sei es auf Stühlen, dem Fußboden oder in dem kleinen Flur vor dem Seminarraum – erzählte Till Schramm uns von einem Problem, welches wohl jedem Webanalysten früher oder später in seiner Karriere über den Weg laufen wird: Kollegen wollen eine Analyse, die möglichst alle Daten abdeckt, möglichst schmuck aussieht, am besten auch schon seit gestern fertig ist und natürlich: ohne Datensampling auskommt.

In seinem Vortrag zeigte Till, wie er diesen Problemen an den Kragen ging und aus den unterschiedlichsten Tools die verschiedensten Daten bekam, um die Analyseaufträge seiner Kollegen zu bedienen.

Analytics Challenge 2017

Auch in diesem Jahr durften die Gewinner aus den Städten Hamburg, Berlin, Köln und München ihren Vortrag vorstellen. Hier ein kurzer Eindruck zu den gehaltenen Vorträgen:

Die Analytics Challenge 2017

Die Analytics Challenge 2017

Markus Bärsch: Spam in Properties den Kampf ansagen

Spam wird immer noch als eins der größten Probleme bei der Nutzung von Webanalyse Systemen angesehen. Bislang wird versucht, die Daten mit verschiedenen Filtermethoden von Google Analytics oder bestimmten Tools so sauber wie möglich zu halten. Das große Problem dabei ist jedoch, dass sich die Zugriffe verändern und die Filter somit regelmäßig angepasst werden müssen. (Erfahrt hier, wie ihr einen solchen Spamfilter einrichtet)

Markus Bärsch hat eine Methode gezeigt, wie er – ohne die Vielzahl der Filter – die Spamzugriffe minimieren konnte. Dazu vergibt er jedem User ein Passwort, welches als Custom Dimension an Google Analytics gesendet wird. In Google Analytics selbst werden nur Datensätze erlaubt, die diese Custom Dimension besitzen. Auf diese Weise kann sichergestellt werden, dass die einlaufenden Daten wirklich nur von Usern kommen, die sich tatsächlich auf der Seite befunden haben.

Alexander Gross: Advanced Cart Analytics – Unverzichtbare Analysen im eCommerce

In seinem Vortrag beschäftigte sich Alexandra Gross mit der Frage, ob es Mischwarenkörbe gibt, also ob z.B. Frauen für Ihre Männer einkaufen, oder ob es Marken gibt, die tendenziell zusammen gekauft werden. Außerdem thematisierte er die Frage, ob sich Rabatte auf das Kaufverhalten und damit auf den tatsächlichen Umsatz auswirken.

Marco Szeidenleder: App tracking on steroids

Welche Probleme es in Bezug auf das App-Tracking und den Einsatz verschiedener Marketing-Tools geben kann, hat uns Marco Szeidenleder gezeigt. Das größte Problem ist dabei die Menge an Daten, die an die verschiedenen Anbieter geschickt werden. Wer Firebase nutzt, hat all diese Daten schon zur Verfügung und kann sie direkt aus Firebase an die gewünschten Anbieter schicken. So wird vermieden, dass Daten doppelt erfasst werden, was wiederum dafür sorgt, die Bandbreite zu verringern.

Christian Ebernickel: WER IST BOB? Abbildung von Personas in Google Analytics

In seinem Vortrag ging Christian Ebernickel auf die Herausforderungen ein, welche es in der Abbildung von Personas in Google Analytics gibt. Das größte Problem stellt dabei die Zuordnung der einzelnen User zu den verschiedenen Personas dar, welche in den Marketingkampagnen genutzt werden. Christian hat uns gezeigt, wie er die Daten aus den Marketingkampagnen nutzt und diese über den DataLayer an Google Analytics übergibt. Dabei werden die Daten in einem Cookie gespeichert, welcher sitzungsübergreifend vorhanden ist. Sobald der User erneut auf die Webseite gelangt, werden diese Daten überschrieben. Auf diese Weise kann in Google Analytics erkannt werden, zu wie viel Prozent der User einer bestimmten Persona-Gruppe zugeordnet werden kann.

Christian Ebernickel gewinnt die Analytics Challenge 2017

Christian Ebernickel auf dem Analytics Summit 2017

Mit dieser Thematik überzeugte Christian Ebernickel den Großteil der Anwesenden und Gewann zu Recht Rum, Ehre, einen Pokal und eine Google Analytics-Reise nach London.

Ingo Börnert: Challenge Accepted! – Rollout und Maintenance eines global einheitlichen Analytics Setups bei L’Oreal Deutschland

Welche Herausforderungen und Lösungsansätze zu einem einheitlichen Google Analytics und Trackingstandard es gibt, wenn mehrere Marken weltweit zu einem Unternehmen gehören, hat uns Ingo Börnert von L’Oreal gezeigt. In diesem Kontext kann man gewiss sagen, dass es sich um eine Gradwanderung zwischen Standardisierung und Flexibilität handelt. Nicht nur, dass die einzelnen Marken unterschiedliche Funktionalitäten auf ihren Webseiten anbieten und entsprechend verschiedene Analyse-Anforderungen besitzen, auch die verschiedenen Länderrichtlinien gilt es dabei im Auge zu behalten.

Das Ziel: Ein einheitliches Reporting über alle Marken hinweg und damit eine konzernübergreifende Vergleichbarkeit schaffen. Ingo Börnert hat uns gezeigt: Es geht weder ohne globale Guidelines, noch ohne Flexibilität. Mit seinem Mix von standardisierten Tracking-Einrichtungen und der Vereinbarung dieser mit den markenspezifischen Anforderungen hat er uns einen neuen Blickwinkel auf die Herausforderungen des Reportings auf Konzern- und Markenebene aufgezeigt.

David Kriesel: Data Science: From Zero to Hero

Als letztes Highlight des Analytics Summit 2017 sollte aber in jedem Fall noch der Beitrag von David Kriesel genannt werden. Unter dem Titel „Data Science: From Zero to Hero“ erzählte er seinen gebannten Zuhörern von seinem eigenen Experiment, bei dem er über ein paar Jahre alle auf Spiegel Online veröffentlichten Artikel speicherte und anschließend ein paar sehr interessante und mitunter auch lustige Analysen anhand der gesammelten Daten durchführte. Es gibt wohl niemanden, der während seines Vortrages nicht zumindest kurz schmunzeln musste.

David Kriesel beim Analytics Summit 2017

David Kriesel beim Analytics Summit 2017

Unser Fazit

Abschließend bleibt zu sagen, dass sich das frühe Aufstehen und der verspätete Rückflug für diesen einen Tag beim Analytics Summit mehr als gelohnt haben. Die Vorträge waren interessant, spannend und hin und wieder auch spaßig. Vielen Dank an das Trakken Team für die einwandfreie Organisation und wir sehen uns am 1.11.2018 zum nächsten Analytics Summit!

Weitere Recaps

Infos zu weiteren Online Marketing Konferenzen

SEO Day

SEO Day 2017 Recap: Voice Search, SEO Trends und mehr

Voice Search, Amazon SEO, technisches SEO, Content und vieles mehr – der SEO Day 2017 hielt viele abwechslungsreiche Themen für die rund 900 Besucher bereit. Die SEO Konferenz fand in diesem Jahr wieder im RheinEnergieStadion in Köln statt und konnte sich was das fachliche Niveau betrifft, noch einmal steigern. Geballtes SEO Wissen in über 30 Vorträgen in 3 parallelen Slots erwartete die Teilnehmer. Maxi und Mareike waren vor Ort mit dabei.

Content Audits – Inhalte datenbasiert optimieren

Lunapark Consultant Mareike Doll erklärte anhand eines praktischen Beispiels, wie ihr mit Hilfe eines Content Audits Inhalte datenbasiert optimiert. Auch wenn ein Content Audit viel Arbeit bedeutet, gibt es gute Gründe, sich die Mühe zu machen. Ihr verschafft euch einen Überblick, welche Inhalte es auf eurer Seite gibt, welche gut performen und welche noch fehlen. Er identifiziert schlechte Inhalte und deckt vor allem Optimierungspotentiale auf. Nicht zuletzt gibt das Content Audit Auskunft darüber, ob die wichtigen Inhalte intern ausreichend verlinkt sind und welche Content Formate gut bei den Nutzern ankommen. Wie ihr einen Conent Audit erstellt, erfahrt ihr bei uns im Blog.

Die Folien zu Mareikes Vortrag findet ihr hier:

Voice Search – Alexa, wir müssen reden

Gero Wenderholm widmete sich in seinem Vortrag der Voice Search. Die Idee, Geräte mit der Stimme zu steuern, ohne Eingabegerät, ist schon längst keine Zukunftsmusik mehr. Aber wie kann man Inhalte für diese Art der Bedienung optimieren?

Gero ging als erstes auf die Entwicklung der Sprachsuche ein: von der Auskunft über Siri als Sprachassistenten bis hin zu Amazons Alexa. Neue Entwicklungen wurden dabei auch zu Anfang gerne belächelt, wie zum Beispiel das iPhone, dem aufgrund seiner nicht vorhandenen Tastatur kein Erfolg prophezeit wurde.

Inzwischen beschäftigen sich allerdings alle großen Konzerne mit der Entwicklung von AI-Geräten mit Spracheingabe und gehen sogar Kooperationen ein, damit diese Assistenten auch miteinander kommunizieren können. Dies deutet schon daraufhin, dass die Sprachsuche in Zukunft noch erheblich an Bedeutung gewinnen wird.

Aber warum ist das so? Dafür gibt es verschiedene Gründe:

  • Sprachsuche ist einfacher
  • Sie ist schneller
  • Exakter
  • Bereitet weniger Stress als eine Frage textlich zu formulieren
  • Und erzeugt mehr Emotionen

Die Nutzer sind also insgesamt entspannter und bauen ein emotionales Verhältnis zum Sprachassistenten auf. Das sind gute Voraussetzungen, um ihnen etwas zu verkaufen.

Sprachsuche – was ist anders?

Im Moment werden Sprachassistenten neben der Online Suche hauptsächlich dazu verwendet, Geräte zu steuern (z.B. Licht, Musik etc.). Aus SEO Sicht ist natürlich die Online Suche von besonderer Bedeutung. Doch wie unterscheidet sie sich von der herkömmlichen Textsuche und wie wirkt sich dies auf SEO aus?

  • Suche in ganzen Sätzen
  • Es werden verstärkt lokale Dienste gesucht, Local SEO gewinnt dadurch stark an Bedeutung
  • Suchanfragen sind länger, dadurch gewinnt auch der Longtail an Bedeutung
  • Suchanfragen werden wie Fragen formuliert, daher sollte in Zukunft auf W-Fragen optimiert werden
  • Featured Snippets werden von Sprachassistenten vorgelesen, eure Website sollte deshalb nicht nur als Featured Snippet angezeigt werden, sondern ihr müsst auch prüfen, ob die Inhalte des Featured Snippets passend und richtig sind
  • Wenn Sprachassistenten demnächst auch ganze Websites vorlesen, macht es eventuell auch Sinn, eine Inhalts-Version für Sprachassistenten anzubieten (Responsivität)
  • Auf jeden Fall wird es immer wichtiger, auf Fragestellungen zu optimieren

Amazon Echo / Alexa

Schaut man sich Amazons Sprachassistenten genauer an, fällt auf, dass es neben der Funktion Produkte über Amazon zu kaufen, auch schon viele andere Anwendungen gibt, sogenannte Skills. Es gibt auch die Möglichkeit, eigene Skills zu entwickeln. Dies ist ähnlich wie die Entwicklung einer App. Ihr könnt Skills so optimieren wie auch Apps im App Store. Wichtig ist es hier, dass euer Skill schnell zum Standard-Skill für eine bestimmte Anwendung wird. Dann steht ihr in den Listen ganz oben.

Die Folien zum Vortrag findet ihr hier.

11 konkret umsetzbare SEO Tipps

Auch bei den Tipps von Tobias Fox konnten sich ambitionierte SEOs einige Inspirationen holen. Eine einfache und effektive Maßnahme ist das Optimieren der Snippets. Wenn ihr dabei auf die Emotionen der Zielgruppe eingeht, regt ihr mehr Nutzer zum Klicken an. In dem Vortrag von Tobias fanden Tools wie AskThePublic.com und HyperSuggest Erwähnung, damit ihr zielgruppenorientierte Inhalte erstellen könnt.

Ein weiterer Tipp ist der Einsatz von gratis Monitoring Tools wie statuscake.com und uptimerobot.com. Sie überwachen die Website in kleinen Zeitintervallen und melden umgehend, wenn es Probleme beim Code, beim Netzwerk oder beim Server gibt.

Das Tool url-monitor.com gibt darüber Auskunft, was wann geändert wurde und wo Probleme bestehen. Es ist besonders praktisch, wenn mehrere Leute an einer URL Veränderungen vornehmen.

Neben wertvollen weiteren Tipps verwies Tobias noch auf Browser Extensions, wie Redirect Path, die euch den Status einer Seite anzeigen. Wer etwas darüber in Erfahrung bringen möchte, wie sich Nutzer auf seiner Seite verhalten, nimmt am besten mit Tools, wie Hotjar und Mouseflow Vorlieb. Damit könnt ihr anhand von Session Replays und Heatmaps das Nutzerverhalten effizient analysieren.

Links, die echten Traffic generieren

Mario Jung ging in seinem Vortrag darauf ein, wie man bestehende Backlinks optimieren kann. Ausgehend von der These, dass Backlinks, die viel Traffic bringen, besser sind als Backlinks, die wenig oder keinen Traffic bringen, zeigte er Möglichkeiten auf, die linkgebende Website zu optimieren, um so dann auch mehr Traffic auf der Website mit eingehendem Link zu erhalten und das Ranking zu verbessern.

Laut Google Patent werden Backlinks anhand des Nutzerverhaltens bewertet, was bedeutet, dass Links tatsächlich positiver bewertet werden, wenn sie häufig angeklickt werden. Also müssten diese Links auch das Ranking einer Website positiv beeinflussen.

Mario Jung beim SEO Day 2017

Mario Jung beim SEO Day 2017

Anstatt sich also darauf zu konzentrieren, das eigene Backlinksprofil weiter auszubauen, macht es Sinn dieses zu veredeln. Und dazu reicht es nicht aus, sich auf die eigene Seite zu konzentrieren, es ist unter Umständen viel einfacher, die Website zu optimieren, auf der sich der Link befindet. Rankt diese Seite besser, ist die Wahrscheinlichkeit, dass der Link angeklickt wird, auch gleich viel höher.

Um die Seite nun zu optimieren, kann man alles an Onpage Optimierung (Snippet Optimierung, Texte anpassen, interne Verlinkung, etc.) machen, was man auch bei der eigenen Seite tun würde. Vorausgesetzt natürlich, dass der fremde Webmaster damit einverstanden ist. Und vielleicht erklärt sich der Webmaster dann auch dazu bereit, den Link weiter oben in der Seite einzubauen, so dass er tendenziell auch besser gesehen wird.

Um die dargestellte Vorgehensweise zu untermauern, führte Mario noch einige Beispiele auf, bei denen dieses Konzept aufgegangen ist und nicht nur mehr Traffic über den Link generiert werden konnte, sondern auch die Rankings der Website gestiegen sind.

Vorteile dieser Optimierung:

  • Die Wahrscheinlichkeit einer Abstrafung wird geringer, da kein manipulativer Linkaufbau betrieben wird
  • Wettbewerber können diese Taktik nicht durchschauen und kopieren
  • Win-Win-Situation für beide Websites, dadurch ist diese Variante meist günstiger als der Aufbau von neuen Links

20 Tipps für mehr Conversions auf Desktop und Mobile

Nils Kattau hatte 20 knackige Tipps für mehr Conversions im Gepäck. Die meisten einfach und dennoch effektiv.

  • Der Header lässt sich zum Beispiel nicht nur für die Platzierung des Firmen- oder Websitelogos nutzen. Hier lassen sich auch Elemente oder Floskeln platzieren, die Vertrauen bei den Besuchern schaffen. Slide-Ins, die zum Teilen oder Liken der Inhalte aufrufen, helfen euch bei der Verbreitung.
  • Viele Texter und Designer neigen dazu, zu kreativ zu sein. Sie versuchen, die Website möglichst innovativ zu gestalten und überfordern den Besucher damit meist. Kreativität und Innovation sind aus diesem Grund mit Vorsicht zu dosieren.
  • Wollt ihr Feedback für eure Arbeit, holt es nicht von Kollegen, die ebenfalls in der Branche tätig sind. Oft sind sie – wie ihr selber auch – betriebsblind. Fragt eure Eltern oder andere Bekannte, die mit der Gestaltung einer Website nichts zu tun haben.
  • Teilt euren „Evergreen Content“! Manchmal ist es nicht notwendig immer wieder neue Inhalte zu verfassen, wenn ihr schon welche habt, die gut ankommen, teilt sie ruhig öfter in den sozialen Medien. Social Media Management Tools wie Buffer vereinfachen euch die Arbeit.
  • Auch Usability Faktoren, wie große Buttons für die mobile Version („Have a heart for people with fat fingers“) und eine einwandfreie funktionierende Landscape Ansicht helfen dabei, Conversions zu steigern.

Wenn ihr diese und die anderen Tipps noch einmal im Detail nachlesen wollt, könnt ihr Nils Folien hier anfordern: https://nilskattau.com/20ways/

Einfach gefunden – Schönere Google Rankings durch herausragende Inhalte

Rene Dhemant leitete seinen Vortrag mit ein paar allgemeinen Informationen zum Thema Text ein. Auch für die Suchmaschine Google hat Text eine wichtige Bedeutung. Google bewertet Texte und bestimmt dadurch die Autorität der Website, zudem wirken sich qualitative Texte positiv aufs Ranking aus. Für das Erstellen von guten Inhalten hatte Rene effektive Tipps parat:

  1. Das A&O von hochwertigen Texten ist eine gute Struktur. Dazu gehört neben einer großen, bzw. lesbaren Schriftgröße (mindestens 16px), ein ausreichender Kontrast sowie Absätze, gute Headlines und Zwischenüberschriften. Ein Inhaltsverzeichnis bietet eine gute Struktur für Mensch und Crawler, während multimediale Inhalte den Text auflockern.
  2. Natürlich ist auch die Qualität des Inhalts ein wichtiger Faktor. Google ist imstande, diese algorithmisch zu messen. Dazu beruft sich die Suchmaschine auf unterschiedliche Fragestellungen, wie die Quelle, die Rechtschreibung, die inhaltliche Tiefe usw.
  3. Für die Recherche und Erstellung von guten Inhalten gibt es einige Tools, die inspirieren und häufige Fragestellungen zu jeweiligen Themen aufdecken. AnswerThePublic.com generiert Fragen zu eingegebenen Keywords. Bloomberry ordnet häufig gestellte Fragen zu einem Themenfeld zu und SISTRIX findet in dem Social-Modul der Toolbox Inhalte, die oft geteilt wurden. Ähnlich funktioniert auch Buzzsumo. Mit Google Trends und HyperSuggest lassen sich Interessenschwerpunkte sowie verwandte Suchanfragen ausfindig machen.

Mit Hilfe dieser Tipps und verwandten Suchbegriffen sowie Interessenschwerpunkten gilt es also, Fragen zu generieren, diese in dem erstellten Text abzuarbeiten und erfolgreich zu beantworten. Wichtig ist dabei, dass sich aus der Beantwortung ein sexy Mehrwert für den Nutzer ergibt. Denn dann performt der Inhalt gut auf eurer Seite.

Die komplette Präsentation von Rene bekommt ihr hier.

Fazit

Der SEO Day gehört zu den Pflichtveranstaltungen in der deutschen SEO Szene. Die Vorträge haben in diesem Jahr nochmal an Tiefe gewonnen. Gefühlt gab es noch mehr fachlichen Input als in den Jahren zuvor und auch die Auswahl der Speaker war sehr gut. Die Entscheidung wieder in die Räume des RheinEnergieStadion zu wechseln, nachdem die Konferenz im letzten Jahr auf dem Gelände der Kölnmesse stattgefunden hat, war auf jeden Fall richtig. Hier war der Austausch mit Branchenkollegen zwischen den Vorträgen einfacher, da das Gelände nicht so weitläufig war.

Das Programm war sehr straff gehalten und die Pausen zwischen den einzelnen Vorträgen hätten ruhig etwas länger ausfallen können. Vielleicht wäre eine Aufteilung auf 4 Räume mit gleicher Anzahl der Sessions besser gewesen, da sich so die 900 Teilnehmer auch etwas besser verteilt hätten. So haben wir zwischendurch einige Vorträge ausfallen lassen, weil wir nicht mehr aufnahmefähig waren oder einfach keinen Platz mehr bekommen haben. Insgesamt hat der SEO Day aber wieder gerockt!

Vielen Dank an Fabian, Julia und Anastasia für die super Organisation.

Weitere Recaps:

Infos zu weiteren Online Marketing Konferenzen

AdWords mit Google Analytics Verknüpfen

Google AdWords Konto mit Google Analytics verknüpfen

Google AdWords ist für viele Werbetreibende ein wichtiges Mittel der Zielgruppenerreichung. Doch die Auswertung im Tool selbst zeigt zunächst nicht genauer, was Nutzer nach einem Klick auf eine Anzeige auf eurer Website gemacht haben. Hier kann Google Analytics helfen und weitere Aufschlüsse geben. Ihr möchtet die Daten aus Google AdWords und Google Analytics verknüpfen, um weitere Auswertungsmöglichkeiten zu erhalten? Wir erklären euch, wie das geht und welche Möglichkeiten euch nach der Verknüpfung zur Verfügung stehen.

Was ermöglicht euch die Verknüpfung von AdWords und Analytics?

Bereits in Google AdWords erhaltet Ihr viele nützliche Daten zur Performance eurer Kampagnen und Anzeigen. Doch standardmäßig endet die Beobachtung des Nutzerverhaltens nach Klick auf die Anzeige in der AdWords-Auswertung. Aber was machen die Nutzer im Anschluss daran auf der Seite? Schauen sie sich weitere Unterseiten an oder konvertieren sie sogar? Wie lange bleiben sie auf der Seite? All diese Informationen sind aufschlussreich, wenn es um die Bewertung und Optimierung eurer AdWords Kampagnen geht.

Durch die Verknüpfung von Google AdWords mit Google Analytics erhaltet ihr genau darüber Auskunft: Ihr könnt den Impressionen, Klicks und der Click-through-Rate aus AdWords, Sitzungen, Sitzungsdauer und sogar Zielvorhaben aus Google Analytics gegenüberstellen. Dank der Kombination der Kampagnen-Daten aus AdWords mit den Daten aus Analytics lässt sich der Weg eurer Nutzer über eure Website weiter verfolgen.

Umgekehrt lassen sich auch Messwerte und Zielvorhaben aus Analytics in AdWords importieren, um diese hier darzustellen und auszuwerten zu können. Beispiele für solche Messwerte sind die Absprungrate, durchschnittliche Sitzungsdauer und Seiten pro Sitzung. Außerdem wird das AdWords-Remarketing durch Analytics unterstützt.

Verknüpfung von Google AdWords und Google Analytics

Um die Konten zu verknüpfen, könnt ihr entweder über den Verwalten-Bereich in Google Analytics die Einstellungen vornehmen, oder ihr geht über den entsprechenden AdWords-Bericht im Bereich Akquisition, der euch die Verknüpfung von AdWords empfiehlt, insofern diese noch nicht vorhanden ist:

Über die AdWords Berichte im Analytics Konto gelangt ihr zum Verwalten-Bereich

Über die AdWords Berichte im Analytics Konto gelangt ihr zum Verwalten-Bereich

Ihr werdet dann nach Klick auf den Button in den Verwalten-Bereich weitergeleitet. Um die Verknüpfung vorzunehmen, müsst ihr Administratoren-Rechte für AdWords und Bearbeitungsrechte für die Analytics-Property besitzen. 

Dann wählt ihr hier das passende AdWords Konto aus, zu dem ihr eine Verknüpfung erstellen möchtet. Solltet ihr Inhaber mehrerer Konten sein, könnt ihr aus diesen eines für die Verknüpfung auswählen.  

AdWords Verknüpfung konfigurieren

AdWords Verknüpfung konfigurieren

Anschließend könnt ihr der Verknüpfung noch einen Namen geben und ihr wählt die entsprechenden Datenansichten in Analytics aus, mit denen das AdWords Konto verknüpft werden soll. Ein AdWords Konto kann so mit mehreren Datenansichten gleichzeitig verbunden werden. 

Datenansicht auswählen

Datenansicht auswählen

Anschließend speichert ihr eure Einstellungen. Die Verknüpfung wird dann im Verwalten-Bereich unter „AdWords-Verknüpfungen gespeichert. Hier könnt ihr die angelegte Verknüpfung auch jeder Zeit bearbeiten und zum Beispiel das Teilen der Daten mit ausgewählten Datenansichten rückgängig machen. Außerdem habt ihr die Möglichkeit weitere Verknüpfungen zu anderen AdWords-Konten hinzuzufügen, um auch hier Daten aus AdWords mit Analytics zu kombinieren.  

Übersicht über AdWords-Verknüpfungen

Übersicht über AdWords-Verknüpfungen

Bestehende Verknüpfungen lassen sich in diesem Bereich auch wieder löschen. Klickt auf die gewünschte Verknüpfung und wählt “Gruppe von Verknüpfungen löschen“. 

Verknüpfungen können hier auch wieder gelöscht werden

Verknüpfungen können hier auch wieder gelöscht werden

AdWords Berichte in Google Analytics

Habt ihr das Konto verknüpft, findet ihr die passenden Berichte in Analytics unter Akquisition > AdWords: 

Übersicht über die AdWords Berichte in Google Analytics

Übersicht über die AdWords Berichte in Google Analytics

Insgesamt gibt es elf Berichte, die ihr für eure Auswertungen nutzen könnt. Im Folgenden stellen wir euch die einzelnen Berichte näher vor. Der Aufbau ist dabei immer ähnlich. Bei einer Verknüpfung von AdWords und Analytics werden Daten aus beiden Tools nebeneinander bzw. gegenüber gestellt. Ihr findet in den Berichten Informationen wie Impressionen, Klicks und Kosten aus AdWords in Verbindung mit z.B. Sitzungen, Sitzungsdauer und Conversions. 

Kennzahlen aus AdWords und Google Analytics

Kennzahlen aus AdWords und Google Analytics

Die grün markierten Messwerte entstammen Analytics, die anderen sind aus AdWords entnommen. Im Bereich Conversions kann zwischen E-Commerce und Zielvorhaben gewechselt werden, je nachdem was ihr für eure Auswertung betrachten möchtet, bzw. was eingerichtet ist. Für die einzelnen AdWords-Berichte bleiben die Messwerte – wie oben zu sehen – bestehen. 

Kampagnen

Der Bericht Kampagnen betrachtet die Performance eurer Kampagnen allgemein, sowie auch heruntergebrochen auf Anzeigengruppen, Anzeigen oder Keywords. Der Fokus liegt hier auf dem generierten Traffic: Interagieren Nutzer weiter mit der Website und schließen sie eine Conversion ab, egal ob Kauf oder Zielerreichung?  

Strukturkarten

Die Strukturkarten erlauben eine visuelle Überprüfung von Trends in euren AdWords Daten. Die Daten werden hier einander in einem Diagramm gegenübergestellt. Je nachdem auf welcher Ebene ihr euch in dem Bereich befindet, werden Daten zu Kampagnen, Anzeigengruppen oder Keywords angezeigt.

Visuelle Darstellung im Bericht Strukturkarten

Keywords einer Anzeigengruppe auf Basis von Sitzungen im Vergleich zur Absprungrate

Die Größe der Rechtecke repräsentiert den primären Messwert, in diesem Beispiel die Sitzungen (1). Je größer das Rechteck desto mehr Sitzungen wurden gezählt. Der sekundäre Messwert wird anhand der Farbe und Sättigung repräsentiert, im Beispiel ist das die Absprungrate (2)Je dunkler das grün, desto besser ist der sekundäre Messwert. Aus der Kombination beider Werte können dann Trends abgeleitet werde, wie z.B. dass auch Keywords mit geringerer Sitzungszahl eine geringe Absprungrate zeigen und guten Traffic auf die Seite bringen. 

Sitelinks

Der Bericht zu den Sitelinks ermöglicht euch die Bewertung der Leistung der für die Kampagnen eingerichteten Sitelinks. Die Sitelinks gehören zu den Anzeigenerweiterungen in AdWords 

Achtung bei der Auswertung: Die Analytics-Daten beziehen sich tatsächlich nur auf den Klick auf den Sitelink bzw. die URL des Links. In den Berichten in AdWords werden jedoch sämtliche Klicks auf die Anzeige mit Sitelinks in den Statistiken dargestellt, unabhängig davon, was in der Anzeige angeklickt wurde. Dies kann zu Abweichungen in den Messwerten führen.  

Gebotsanpassungen

Mit Hilfe dieses Berichts könnt ihr eure Gebotsanpassungen analysieren und deren Wirksamkeit überprüfen. Der Bericht lässt sich nach Geräten, Standort oder dem Werbezeitplaner aufschlüsseln: 

Bericht zu Gebotsanpassungen

Bericht zu Gebotsanpassungen

So könnt ihr eure Anzeigenleistung durch Gebotsanpassungen optimieren. Seht ihr zum Beispiel, dass eine Kampagne besonders über Mobilgeräte gut performt, könnt ihr eine entsprechende Gebotsanpassung für Mobilgeräte einrichten und diese dann auch wieder mit Hilfe des Berichts überprüfen und weiter optimieren. Oder es zeigt sich eine erhöhte Kampagnen-Performance an einem bestimmten Standort oder zu einer bestimmten Zeit (Werbezeitplaner). Behaltet eure Gebotsanpassungen im Blick, um die optimale Kampagnen-Leistung zu erzielen. 

Keywords

Ähnlich wie der Bericht zu den Kampagnen, könnt ihr in diesem Bericht die Performance auf Basis der Keywords bewerten. Er gibt euch Aufschluss über Trends und Leistungen innerhalb eurer Keywords. Mit dem Bericht lässt sich auch überprüfen, welches Keyword bei eng verwandten Begriffen die bessere Performance zeigt, oder auch welche Keyword-Option die bessere Leistung erzielt. Möglich ist zum Beispiel, dass ein weitgehend passendes Keyword zwar viele Nutzer erreicht und viele Klicks und Sitzungen erzielt, jedoch die Absprungrate für dieses Keyword sehr hoch ist. Hier würde es sich anbieten, die Keyword-Option anzupassen und z.B. auf genau passend umzusteigen, um die Zielgruppe konkreter anzusprechen und die Absprungrate zu minimieren. 

Suchanfragen

Ähnlich wie der AdWords-Bericht der Suchanfragen, zeigt euch dieser Bericht die tatsächlichen Suchanfragen eurer Nutzer. Durch die Kombination mit den Analytics Daten könnt ihr hier weitere Keywords für eure Kampagnen identifizieren und eure Keyword-Liste ggf. erweitern. Außerdem habt ihr die Möglichkeit euch neben den Suchanfragen auch den Übereinstimmungstyp der Suchanfrage zu den Kampagnen-Keywords anzeigen zu lassen. Also wie viele der Suchanfragen genau passend oder weitestgehend passend waren, entsprechen der Wortgruppe.  

Tageszeit

Dieser Bericht zeigt euch nach Stunde des Tages oder nach Wochentagen die Performance eurer AdWords Kampagnen. Analysiert Trends innerhalb eines Tages oder innerhalb einer Woche und passt eure Anzeigenschaltung entsprechend durch Gebotsanpassungen an. Anhand sekundärer Dimensionen wie Kampagne oder Keyword lassen sich die allgemeinen Daten über alle AdWords-Aktivitäten hinweg genauer aufschlüsseln und Handlungsempfehlungen für spezifische Kampagnen oder Keywords ableiten. Zeigt eine Kampagne z.B. die größten Umsätze und Klicks am Wochenende, so könnte unter der Woche die Schaltung der Anzeigen eingeschränkt werden, um das Budget optimal zu nutzen. 

Finale URLs

In diesem Bericht findet ihr eine Auswertung nach finalen URLs. Sie ist so aufgebaut wie auch der Bericht zu den Kampagnen oder Keywords. Der Bericht ist also ein spezieller Zielseiten-Bericht für euren AdWords Traffic. Bewertet mit Hilfe dieses Berichts die Effektivität eurer Zielseiten was Nutzeransprache und Generierung von Conversions angeht. Durch sekundäre Dimensionen wie Kampagne oder Anzeigengruppe könnt ihr genauer analysieren, in welchen Zusammenhängen die Zielseiten wie leistungsstark sind. 

Ausrichtung auf das Display-Netzwerk, Video- und Shopping-Kampagnen

Diese Berichte liefern euch detailliertere Informationen zum Display-Netzwerk, sowie Shopping- und Video-Kampagnen. Ihr erhaltet Einblick in die Leistung dieser Formate und könnt Aussagen darüber treffen, wo weiteres Optimierungspotential liegt. 

Der Bericht zum Display-Netzwerk lässt sich nach den einzelnen Ausrichtungsoptionen filtern: 

  • Keywords für das Display-Netzwerk 
  • Placements 
  • Themen 
  • Interessen und Remarketing 
  • Alter 
  • Geschlecht 

Ergänzend zu den einzelnen Ausrichtungsoptionen werden auch die Dimensionen Kampagne und Anzeigengruppe aufgeführt, und zeigen zum Beispiel welche Themen in Verbindung mit welcher Kampagne und Anzeigengruppe die beste Leistung erbringen. Lediglich bei Auswahl des Berichts zu Placements werden diese ohne Kampagnen und Anzeigengruppen dargestellt. 

Im Bereich der Shopping-Kampagnen erhaltet ihr Informationen dazu, welcher Produkttyp oder welche Produktkategorie die meisten Verkäufe erzielt hat. So lassen sich auch hier Optimierungspotentiale wie Budget-Anpassungen ableiten. 

Abweichungen der Daten aus Analytics und AdWords

Immer wieder gibt es jedoch auch Probleme bei der Auswertung der verknüpften Daten aus Analytics und AdWords. Hier spielt die unterschiedliche Zählweise der beiden Tools eine Rolle. Da sie verschiedene Aspekte in den Vordergrund stellen, werden Daten manchmal unterschiedlich verarbeitet. 

Ein bekanntes Beispiel sind hierbei die Abweichungen zwischen Klicks und Sitzungen. Dies kann mehrere Ursachen haben, die von der Verknüpfung mehrerer AdWords Konten mit nur einer einzigen Datenansicht in Analytics bis hin zur falschen Einbindung des Trackings reichen. 

Aber auch Conversion-Messwerte unterscheiden sich häufig in Analytics und AdWords. Auch hier sind die Gründe vielfältig. So können schlichtweg nicht alle Conversions aus AdWords in Analytics gemessen werden oder die Zuordnung und Zählmethoden der Conversions in den beiden Tools unterscheiden sich. Mehr zu diesem Thema erfahrt ihr im Beitrag zur Abweichung von Conversions in AdWords und Analytics 

Fazit

Ihr seht also: Nach der Verknüpfung von Google AdWords und Google Analytics erhaltet ihr vielfältige Auswertungsmöglichkeiten, die es erlauben eure Kampagnen noch leistungsfähiger zu machen. Ihr könnt den Weg der Nutzer nach Klick auf eine Anzeige weiterverfolgen und beurteilen, ob der Nutzer ein gewünschtes Ziel erreicht. So lassen sich weniger gut performende Kampagnen identifizieren und optimieren. Außerdem könnt ihr von den leistungsstarken Kampagnen lernen. Dabei ist die Verknüpfung einfach einzurichten und im Handumdrehen erledigt. 

Weitere Tipps zur Einrichtung eures Analytics Kontos findet ihr im Artikel “Google Analytics Konto richtig einrichten“.

Datenintegration in Searchmetrics: Google Analytics & Search Console

Bei der Entwicklung von SEO Strategien ist es schon lange nicht mehr ausreichend, nur auf ein bestimmtes Keyword-Set zu optimieren und gute Rankings für möglichst viele Keywords mit hohem Suchvolumen zu erzielen. Die Optimierung wird immer Daten getriebener – die reine Überwachung von vorher festgelegten Keyword-Positionen reicht nicht aus. Viel interessanter ist es, zu untersuchen, über welche Keyword Nutzer tatsächlich auf die Website gelangen und wie sie sich dort verhalten.

Daher spielen bei der Optimierung auch Daten aus der Webanalyse und aus der Google Search Console eine große Rolle. Viele SEO-Tool-Anbieter haben dies erkannt und bieten die Möglichkeit diese Daten in ihr Tool zu integrieren. So auch Searchmetrics.

In diesem Artikel erfahrt ihr:

  • Warum es Sinn macht, die Datentöpfe zu verbinden
  • Wie ihr eure Webanalyse-Tools mit Searchmetrics verbindet
  • Wie ihr die Integration der Search Console vornehmt
  • Welche Berichte euch in Searchmetrics danach zur Verfügung stehen
  • Wie ihr Keyword-Optimierungen am Beispiel der Holistic Search durchführt
  • Wie ihr Traffic- und Performance-Steigerungen mit Hilfe der Forecast Berichte ermitteln könnt

Warum Webanalyse Tools und Google Search Console mit Searchmetrics verknüpfen?

Die Gründe für eine Integration der Daten aus Webanalyse-Tools und Search Console liegen eigentlich auf der Hand. Seit die Suchbegriffe, mit denen Nutzer über die Google Suche auf eine Website gelangen nicht mehr an Webanalyse-Tools übergeben werden („not provided“ Problem), ist es für Websitebetreiber relativ schwierig geworden, die Keywords zu identifizieren, die für ihre Website besonders gewinnbringend sind. Zwar lassen sich durch eine Verknüpfung von Google Analytics und der Google Search Console eben diese Keywords in das Webanalyse-Tool integrieren, doch stößt man hier bei den Auswertungsmöglichkeiten schnell an Grenzen, da die Daten nur begrenzt in den Standard Berichte verwenden lassen.

Searchmetrics wirbt damit, diese Informations- und Wissenslücke zu schießen zu wollen. Die Grundidee ist hierbei aus Daten von Webanalyse-Tools (wie z.B. Google Analytics), den Daten aus der Google Search Console sowie den Daten bzw. Auswertungen von Searchmetrics einen großen Datentopf zu generieren, um aggregierte Daten aus verschiedenen Quellen für die SEO-Optimierung auszunutzen.

Der Mehrwert liegt hier vor allem bei Berichten, bei denen die reine Verknüpfung von Google Analytics und Google Search Console an ihre Grenzen stößt. Beispielsweise kann das Suchvolumen für spezifische Keywords angezeigt werden und es ist eine URL-Ansicht möglich, sodass pro URL die rankenden Keywords angezeigt werden. Searchmetrics positioniert sich damit als eines der wenigen Tools, die verschiedene Datentöpfe nutzen und zudem eine eigene Datenbank miteinfließen lassen (Mehr dazu im Searchmetrics Blog).

Marcus Tober, Geschäftsführer von Searchmetrics, sieht dies als eines der USPs von Searchmetrics:

„Die Suite beinhaltet mehrere hundert Millionen Keywords und hunderter Millionen von Domains aus mittlerweile ca. 20 Ländern. Kurz: Die Searchmetrics Suite ‚provided‘ einen Großteil der Daten, die vielen Entscheidern nun verloren gegangen sind. Und das aus diversen Perspektiven – von spezifischen, bereits verfügbaren Keyword-Rankings bis hin zur holistischen Ansicht aller Keywords einer URL.“ Marcus Tober, Searchmetrics (Internetquelle: Searchmetrics Blog)

Andererseits bietet Searchmetrics nicht nur die Daten, sondern auch die entsprechenden Auswertungsmöglichkeiten, um rund um das Thema Traffic interessante Insights zu gewinnen. Sinn und Zweck ist hier eine Entscheidungsunterstützung, welche Keywords gut oder schlecht sind, welche Potentiale ausgeschöpft werden sollten und wie SEO und SEA bzw. PPC besser synchronisiert werden können. Schlussendlich ist Searchmetrics aber in der Praxis oft kein Ersatz für PPC bzw. SEA-Maßnahmen. Optimierer sind derzeit immer noch auf bezahlte Suchanfragen aus Google AdWords sowie den Vorteilen von PPC-Maßnahmen angewiesen, um auch die Suchmaschinenoptimierung voranzutreiben.

Webanalyse-Tools mit Searchmetrics verknüpfen

Voraussetzung dafür, dass ihr eure Webanalyse Tools mit Searchmetrics verknüpfen könnt, ist dass ihr die Searchmetrics Suite nutzt und ein Projekt für die jeweilige Website angelegt habt. Neben Google Analytics bietet Searchmetrics die Möglichkeit weitere Analyse-Tools zu integrieren. Diese sind:

  • Adobe Analytics (Omniture)
  • AT Internet’s Analytics Suite
  • eTracker (etracker Analytics)
  • Webtrekk
  • Webtrends

Integration von Google Analytics in Searchmetrics

Um Google Analytics mit Searchmetrics zu verknüpfen, müsst ihr zuerst in die Einstellungen eures ausgewählten Projekts gehen. Hierbei könnt ihr bei Auswahl eures Projekts mit der Maus auf den „Stift“ klicken, um direkt zu den Projekteinstellungen zu kommen. Alternativ steht auch der längere Weg über „Einstellungen/Meine Projekte“ zur Verfügung. Hier könnt ihr ebenfalls über den Bearbeitungsstift zu den Einstellungen gelangen.

In den Projekteinstellungen kann Google Analytics integriert werden

In den Projekteinstellungen kann Google Analytics integriert werden

Nachdem ihr zu den Projekteinstellungen gelangt seid, könnt ihr im Reiter „Web Analytics“ die Integration vornehmen.

Mit Klick auf „Anbieter verknüpfen“ kann Google Analytics in Searchmetrics integriert werden

Mit Klick auf „Anbieter verknüpfen“ kann Google Analytics in Searchmetrics integriert werden

Mit Klick auf „Authentifizieren“ öffnet sich ein neues Browserfenster, wo ihr eure Login-Daten zu eurem Google Analytics Account eingeben müsst. Wichtig ist hier, dass ihr euch in den richtigen Account einloggt, sodass ihr später die richtige Datenansicht auswählen könnt

Mit Klick auf „Authentifizieren“ öffnet sich ein neues Browserfenster, wo ihr eure Login-Daten zu eurem Google Analytics Account eingeben müsst. Wichtig ist hier, dass ihr euch in den richtigen Account einloggt, sodass ihr später die richtige Datenansicht auswählen könnt

Im Login-Prozess fragt Google nach einer Erlaubnis, ob Searchmetrics auf Berichtsdaten von Google Analytics zugreifen darf. Das müsst ihr zulassen, damit ihr die Integration korrekt durchführen könnt.

Im Login-Prozess fragt Google nach einer Erlaubnis, ob Searchmetrics auf Berichtsdaten von Google Analytics zugreifen darf. Das müsst ihr zulassen, damit ihr die Integration korrekt durchführen könnt.

Bestätigung der Verknüpfung des Tools

Bestätigung der Verknüpfung des Tools

Nachdem ihr euch erfolgreich eingeloggt habt, müsst ihr in Searchmetrics das entsprechende Konto, die zugehörige Property und die passende Datenansicht wählen. Wichtig: Beachtet, dass die Auswahl eurer Datenansicht Einfluss auf die Daten hat, die schlussendlich in Searchmetrics ankommen. Wenn ihr z.B. Datenansichten mit Filtern angelegt habt, kommen in Searchmetrics andere Daten als ohne Filter.

Nun ist Google Analytics erfolgreich in Searchmetrics integriert. Um noch mehr aus den Auswertungsmöglichkeiten von Searchmetrics herauszuholen, empfiehlt sich noch das Importieren ausgewählter Conversions. Dieser Schritt stellt eine interessante Möglichkeit dar, um den Erfolg der SEO-Maßnahmen, beispielsweise mit Ansatz eines ROI, besser nachvollziehen zu können.

Um Conversions aus eurer Google Analytics Datenansicht zu integrieren und auswählen zu können, kickt ihr auf „Conversionliste neu laden“. Danach sollten eure Zielvorhaben aus Google Analytics auswählbar sein.

Zielvorhaben aus Google Analytics in Searchmetrics hinterlegen.

Zielvorhaben aus Google Analytics in Searchmetrics hinterlegen.

Habt ihr die Zielvorhaben hinterlegt, stehen euch die Conversiondaten in verschiedenen Berichten zur Verfügung wie z.B. bei der „Holistic Search“.

Integration der Google Search Console in Searchmetrics

Neben der Integration von Webanalyse-Tools ist es ebenfalls möglich die Google Search Console (früher Webmaster Tools) zu integrieren. Wie auch bei der Integration von Webanalyse-Tools müsst ihr dazu in die Projekteinstellungen und dann zum Reiter „Webmaster Tools“ navigieren.

Google Search Console mit Searchmetrics verknüpfen.

Google Search Console mit Searchmetrics verknüpfen.

Mit Klick auf „Authentifizieren“ müsst ihr euch über die Anmeldemaske von Google mit dem richtigen Zugangskonto zu eurem Google Search Console Konto anmelden. Voraussetzung für die Verknüpfung ist, dass ihr Administratorrechte in der Search Console habt und neue Nutzer hinzufügen könnt.

Richtige Datenansicht auswählen

Richtige Datenansicht auswählen

Nach dem Login in euer Google Search Console Konto müsst ihr die richtige Property bzw. die richtige Domain auswählen. Hier ist empfehlenswert, die angelegte Domainvariante zu wählen, die der Website-Adresse entspricht. Habt ihr also eine http sowie eine https-Variante angelegt und eure Webadresse lautet: https://www.eureseite.de/, dann solltet ihr dementsprechend diese Property auswählen.

Nach der Auswahl der Property müsst ihr nun in die Search Console springen, um hier den von Searchmetrics generierten Nutzer zu hinterlegen.

Um die Integration der Google Search Console abzuschließen, muss in der Search Console selber der generierte Nutzer nach den Anweisungen hinterlegt werden.

Um die Integration der Google Search Console abzuschließen, muss in der Search Console selber der generierte Nutzer nach den Anweisungen hinterlegt werden.

Ist der Nutzer hinterlegt, kann die Integration mit Klick auf „Fertig“ abgeschlossen werden.

Integration bestätigt

Integration bestätigt

Searchmetrics Berichte und Optimierungsansätze

Nachdem ihr beide Tools mit Searchmetrics verknüpft habt, könnt ihr in verschiedenen Berichten im Reiter „Traffic“ auf die Daten zugreifen und auf deren Grundlage entscheiden, welche URLs ihr auf welche Keywords optimieren wollt. Zu diesen gehören zum Beispiel die Holistic Search und Forecast.

Holistic Search

Im Reiter „Traffic“ ist der Bericht „Holistic Search“ zu finden. Dieser Bericht stellt verschiedene SEO-Kennzahlen vs. PPC-Kennzahlen gegenüber. Interessant ist hier noch der Import von Zielvorgaben aus Web Analytics. Dafür müssen die Conversions bzw. Zielvorgaben in Searchmetrics entsprechend hinterlegt und ausgewählt sein.

Über das Auswahlfeld „Spalten auswählen“ werden die Conversions in der Tabelle sichtbar, sofern die Conversions erfolgreich bei der Web Analytics-Integration „importiert“ wurden.

Conversions im Reiter „Spalten auswählen“, um die Daten aus Web Analytics anzeigen zu lassen.

Conversions im Reiter „Spalten auswählen“, um die Daten aus Web Analytics anzeigen zu lassen.

Indem ihr dies nutzt könnt ihr auf der einen Seite, die Performance von PPC sowie SEO vergleichen.  Auf der anderen Seite ist dies interessant, um beispielsweise neue Traffic-Potentiale für die einzelnen Keywords zu ermitteln. Ihr habt die Möglichkeit lohnende und interessante Keywords zu identifizieren.

Abschlüsse über SEA und SEO auf Keyword-Basis

Abschlüsse über SEA und SEO auf Keyword-Basis

Für das markierte Keyword wurden über PPC 146 Abschlüsse generiert, über SEO lediglich 1 Abschluss. Mit Hintergrund des Suchvolumens und der Positionen von SEO sowie SEA (im Screenshot leider nicht sichtbar) macht hier beispielsweise eine SEO-Optimierung für das Keyword Sinn, um langfristig PPC-Kosten zu senken und den Gesamtumsatz von PPC und SEO zu steigern.

Eine weitere Analysemöglichkeit besteht in der Betrachtung von SEO und PPC Positionierungen. Das macht z.B. Sinn, wenn man wissen will, für welches Keyword keine PPC-Maßnahmen mehr laufen müssen, wenn man organisch auf Position 1 rankt.

Tipp: Hier bietet Searchmetrics vordefinierte Filter, die ihr bequem auswählen könnt. Es gibt eine ganze Palette an verschiedenen Analysemöglichkeiten um PPC und SEO gegenüberzustellen.

Über „Filter Presets“ können vordefinierte Filter bequem und schnell ausgewählt werden, um schnelle Analysen zu fahren.

Über „Filter Presets“ können vordefinierte Filter bequem und schnell ausgewählt werden, um schnelle Analysen zu fahren.

SEO- und PPC-Position beide auf Position 1 über die Searchmetrics-Filterfunktion.

SEO- und PPC-Position beide auf Position 1 über die Searchmetrics-Filterfunktion.

Wichtig zu beachten ist noch, dass sich die Werte grundsätzlich mit der Auswahl des Zeitraumes ändern.

Vorsicht bei der Deutung von SEO-Conversiondaten

Wichtig bei der Betrachtung von SEO-Conversiondaten ist, dass durch das „not provided“ Problem eine Messung der Conversions für die einzelnen organischen Suchanfragen natürlich schwierig ist, weil nur ein Bruchteil der Suchanfragen in den Webanalyse-Tools verarbeitet werden. Dies gibt Searchmetrics selbst auch über eine Hinweismeldung zu erkennen.

: In diesem Beispiel werden lediglich 5 von 100 Keywords in den Webanalyse-Tools verarbeitet. Die Datenbasis für SEO ist damit in Searchmetrics ungenau. Der prozentuale Werte, in diesem Fall 95%, kann je nach Projekt abweichen.

In diesem Beispiel werden lediglich 5 von 100 Keywords in den Webanalyse-Tools verarbeitet. Die Datenbasis für SEO ist damit in Searchmetrics ungenau. Der prozentuale Werte, in diesem Fall 95%, kann je nach Projekt abweichen.

Nach der Analyse folgt die Optimierung

Searchmetrics bietet für den Optimierungsprozess den Vorteil von „fließenden Klickwegen“, sodass grundsätzlich kein weiteres SEO-Tool hinzugezogen werden muss. Somit kann das betroffene Keyword direkt aus dem Bericht heraus tiefer analysiert werden, um sofort technische Probleme oder Defizite in Bezug auf den Content abzuleiten.

Bei der Auswahl von „Keyword Optimization“ wechselt man sofort zur „Onpage-Sicht“, um entsprechende Optimierungsmaßnahmen ableiten zu können.

Auffällige Keywords direkt analysieren, um Maßnahmen zur Optimierung abzuleiten.

Auffällige Keywords direkt analysieren, um Maßnahmen zur Optimierung abzuleiten.

Für das untersuchte Keyword wären hier erste Möglichkeiten das Keyword in eine H1-Überschrift und in der Description unterzubringen, um eine bessere Positionierung zu erreichen.

Für das untersuchte Keyword wären hier erste Möglichkeiten das Keyword in eine H1-Überschrift und in der Description unterzubringen, um eine bessere Positionierung zu erreichen.

Searchmetrics Forecast

Weitere Berichte, die die Daten der Analyse Tools miteinbeziehen, sind die Forecast-Berichte. Sie geben grundsätzlich Auskunft darüber, für welche URLs sich Traffic-Steigerungen in Folge einer Rankingverbesserung ergeben. Besonders interessant ist hier die Kombination aus URL und entsprechenden Keywords, für die die spezifische URL rankt. Wie bei der Holistic Search können auch hier Conversions in der Tabelle angezeigt werden, um Suchmaschinenoptimierung noch performanter zu machen.

Im Gegensatz zur Holistic Search beziehen sich die Forecast Berichte ausschließlich auf organische URLs bzw. auf SEO, sodass hier PPC-Daten nicht miteinbezogen werden können.

Searchmetrics geht mit den Forecast-Berichten klar in Richtung Performance-SEO, sodass Analysen besonders dann interessant sind, wenn entsprechende Conversion-Werte vordefiniert wurden und ein Interesse daran besteht, SEO-Maßnahmen aus monetärer Sicht einzuschätzen.

Searchmetrics selbst beschreibt die Nutzung von Forecast grundlegend über drei Schritte:

  1. Schritt: Seiten mit dem höchsten, monetären Wert im Forecast-Bericht identifizieren
  2. Schritt: Danach das Traffic-Potential ermitteln
  3. Schritt: Spezifische URL Optimieren und den ROI steigern

Man kann somit verschiedene Fragestellungen entwickeln, um aus dem Forecast-Bericht verschiedene Insights zu gewinnen. Einige Fragestellungen könnten lauten:

  • Welche Seiten haben das größte Potential von Traffic-Steigerungen?
  • Welche Seiten sind aus monetärer Sicht am wertvollsten?
  • Was würde es kosten auf z.B. „nicht-optimierte“ Seiten PPC-Traffic zu schalten?

Beispiel einer Forecast-Analyse

Im unteren Screenshot ist zu erkennen, dass der Page Forecast nach dem größten, durchschnittlich potentiellen Traffic-Zuwachs sortiert ist. In unserem Fall betrachten wir die erste URL mit einem Traffic-Zuwachs von 8370. Hier ist die Einstellung so konfiguriert, dass der Zuwachs bei einem Ranking für die Plätze 1 bis 3 innerhalb eines Monats angegeben ist. Diese Einstellungen sind wichtig, da sich dementsprechend die Daten in Searchmetrics anpassen – man kann sich somit also auch die Quartalszahlen auswerten lassen.

Wichtig ist die passende Voreinstellung von Datum und Auswahl des Marktpotentials.

Wichtig ist die passende Voreinstellung von Datum und Auswahl des Marktpotentials.

Im Beispiel ermittelt Searchmetrics einen Traffic-Zuwachs von 8370 im eingestellten Monat für die aufgeführte URL mit zugehörigen Keywords.

Im Beispiel ermittelt Searchmetrics einen Traffic-Zuwachs von 8370 im eingestellten Monat für die aufgeführte URL mit zugehörigen Keywords.

Wie errechnet Searchmetrics den Forecast?

Der Page Forecast errechnet sich in Searchmetrics aus verschiedenen Datentöpfen. Zum einen fließen Daten aus der eigenen „Research Datenbank“, den Webanalyse-Daten, PPC-Daten und den Google Search Console-Daten ein.

Im aufgeführten Beispiel von oben wird deutlich, dass für zwei der drei angegebenen Keywords eine SEO-Position von 6 und 14 ermittelt wurde. Hier ergibt sich logischerweise dann auch der kleinste Anteil am Traffic, sodass hier Optimierungspotential besteht. Auch hier besteht wieder die Möglichkeit mit einem Klick eine „Content Optimierung“ für die entsprechende URL durchzuführen.

Nach Anzeige von Suchvolumen und dem Forecast für Keywords kann noch besser abgeschätzt werden, wie sehr sich eine Optimierung für das Keyword lohnen kann. In unserem Beispiel erweist sich vor allem das zweite Keyword mit einem Suchvolumen 19.970 (generisches Keyword) auf den ersten Blick als effektiver. Dennoch hat das Longtail-Keyword mit einem Suchvolumen von 970 ebenfalls Potential, sodass im Vergleich die Erfolgswahrscheinlichkeit bei Nischen-Optimierung vermutlich sogar höher ist.

Nach Indentifizierung der potenziale, kann die optimierung direkt über die Content Optimization angegangen werden

Nach Identifizierung der potenziale, kann die Optimierung direkt über die Content Optimization angegangen werden

Fazit

Searchmetrics verfolgt den innovativen Ansatz, verschiedene Datentöpfe ineinander fließen zu lassen. Vergleichende Analysen werden dadurch einfacher und gehen schneller von der Hand, da die Daten nicht mehr händisch in Excel gezogen werden müssen. Auch wenn andere Tools mit ähnlichen Funktionen werben, liegt die Besonderheit hier definitiv in der eigenen Datenbank und den verschiedenen Berichten, die die Searchmetrics Suite zur Verfügung stellt.

Wer jetzt aber glaubt, dass das Tool die Auswertung auf Knopfdruck liefert, der hat sich getäuscht. Wie auch bei anderen Tools müssen die gelieferten Ergebnisse kritisch hinterfragt und mit den Zielen der jeweiligen Website abgeglichen werden. In der Praxisarbeit besteht zum Beispiel manchmal das Problem, dass angezeigte Keywords nicht zur URL bzw. zum Inhalt der URL passen oder nur wenig hilfreich sind, wenn es sich beispielsweise um Brand-Keywords handelt. Teilweise fehlen auch noch zusätzliche Daten, die für die Optimierung hilfreich wären. Und auch die monetäre Bewertung von URLs bzw. dem Traffic sollte immer unter Berücksichtigung der Geschäftsziele bzw. dem Content der Seite analysiert werden.

MeasureCamp Paris

Recap zum MeasureCamp in London 2017

Am Samstag fand eine der beliebstesten MeasureCamp-Veranstaltungen das 11. MeasureCamp in London – statt. Das Event war sehr gut besucht und das internationale Publikum konnte Vorträgen aus einem sehr breiten Themenspektrum lauschen. Haupt-Topics waren Data Science, künstliche Intelligenz, Datenvisualisierungstools, Umgang mit GDPR (GDPR – Die neue EU-Datenschutz-Grundverordnung), Testing und Optimierung, sowie viele weitere spannende Themen.

Workshops & Trainings am Vortag

Am Vortag (Freitag) des MeasureCamp fanden eine Reihe von Workshops und Trainings statt, bei denen man, dank theoretischen und praktischen Beispielen, Übungen und Diskussionen, Einblick in ausgewählte Bereiche erhalten konnte. In meinem Fall habe ich mir den Data Studio Workshop angesehen (gehalten von Anna Lewis).

MeasureCamp: Vorträge

Die Struktur des MeasureCamp wurde auch in London beibehalten, sodass erst nach der Einführungssession alle mit Spannung erwarteten Sessions und Slots nach und nach bekannt gegeben wurden. Insgesamt gab es 8 Slots mit jeweils fast 9 parallellaufenden Sessions, die zur Auswahl standen.

Willkommen beim MeasureCamp in London

Willkommen beim MeasureCamp in London

Die Spenden-Tradition aller MeasureCamps wurde auch diesmal fortgeführt. Die gesammelten Spenden richten sich an „Dorothy House“ (Hospice care).

Session 1: The Leapthree GA Set-Up Reference Guide by Peter O’Neill

Im ersten Slot habe ich mir die Session von Peter angeschaut, bei der er seinen Reference-Guide für das initiale Setup von Google Analytics vorgestellt hat. Dieser Guide vermittelt vor allem das Verständnis für gemachte Einstellungen bei einem Analytics Set-Up und nutzt so nicht nur den Analysten sondern bringt zukünftigen Verwendern auch das Thema generell näher.

Dabei besteht der Guide aus einer manuell zusammengefassten und ausgefüllten Excel-Tabelle mit folgenden Bereichen zur Einrichtung:

  • Page naming convention
  • Events
  • Content Grouping
  • Custom Dimensions
  • Custom Metrics
  • Goals
  • Defined list of names
  • Custom names

Ein Tipp von Peter am Rande: „Use obvious and user-friendly naming!“

Diese sehr hilfreiche Legende aller Einstellungen, Regeln und Definitionen rund um Analytics ist als Dokumentation für einen Setup gedacht, um auch später gemachte Einstellungen nachvollziehen und einordnen zu können. Durch die manuelle Aktualisierung macht es die Anwendung jedoch je nach Kundengröße sehr aufwändig und kompliziert.

In der Diskussion kamen weitere Ideen und Anregungen für die vereinfachte Instandhaltung zu Tage. Hier wurden z.B. automatische API-Exporte oder die Verwendung von GA-Plugins wie Supermetrics und Next Analytics genannt.

Session 2: Data science with GA by Alexandros Papageorgiou

Alexandros hat seine Methodik für Data Science Analysen basierend auf Google Analytics Daten vorgestellt. Dabei bezieht er sich auf folgenden Ablauf:

1. Daten exportieren

1. Daten exportieren

2. Variablen auswählen und „predictor variables“ mit „target variables (z.B. Transaktion) kombinieren

2. Variablen auswählen und „predictor variables“ mit „target variables (z.B. Transaktion) kombinieren

3. Data-Sampling deaktivieren, durch Anpassung der Abfragen

3. Data-Sampling deaktivieren, durch Anpassung der Abfragen

4. Daten-Transformation: Vereinheitlicht die Daten pro individueller Dimension (Bsp. Nutzer oder Seite)

4. Daten-Transformation: Vereinheitlicht die Daten pro individueller Dimension (Bsp. Nutzer oder Seite)

Dabei können mehrere Dimensionen gleichzeitig abgefragt (maximal möglich 7), damit eine Session basierte Datenauflistung möglich wird bzw. einzelne User-Sessions zu betrachten sind

Dabei können mehrere Dimensionen gleichzeitig abgefragt (maximal möglich 7), damit eine Session basierte Datenauflistung möglich wird bzw. einzelne User-Sessions zu betrachten sind

Um mehrere Dimensionen und eine höhere Granularität der Daten abzufragen, ist es möglich mehrere Abfragen zu fahren und diese basierend auf bestimmten „key dimensions“ (z.B. Custom Dimension mit Unique User ID) zusammenzuführen.

5. Daten archivieren: sammelt und speichert die gewonnenen Daten

6. Datenmodelle und Kommunikation der Analyse-Ergebnisse

6. Datenmodelle und Kommunikation der Analyse-Ergebnisse

Außerdem hat er einige Methoden für Predictive Analysis vorgestellt

Außerdem hat er einige Methoden für Predictive Analysis vorgestellt

Schlussendlich ist es wichtig, nicht unbedingt alle, aber genug Daten zu haben, um repräsentative Analysen zu machen und Aussagen (predictions) zu treffen.

Die Beispiele von Alexandros basierten auf Daten der Google Analytics free edition.

Beim Verwenden von Google Analytics 360 empfiehlt sich der Rohdaten-Export via BigQuery.

Session 3: Firebase or not to Firebase by Mateo Fava (Discussion)

Mateo hat eine offene Diskussion gestartet, bei der viele Probleme angesprochen wurden, auf die er selbst und seine Agentur bei der Implementierung von Firebase für Apps stoßen. Wie sich während der Diskussion gezeigt hat, sind dies Probleme, mit denen auch viele andere Analysten und Developer zu tun haben.

Die meistverwendete Lösung ist aktuell die zweigleisige Implementierung von Google Analytics und Firebase für Apps (über den Google Tag Manager). Das Hauptproblem dabei ist die Dateninkonsistenz, die trotz gleichem SDK und Versenden der Daten in zwei Richtungen (einmal zu Firebase und einmal zu Google Analytics) besteht. Je höher der Datentraffic wird, desto weniger Daten werden an Google Analytics im direkten Vergleich zu Firebase übermittelt.

Eine Vermutung für einen möglichen Grund der Datendiskrepanz bzw. des Datenverlustes in GA bei erhöhtem Traffic: Der Google Tag Manager sendet die Daten erst zu Firebase und hängt Google Analytics dann hinten dran.

Amüsant war hier auch, dass Mateo die meisten Probleme mit der Dateninkonsistenz erst mit „Livegang“ der Apps feststellen konnte, da bei den vorherigen Tests alles funktionierte. Dafür gibt es aktuell allerdings keine Erklärung, auch nicht von Seiten des Google Supports, der diese Problematik aktuell untersucht.

Außerdem wurden Pros und Contras in Bezug auf Firebase diskutiert.

Weitere Probleme bei der Verwendung von Firebase Analytics stellen dar:

  • Die Akquisitions-Kanäle in Firebase Analytics: Hier werden nur die vordefinierten Kanäle erkannt und überhaupt erfasst
  • Sessions: es gibt kein Session-Level in Firebase
  • Spezielle Regel für Firebase SDK: z.B. wird kein Unterstrich (underscore) akzeptiert und die Daten werden bei Verwendung dieses Formats gar nicht erfasst
  • BigQuery: Die Integration per Default vs. Schema ist total unterschiedlich.

Mit den Entwicklungen der letzten Zeit haben sich im Endeffekt alle Developer dazu gezwungen gesehen für das Tracking von Apps, auf GTM v5 umzuziehen (Firebase SDK), da die alten SDKs nicht mehr aktualisiert und von vielen Netzwerken nicht mehr unterstützt werden.

Für kleine Apps ist Firebase als bevorzugte und alleinige Lösung vollkommen ausreichend, bei größeren Apps muss man aber nach aktuellem Stand der Entwicklungen weiterhin zweigleisig mit zusätzlicher GA-Implementierung fahren.

Session 4: Google Tag Manager: 5 years, what have we learned by Simo Ahava

Simo hat kurz den Weg und die Entwicklung vom Google Tag Manager in den letzten 5 Jahren vorgestellt, sowie interessante Denkanreize für die Weiterentwicklung gegeben.

Simo Ahava beim MeasureCamp in London

Simo Ahava beim MeasureCamp in London

Tag Management im Web, wie mit Hilfe des Google Tag Managers (GTM) umsetzbar, basiert auf JavaScript. Es ist „stateless“: Dynamik ist seine Natur und es werden zunächst keine Zustandsinformationen (wie Sitzungen oder Sitzungsverläufe) gespeichert, allein schon, weil das Web an sich zustandslos ist, muss es auch das Tag Management sein.

Ein System, das Anfragen getrennt voneinander betrachtet und keine Sitzungsinformationen austauscht, kommuniziert mit einem System das eben diese Informationen über seinen Zustand speichern kann. Ein einsehbarer Response-Mechanismus seitens Google Analytics wäre hier praktisch, um Regel im GTM daraufbasierend erstellen zu können. Da alle Kalkulationen aber on the fly stattfinden und viele Daten erst am Ende des Tages verfügbar sind, ist diese Idee recht problematisch.

Google Optimize basiert jedoch auf der GTM-Technologie und verfügt eben über einen solchen Response-Mechanismus mit Google Analytics. Dies bringt allerdings zum Nachdenken , warum das im Falle des GTM nicht möglich ist.

Anschließend hat Simo die wichtigsten Aspekte des Nutzens vom Google Tag Manger zusammengefasst:

1. Für das Marketing

1. Für das Marketing

2. Für das Developement

2. Für das Developement

3. Für die Organisationen

3. Für die Organisationen

Hauptziel und gleichzeitig das, bei dem der GTM bestens performt, bleibt das Deployment von Tags.

Die Keywords für die Entwicklung von GTM für die nächsten 5 Jahren sind laut Simo:

  • Intelligence
  • Collaboration
  • Enterprise
  • Full stack
  • (Google) Integrations

Session 5: Attribution – the arguments for & against by Peter O’Neill

PS – I am anti.

Peter hat eine Diskussion angeboten und den Nutzen sowie die Richtigkeit von Attribution-Tools abgewogen. Es gab sehr viele Pros und Contras, nicht nur bzgl. der Tools aber auch bzgl. dem, was Richtig oder Besser bedeutet. Peters Aussage war, dass ein besseres Modell für Attributionen ein solches ist, dass einen höheren ROI aufzeigt.

Attribution und die Attributionsmodelle machen am meisten Sinn, wenn nicht nur Online sondern auch Offline Daten einbezogen werden. Nur dann ist das Gesamtbild des Zusammenspielens der Kanäle nachvollziehbar und umfassend bewertbar.

Schlussendlich waren sich alle einig, dass auch wenn nicht alles zu hundert Prozent korrekt ist, die Attributionstools aber auf jeden Fall als wichtige Insight-Tools dienen.

Session 6: Data whispering for analysts and the one graph that measures the universe by John Woods

John hat anhand von einem beispielhaften Data-Set unterschiedliche Abbildungsmöglichkeiten, basierend auf der Grafiken-Vielfalt in Excel, vorgestellt. Je nach gewählter Diagrammform wurden unterschiedliche Aspekte oder Auffälligkeiten betont, die zu einer besseren Analyse und Ansprache unterschiedlicher Nutzersegmente führen kann.

Seine Gedanken unterstützte er mit einem historischen Beispiel für die grafische Darstellung der Abhängigkeiten bei der Lichtintensität / Farbe/ Entfernung der Sterne.

Am Ende gab er noch ein Beispiel für Feature Engineering und Anwendung von Algorithmen, sodass Daten trotz Veränderungen der Bedingungen in der Zeit, weiterhin zusammenzuführen sind.

Session 7: I didn’t know you could do that by Julie Hoang

Julie hat uns eine Palette von Tipps und Tricks aus ihrem Google Analytics Alltag vorgestellt. Durch das Arbeiten und die konkreten Beispiele live im Tool haben alle viele praktische Ideen für den eigenen Analysten-Alltag mitgenommen.

Julie ging auf Kohorten- und Session Data-Segmente ein, sowie auf Custom funnels und darauf basierende Segmenterstellung. Des Weiteren stellte sie ihre Herangehensweise vor, um Funnels in Google Sheets mithilfe des Query Explorer zu erfassen. Das wäre besonders für viele Nutzer von Google Analytics free eine gute Alternative zu den Custom Funnels der 360-Version.

In der Diskussion ergab sich noch einen Tipp für ein frei verfügbares Tool zur Bildung von benutzerdefinierten Trichtern: http://app.profitgrid.io . Schaut doch mal rein.

Session 8: Blackhat SEO vs Analytics – if you had unlimited resources, what would you test by Angela Wilkinson

Angela hat eine sehr interessante Diskussion angeboten, die in die Tiefen des Blackhat SEO führte. Anders als üblich sollten Ideen und Vorgehensweisen gesammelt werden, die zur Verletzung der Richtlinien von Suchmaschinenbetreibern wie Google, Yahoo!, Bing etc., führen, um bestimmte Webseiten zum Untergang zu bringen bzw. diese aus den Suchergebnissen zu entfernen. Das erstaunliche Ergebnis: Angela hat in den letzten 2 Jahren in die Trickkiste gegriffen und unbegrenzte Blackhat SEO-Ressourcen eingesetzt, allerdings hat sie bislang eher das Gegenteil des gesuchten Effektes erreicht – die Webseiten ranken immer besser und besser😊

Die Diskussion war sehr lebendig und es kamen sehr vielfältige und kreative Vorschläge was noch ausprobiert werden könnte. Ein Beispiel war das Proxy Mirroring.

Abschlusssession

Bei der Abschlusssession kamen alle Teilnehmer noch einmal zusammen. Es wurde eine Zusammenfassung des Tages gemacht, viele Preise aus der Tombola verteilt und die nächsten MeasureCamp Events in weiteren Städten der Welt vorgestellt.

Aufnahmen und Ressourcen werden für alle interessierten hier zur Verfügung gestellt: http://london.measurecamp.org/past-events/measurecamp-11/

Am Ende wurde die Tradition des Londoner MeasureCamp fortgeführt, indem diesmal Peter O’Neill mit einem Legends Pokal ausgezeichnet wurde. Herzlichen Glückwunsch!

Er reiht sich somit in die Riege der MeasureCamp Legends ein.

Peter O'Neill reiht sich in die Riege der MeasureCamp Legends ein

Peter O’Neill reiht sich in die Riege der MeasureCamp Legends ein

Danach ging es für alle in Richtung Afterparty ins „Lightbox“.

Fazit

Die Teilnahme an dem MeasureCamp in London war eine sehr interessante und spannende Erfahrung, die viele neue Insights geliefert hat und einen Besuch lohnenswert macht. Auch wenn die Struktur der MeasureCamp-Unkonferenzen immer den gleichen Regeln folgt, bietet jede Veranstaltung und jede Stadt eine andere und bereichernde Erfahrung, sowie die Fokussierung unterschiedlicher Themen. Das MeasureCamp ist nicht nur eine Weiterbildungs- und Diskussions-Plattform, sondern auch ein Kontaktnetzwerk der Branche. Alle Besucher konnten viele neue Anregungen mitnehmen. An dieser Stelle ein großes Lob für die ganze Organisation und die tolle Atmosphäre an das Committee, die Sponsoren und die Gastgeber!

Content Audit

Content Audit: Bestehende Inhalte analysieren

Wisst ihr, welche Inhalte eurer Website gut performen und welche gar nicht aufgerufen werden? Kennt ihr inhaltliche Lücken, die ihr noch füllen müsst, und habt ihr einen Überblick über Themen, die ihr mehrfach behandelt? Ein Content Audit hilft euch dabei, genau diese Fragestellungen zu beantworten. Ich zeige euch, welche Daten ihr dafür braucht und wie ihr diese miteinander kombinieren müsst, um die passenden Optimierungsmaßnahmen für eure Inhalte herzuleiten.

Was ist ein Content Audit?

Ein Content Audit ist eine Bestandsaufnahme aller Inhalte, die sich auf eurer Website befinden. Er gibt einen guten Überblick darüber, welche Themenbereiche ihr bereits abdeckt und welche noch fehlen. Mit Hilfe der Daten aus der Webanalyse bietet ein Content Audit außerdem eine hervorragende Möglichkeit festzustellen, welche Inhalte bei euren Nutzern positiv angenommen werden. Dabei wird die Qualität der Inhalte erstmal nicht bewertet, sondern allein ihre Performance. Denn ein Inhalt ist nicht unbedingt schlecht, nur weil Nutzer ihn nicht anklicken. Vielleicht liegt er auch einfach viel zu versteckt auf eurer Website.

Bücherregal

© connel_design – Fotolia.com

Wann macht ein Content Audit Sinn?

Wenn ihr nicht gerade ein ganz neues Projekt erstellt, zu dem ihr noch keine Inhalte habt, dann werdet ihr euren Content nicht im luftleeren Raum erstellen, sondern könnt neue Themen als Teil eurer Seite eingliedern. Gerade bei Websites, die über einen längeren Zeitraum gewachsen sind, gibt es meist sehr viele Inhalte, die nicht aufeinander abgestimmt oder nicht mehr aktuell sind. Da ist es gut zu wissen, welche bestehenden Inhalte eure Nutzer interessieren und welche gar nicht angeklickt werden. Solltet ihr also planen, in nächster Zeit neue Inhalte zu generieren, müsst ihr eure Beiträge vorab auf Herz und Niere prüfen und dabei hilft euch ein Content Audit.

Ein sehr guter Zeitpunkt für einen Content Audit ist ein Relaunch. Hier stellt sich häufig die Frage, welche Inhalte auf der neuen Website wegfallen und welche behalten werden sollen. Darüber hinaus hilft euch der Audit auch dabei Inhalte richtig zu strukturieren. Aber auch für die allgemeine Content Planung ist der Audit eine gute Grundlage.

Fragen, die ein Content Audit beantwortet:

  • Welche Inhalte gibt es auf der Website?
  • Welche Inhalte performen gut?
  • Fehlen Inhalte auf der Website?
  • Gibt es Inhalte, die schlecht optimiert sind (Verwendung von Überschriften, Meta-Daten, etc.)?
  • Welche Inhalte sollten überarbeitet werden?
  • Welche Inhalte können gelöscht werden?
  • Sind relevante Inhalte ausreichend verlinkt?
  • Ist die Navigation der Website richtig aufgebaut?
  • Welche Content-Formate sollten in Zukunft häufiger verwendet werden?

Content Audit durchführen: Inhalte ermitteln

Je nach Größe einer Website ist eine manuelle Bestandsaufnahme der Inhalte ziemlich aufwändig. Eine Möglichkeit, die händische Bestandsaufnahme zu umgehen, besteht darin die aktuelle Seite mit einem Crawling Tool zu scannen. Ich nutze dafür den Screaming Frog. Er liefert eine Übersicht über alle Unterseiten und zieht dabei noch hilfreiche Werte zu den Seiten wie zum Beispiel Seitentitel, Meta-Description und Wortzahl.

Crawl mit dem Screaming Frog

Crawl mit dem Screaming Frog

Ist der Crawl der Seite abgeschlossen, zieht ihr euch die Daten in eine Excel-Tabelle. Den Filter im Screaming Frog stellt ihr dabei auf HTML, damit nicht auch die Bilder und andere Dateien in der Tabelle auftauchen. Danach stellt ihr euch alle Messwerte zusammen, die für euch interessant sind. Ich verwende zum Beispiel:

  • URL
  • Status Code
  • Seitentitel
  • Meta-Description
  • H1-Überschrift
  • Interne Links
  • Klicktiefe
  • Wortzahl

Als nächstes sortiert ihr die einzelnen Unterseiten nach Themengebieten. Sehr hilfreich sind hierbei eine sprechende URL-Struktur und themenrelevante Verzeichnisse. Liegen beispielsweise alle Unterseiten zum Thema „SEO“ in einem Verzeichnis, lässt sich damit schon sehr gut arbeiten. Ist dies nicht der Fall, wird das ganze sehr viel aufwändiger. Unterseiten müssen dann manuell dem jeweiligen Thema zugeordnet werden.

Sind die Seitentitel gut gepflegt, kann darauf verzichtet werden, sich jede Unterseite einzeln anzusehen. Auch die Überschriften helfen bei der Zuordnung, wenn sie richtig ausgezeichnet sind. Ist aber weder das eine noch das andere vorhanden, wird es kniffelig. In diesem Fall bleibt euch kaum etwas anderes übrig, als euch jede Seite einzeln anzusehen und sie entsprechend zuzuordnen.

Fügt in diesem Fall in der Excel-Tabelle auf jeden Fall eine Spalte für das genaue Thema der Unterseiten hinzu und vermerkt es dort. Außerdem fügt ihr eine Spalte für den jeweiligen Themenbereich hinzu. Auf diese Weise könnt ihr die Unterseiten ganz einfach nach Themen filtern und einzeln betrachten. Ebenfalls nützlich kann eine Spalte für das Format bzw. den Seitentyp sein (z.B. Produktseite, Blogartikel etc.).

Crawl in Excel-Tabelle

Crawl als Excel-Tabelle

Jetzt habt ihr schon eine Übersicht über alle Inhalte, die auf eurer Website vorhanden sind. Um diese zu bewerten, könnt ihr nun Daten aus eurem Webanalyse Tool hinzuziehen.

Doppelte und fehlende Inhalte ermitteln

An dieser Stelle könnt ihr schon feststellen, welche Themen ihr mehrfach auf eurer Website behandelt. Seht euch die doppelten Themen genau an. Überschneiden sich hier Inhalte oder werden Themen unter unterschiedlichen Aspekten betrachtet. Grundsätzlich braucht ihr für ein Thema immer nur eine Unterseite. Fasst also sehr ähnliche Inhalte zusammen und löscht Unterseiten, die keinen eigenen Mehrwert bieten. Unterseiten mit Backlinks solltet ihr dabei auf die entsprechende neue Seite weiterleiten.

Manchmal gibt es auch technische Gründe für doppelte Inhalte, z.B. wenn eure Website sowohl unter http als auch unter https erreichbar ist. Diese Fehler solltet ihr beheben.

Um festzustellen, welche Themen auf eurer Website noch fehlen, müsst ihr zudem eine Keywordanalyse machen. Hier definiert ihr wichtige Keywords und Themen, die im Zusammenhang mit eurer Website von Bedeutung sind. Legt diese gegen die erstellte Liste. Habt ihr irgendwo keine Unterseite, die ihr einem Thema / Keyword zuordnen könnt, solltet ihr dafür noch Inhalte erstellen.

Daten aus der Webanalyse

Um einen guten Eindruck über die Nutzung eurer Website und den Erfolg eurer Inhalte zu erhalten, ist ein Blick in ein Webanalyse Tool hilfreich. Wir verwenden dazu hauptsächlich Google Analytics. Ähnliche Daten liefern euch aber auch andere Tools. Voraussetzung dafür ist natürlich, dass ihr ein Tracking Tool auf eurer Website eingebunden habt.

Repräsentativen Zeitraum wählen

Wählt einen repräsentativen Zeitraum aus. Ich betreue zum Beispiel viele Projekte aus dem Tourismus-Bereich. Hier gibt es Themen, die nur saisonal nachgefragt werden. Ein Zeitraum von einem Jahr ist in diesem Fall eine gute Wahl, um alle Themenbereiche gleichwertig abzufragen und Inhalte, die zum Beispiel hauptsächlich im Winter interessant sind, nicht zu übersehen.

Allerdings kann es vorkommen, dass ihr gesampelte Daten erhaltet, wenn ihr einen sehr großen Beobachtungszeitraum bei Google Analytics auswählt und dann Filter oder Segmente verwendet. Das bedeutet, dass eure Berichte auf einer Teilmenge der erhobenen Daten beruhen. Zahlen aus verschiedenen Berichten lassen sich dann nur schlecht miteinander vergleichen. Wie ihr das Problem umgeht, erfahrt ihr in Data Sampling in Google Analytics vermeiden.

Messwerte und Berichte

Welche Werte sich am besten zur Bewertung der Inhalte eignen, hängt von den Zielen ab, die mit dem Content Audit verfolgt werden. Hilfreiche Größen sind zum Beispiel die Standardwerte alle Seitenaufrufe, alle Einstiege, Verweildauer und Absprungrate.

Um noch gezielter vorzugehen, schaue ich mir meistens noch die Einstiege an, die über die organische Suche auf die Webseite gelangen. Alternativ oder zusätzlich können aber auch Einstiege über die bezahlte Suche, über Social Media oder über Verweise aufgenommen werden. Das hängt von euren bisherigen Marketing-Maßnahmen ab. Interessant sind auch Conversions oder die Conversion-Rate, sofern ihr Ziele in Google Analytics angelegt habt.

Auszug aus Google Analytics

Auszug aus Google Analytics

Übrigens lassen sich Daten aus Google Analytics inzwischen auch direkt über den Screaming Frog ziehen. Allerdings ist es hier noch nicht möglich, alle Zugriffe mit bestimmten Segmenten zu kombinieren.

Per SVerweis können die Daten anschließend in die Excel-Tabelle gezogen und mit den anderen Daten kombiniert werden.

Daten aus Google Analytics in Excll-Tabelle

Werte aus Google Analytics in einer Excel-Tabelle

Mit Google Analytics könnt ihr natürlich auch noch tiefer gehende Analysen eures Contents vornehmen. Mehr dazu erfahrt ihr in Content Analysen mit Google Analytics.

Links, Links, Links

Ein weiterer Punkt, der für die Auswertung der Inhalte interessant ist, sind die Backlinks. Wenn wir davon ausgehen, dass kein exzessiver Linkaufbau für eine Seite betrieben wurde, sollten gerade die Inhalte häufig verlinkt sein, die für die Nutzer interessant sind. Habt ihr die Inhalte identifiziert, die häufig verlinkt werden, könnt ihr außerdem mehr davon erstellen, um euer Backlinkprofil auszubauen und so die Relevanz eurer Website in Google zu steigern.

Für die Linkanalyse könnt ihr die Daten aus der Google Search Console nutzen. Bedenkt aber, dass es sich hierbei um historische Daten handelt. Viele der hier aufgelisteten Backlinks existieren vielleicht gar nicht mehr. Aktuellere Daten liefern kostenpflichtige Tools wie Majestic oder ahrefs.

Auszug der Backlinks aus ahrefs

Auszug der Backlinks aus ahrefs

Social Shares

Wenn ihr gezielt Inhalte für Social Media erstellt habt und in diesem Bereich sehr aktiv seid, ist es für euch auch interessant, welche Inhalte häufig geteilt wurden. Diese Daten erhaltet ihr ebenfalls aus kostenpflichtigen Tools wie ahrefs.

Auszug der Social Shares aus ahrefs

Auszug der Social Shares aus ahrefs

Kombination der Daten

Nachdem ihr alle Daten gesammelt habt, könnt ihr diese nun in eine Excel Tabelle ziehen und einander gegenüberstellen. Das ist mit einfachen SVerweisen möglich. Achtet darauf, dass URLs gleich geschrieben sind (also am besten sollten sie alle mit http:// bzw. https:// anfangen), sonst funktioniert das nicht.

Meine Tabelle enthält jetzt folgende Werte:

  • URL (Screaming Frog)
  • Status Code (Screaming Frog)
  • Seitentitel (Screaming Frog)
  • Meta-Description (Screaming Frog)
  • H1-Überschriften (Screaming Frog)
  • Interne Links (Screaming Frog)
  • Klicktiefe (Screaming Frog)
  • Wortzahl (Screaming Frog)
  • Seitenaufrufe (Google Analytics)
  • Einstiege (Google Analytics)
  • Einstiege über Organische Suche (Google Analytics)
  • Verweildauer (Google Analytics)
  • Absprungrate (Google Analytics)
  • Backlinks (ahrefs)
  • Referring Domains (ahrefs)

Ihr habt nun eine sehr umfangreiche Datengrundlage. Diese kann schnell unübersichtlich werden. Stellt euch deshalb die Frage, welche Daten für eure Analyse tatsächlich wichtig sind und beschränkt euch auf diese.

Auswertung der Daten

Mit Hilfe des Contents Audit könnt ihr nun sehen, welche Inhalte häufig über welche Quellen aufgerufen wurden und welche Inhalte wenig oder gar keine Zugriffe haben. Um hier sinnvolle Schlüsse ziehen zu können, solltet ihr dabei immer mehr als nur einen Wert im Auge behalten und die Zahlen kritisch hinterfragen.

Inhalte mit vielen Zugriffen

Filtert eure Seiten nach den meisten Zugriffen. Hier seht ihr nun, welche Inhalte gut funktionieren. Könnt ihr Gemeinsamkeiten feststellen? Werden zum Beispiel Seiten, die eine gewisse Wortanzahl übersteigen, häufiger aufgerufen als andere? Dann solltet ihr in Zukunft versuchen, mehr Inhalte zu erstellen, die mindestens bei dieser Zahl liegen. Oder gibt es bestimmte Content-Formate, die hier sehr häufig auftauchen, z.B. Blogartikel oder ähnliches? Auch davon könnt ihr in Zukunft mehr produzieren.

Doch nur weil Inhalte häufig aufgerufen werden, heißt das nicht, dass eure Nutzer sie auch tatsächlich lesen. Ihr solltet deshalb auch unbedingt Größen wie Verweildauer und Absprungrate im Auge behalten. Seiten mit kurzer Verweildauer und hoher Absprungrate sind nicht immer positiv zu werten. Untersucht zum Beispiel, ob ihr die Inhalte nicht noch weiter ausbauen oder attraktiver präsentieren könnt.

Inhalte mit geringen Zugriffen

Legt einen Wert fest, der für euch sehr gering ist, zum Beispiel alle Seiten, die innerhalb eines Jahres weniger als 100 Zugriffe hatten. Schließt alle anderen Seiten aus. Wenn ihr euch nun die verbliebenen Seiten anschaut, stellt ihr vielleicht auch hier Gemeinsamkeiten fest. Eventuell liegen diese Seiten so tief in der Website-Struktur verborgen, dass die Nutzer sie einfach nicht finden und auch der Google Bot aufgibt, bevor er zu ihnen durchgedrungen ist. Seht euch dazu die Klicktiefe und die internen Links an. Nur weil eine Unterseite wenige Zugriffe hat, heißt dies nicht automatisch, dass dies an ihren Inhalten liegt.

Seid ihr der Meinung, dass die schlechten Zugriffszahlen nicht in der Qualität des Contents begründet sind, versucht die entsprechenden Unterseiten besser zu verlinken.

Sind die Inhalte schlecht oder veraltet, könnt ihr sie entweder löschen oder aktualisieren. Falls ihr Unterseiten löscht, die viele Backlinks aufweisen, solltet ihr Weiterleitungen zu thematisch passenden Unterseiten einrichten.

Zugriffe über organische Suchmaschinen

Seht euch die Seiten an, die keine oder nur wenige Zugriffe über Suchmaschinen aufweisen. Überprüft Seitentitel und Meta-Description. Ein möglicher Grund, warum sie nicht gefunden werden bzw. nur wenige Zugriffe über Suchmaschinen erhalten, kann darin bestehen, dass die Meta-Daten nicht ordentlich gepflegt sind. Achtet also darauf, ob Seitentitel und Meta-Description aussagekräftig sind, relevante Keywords enthalten und den Inhalt der Seiten wiedergeben. Ebenso sollte es mit der H1-Überschrift sein.

Andere interessante Werte in diesem Zusammenhang sind die Klicktiefe und die interne Verlinkung. Unterseiten, auf die viele interne Links verweisen, werden von Google und anderen Suchmaschinen tendenziell als wichtiger erachtet als andere. Auch die Wortanzahl kann entscheidend für das Ranking einer Website sein.

Besonders interessant sind in diesem Zusammenhang Unterseiten, die zwar nur geringe SEO Einstiege aufweisen, aber insgesamt viele Zugriffe haben. Die Themen sind anscheinend für die Nutzer interessant, werden aber nicht über Google und andere Suchmaschinen aufgerufen.

Überprüft auch, wo der Traffic herkommt. Wenn ihr zum Beispiel AdWords Kampagnen geschaltet habt, kann dies eure Auswertung beeinflussen. Oder kommen die Zugriffe größtenteils über Social Media? Dann wisst ihr, welche Inhalte ihr für Facebook und Co erstellen könnt. Diese müssen nicht zwangsläufig auch über Google funktionieren. Meist ist es sogar genau umgekehrt. In Zukunft könnt ihr dann bei eurer Content Planung so vorgehen, dass ihr schon vorher festlegt, für welchen Kanal ihr welchen Inhalt erstellt.

Absprungrate

Seiten mit hoher Absprungrate solltet ihr euch ebenfalls genauer ansehen. Eine hohe Absprungrate ist nicht zwingend schlecht. Ja nach Seitentyp hat der Nutzer einfach genau die Information gefunden, die er gesucht hat. Zum Beispiel kann das bei einem Blogartikel der Fall sein. Bei Verteilerseiten, die hauptsächlich dazu dienen, den Nutzer tiefer in die Website zu führen, ist dies allerdings ein schlechtes Zeichen. Hier solltet ihr eure Inhalte weiter ausbauen und für eine übersichtliche interne Verlinkung sorgen.

Backlinks

Unterseiten, die viele Backlinks von unterschiedlichen Domains aufweisen, scheinen für die Nutzer besonders interessant zu sein. Seht euch diese Seiten genau an und überlegt, ob ihr weitere Inhalte erstellen oder bestehende Inhalte auf ähnliche Weise präsentieren könnt.

Auswertung nach Themenbereichen und Seitentyp

Sinnvoll ist auch, wenn ihr euch die einzelnen Themenbereiche eurer Website gesondert anseht. Besonders bei sehr großen Websites vereinfacht dies die Analyse oft erheblich.

Habt ihr zum Beispiel einen Bereich auf eurer Website, der insgesamt sehr gut performt, aber trotzdem einige Unterseiten aufweist, die kaum aufgerufen werden, könnt ihr euch diese nochmal im Detail ansehen und auf Aktualität, Umfang und interne Verlinkung prüfen.

Dasselbe trifft für Seitentypen zu. Fällt euch zum Beispiel auf, dass die Absprungrate auf bestimmten Seitentypen sehr hoch ist, stimmt vielleicht etwas mit der Darstellung der Inhalte nicht oder die Seiten sind einfach nicht nutzerfreundlich.

Fazit

Nachdem der Content Audit erstellt und ausgewertet ist, habt ihr eine Übersicht über alle Inhalte, die sich auf eurer Website befinden. Ihr wisst, welche Inhalte gut funktionieren und welche noch nicht ihr volles Potenzial ausgeschöpft haben. Außerdem könnt ihr anhand des Audits das weitere Vorgehen planen. Die Erstellung und die Auswertung brauchen ihre Zeit und sind je nach Website-Umfang relativ aufwändig. Doch die Zeit ist gut investiert. Im Anschluss könnt ihr neue Themen für eure Website recherchieren und mit der weiteren Content Planung und Erstellung beginnen.

Titelbild © Rawpixel – Fotolia.com

AdWords Conversions vs. Conversions in Google Analytics

14 Gründe für Abweichungen bei AdWords Conversions und Conversions in Google Analytics

Die Daten aus Google AdWords und Google Analytics stimmen häufig nicht richtig überein. Dies betrifft nicht nur Sitzungen und Klicks, sondern auch die gemessenen Conversions und der Conversion-Rate. Wie dies zustande kommt, erfahrt ihr hier.

Gründe für abweichende Conversions in Google Analytics und AdWords

Ursachen für abweichende Zahlen gibt es viele. Hier ist eine Liste der häufigsten Gründe:

  1. Unterschiedliche Definition der Conversions in AdWords und Google Analytics
  2. In AdWords werden nur Zugriffe über AdWords betrachtet, in Analytics werden alle Quellen berücksichtigt
  3. Unterschiedliche Zählung der Conversion Rate in AdWords und Google Analytics
  4. Unterschiedliche Zeit-Zuordnung (Klicks vs. Conversions)
  5. Unterschiedliche Zählmethoden von Conversions
  6. Unterschiedliche Zählung von Transaktionen
  7. Nicht alle AdWords Conversions können in GA gezählt werden
  8. Google Analytics Tracking Code wird auf der Zielseite nicht geladen
  9. Test-Transaktionen, Erstattungen, Rücksendungen
  10. Durch ungültige Klicks hervorgerufene Zielerreichungen werden in AdWords herausgefiltert
  11. Unterschiedliche Gültigkeitsdauer von Cookies
  12. Unterschiedliche Attributionsmodelle (Last Click vs. Last AdWords Klick)
  13. Zeitliche Verzögerung bei importierten Zielvorhaben
  14. Zeitliche Verzögerung bei der Änderung an Namen von Zielvorhaben oder Datenansichten in Google Analytics

1. Unterschiedliche Definition der Conversions in AdWords und Google Analytics

Grundsätzlich ist eine Conversion in AdWords etwas anderes als eine Conversion in Google Analytics. Es gibt unterschiedliche Funktionen, die euch dabei helfen erfolgreiche Kundenaktivitäten auf eurer Website zu messen:

  • Conversion-Tracking in AdWords
  • Zielvorhaben und Transaktionen (E-Commerce) in Google Analytics

In AdWords habt ihr die Möglichkeit, eigene Conversions anzulegen. Diese werden dann ausschließlich für AdWords-Zugriffe erfasst.

In Analytics könnt ihr bestimmte Ziele definieren und deren Erreichung messen. Mögliche Ziele sind zum Beispiel der Aufruf einer bestimmten URL oder das Klicken eines Buttons (mittels Ereignis-Tracking). Wenn ihr E-Commerce-Tracking eingerichtet habt, lassen sich auch Transaktionen erfassen.

Diese Conversions werden erstmal unabhängig voneinander erfasst. Jedoch habt ihr die Möglichkeit, die Zielvorhaben aus Google Analytics in das Conversions-Tracking von Google AdWords zu importieren. So könnt ihr die Analyatics Daten auch im AdWords Konto einsehen. Das Conversion-Optimierungstool greift auf die Daten zu und ihr könnt auf dieser Grundlage Gebote optimieren, um so mehr Conversions bei geringeren Kosten zu erzielen.

2. In AdWords werden nur Zugriffe über AdWords betrachtet, in Analytics werden alle Quellen berücksichtigt

Die Conversions in AdWords werden ausschließlich für die Zugriffe über AdWords-Quellen betrachtet. In Google Analytics werden bei der Zählung der Zielerreichungen alle Quellen berücksichtigt.

Conversions in Google Analytics

Conversions in Google Analytics

Wenn ich nur Daten zu euren AdWords Kampagnen einsehen möchtet, müsst ihr hier zunächst danach filtern.

3. Unterschiedliche Zählung der Conversion Rate in AdWords und Google Analytics

Auch die Conversion-Rate unterscheidet sich häufig. In AdWords bildet sie der Prozentsatz an Klicks, die zu AdWords Conversions geführt haben. In Google Analytics gibt die Conversion-Rate den Prozentsatz der Nutzer an, die für mindestens eines der Zielvorhaben in der Datenansicht eine Conversion ausgeführt haben.

4. Unterschiedliche Zeit-Zuordnung (Klicks vs. Conversions)

In AdWords werden Conversions dem Datum des Klicks auf die Anzeige zugeordnet, der zur Conversion geführt hat. Dies hat den Vorteil, dass ihr die Conversion den korrekten Werbekosten zuordnen könnt.

In Google Analytics wird die Conversion stattdessen dem Datum zugeordnet, an dem sie erfolgt. Dadurch ist die Gesamtzahl der Conversions zwar gleich, betrachtet man aber nur einen Teil des Gesamtzeitraums, können Unterschiede auftreten.

5. Unterschiedliche Zählmethoden bei der Erreichung von Zielen

In GA wird das Erreichen eines Zielvorhabens nur einmal pro Sitzung gezählt. In AdWords kann hingegen eine Zielerreichung mehrmals pro AdWords Klick gezählt werden. Dies lässt sich in AdWords einstellen. In beiden Fällen erhaltet ihr oftmals eine andere Zählung als in Google Analytics.

Die Einstellung könnt ihr im AdWords Konto unter Tools – Conversions vornehmen. Wählt den Namen der Conversion-Aktion, die ihr bearbeiten möchtet aus, klickt auf „Einstellungen bearbeiten“ und anschließend auf „Zählmethode“. Wählt ihr hier „eine Conversion“ aus, wird nur eine Conversion pro Klick gezählt. Entscheidet ihr euch für „jede Conversion“, bedeutet dies, dass jede Conversion pro Anzeigenklick gezählt wird.

Unterschiedliche Zählung der Conversions in Google AdWords

Unterschiedliche Zählung der Conversions in Google AdWords

Wenn nun ein Nutzer nach dem Klick auf eine Anzeige in verschiedenen Sitzungen zweimal dasselbe Ziel ausführt, wird in GA zweimal eine Zielerreichung gezählt. In AdWords bei Einstellung „eine Conversion“ aber nur einmal.

Wenn jedoch bei der AdWords-Einstellung „jede Conversion“ nach dem Klick auf eine Anzeige während einer Sitzung das Ziel mehrmals ausgeführt wurde, dann wird in GA nur eine Zielerreichung gezählt, in AdWords aber mehrere.

6. Unterschiedliche Zählung bei Transaktionen

Ähnlich sieht das bei Transaktionen aus. Bei der Einstellung „eine Conversion“ in AdWords wird bei Klick auf eine Anzeige und anschließender Durchführung von zwei Transaktionen in Google AdWords nur eine Conversion gezählt, während in Google Analytics zwei Transaktionen gezählt werden.

7. Nicht alle AdWords Conversions können in GA gezählt werden

Außerdem gibt es AdWords Conversions, die in Google Analytics grundsätzlich nicht gezählt werden können. Zu diesen gehören:

  • Cross-Account-Conversion: Conversions über Anzeigen aus in verschiedenen AdWords-Accounts
  • Telefon-Conversions: Conversions aufgrund eines Anrufs über die Anruferweiterung oder andere Telefonnummern, welche auf der Website integriert sind
  • View-Through-Conversions: Conversions nur aufgrund der Impressions (angezeigte aber nicht geklickte Anzeigen) Ihrer Display- oder Video-Anzeigen
  • Cross-Device-Conversions: Conversions, die über einen Anzeigenklick auf einem anderen Endgerät erfolgten
  • Cross-Browser-Conversions: Conversions, die über einen Anzeigenklick in einem anderen Browser erfolgten

8. Google Analytics Tracking Code wird auf der Zielseite nicht geladen

Wenn auf der Zielseite der Google Analytics Tracking Code nicht ausgelöst wird, der AdWords Code aber schon,dann wird in AdWords eine Conversion gezählt, in Analytics aber nicht. Das kann passieren, wenn der Analytics Code zum Beispiel nicht eingebunden oder der eingebundene Code fehlerhaft ist.

9. Test-Transaktionen, Erstattungen, Rücksendungen

Test-Transaktionen, Erstattungen, Rücksendungen und Ersatzlieferungen bringen ebenfalls Durcheinander in die Zählungen. Test Transaktionen werden zum Beispiel oftmals in Google Analytics erfasst, nicht jedoch in AdWords. In Google Analytics habt ihr außerdem die Möglichkeit externe Daten zu Erstattungen und Rücksendungen zu importieren. Stornierungen wirken sich dann auch auf die Zahl der Conversions aus. In AdWords könnt ihr diese Daten nicht importieren. Auf (die eigene) IP-Adresse oder eigene sonstige Marker kann man dagegen wieder nur in Analytics filtern. So können in AdWords Conversions landen, die in Analyitcs “hängen bleiben”.

10. Durch ungültige Klicks hervorgerufene Zielerreichungen werden in AdWords herausgefiltert

AdWords verfügt über eine Filterautomatik, die verdächtig erscheinende und ungültige Klicks aus dem Konto herausfiltert, auch beim Import von Google Analytics Zielerreichungen. Die Conversions werden dann in Google Analytics gezählt, in AdWords allerdings nicht.

11. Unterschiedliche Gültigkeitsdauer von Cookies

Um wiederkehrende Nutzer zu erkennen, verwendet sowohl AdWords als auch Google Analytics unter anderem Cookies, die im Browser des Nutzers gespeichert werden. AdWords Cookies laufen 90 Tage nach einem Klick auf die Anzeige ab. GA Cookies sind sechs Monate lang gültig.

Für AdWords Conversions gilt ein Conversion-Tracking-Zeitraum von sieben bis 90 Tagen. Wenn eine Conversion nach dem festgelegten Conversion-Tracking-Zeitraum erfolgt (und weniger als sechs Monate nach dem Klick), so wird diese zwar in Analytics erfasst und richtig zugeordnet, nicht jedoch in AdWords.

12. Unterschiedliche Attributionsmodelle (Last Click vs. Last AdWords Klick)

Standardmäßig wird in GA das nicht-direkte Last-Click-Attribution-Modell angewandt. Dies bedeutet, dass eine Conversion dem letzten nicht direkten Kanal zugeordnet wird. Direktzugriffe zählen dabei nicht, die Conversions werden in diesem Fall dem vorletzten Kanal zugeschrieben. In Multi-Channel Reports (zur Ermittlung der Customer Journey) wird jedoch in GA das Last Click-Modell angewandt.

AdWords zählt mit dem Last-AdWords-Click-Attribution-Modell. Dabei wird eine Conversion dem letzten AdWords Klick zugeordnet.

Beispiel: Wenn ein Nutzer auf eine AdWords Anzeige klickt und später über die organische Suche die Webseite erneut besucht, dann ordnet AdWords die Conversion dem letzten AdWords Klick zu, während Google Analytics diese der organischen Suche zuschreibt.

13. Zeitliche Verzögerung bei importierten Zielvorhaben

Wenn ihr Zielvorhaben aus Analytics in euer AdWords Konto importiert, kann es bis zu neun Stunden dauern, bis die Conversion-Daten von Google Analytics nach erfolgter Conversion in das AdWords Conversion-Tracking einlaufen.

14. Zeitliche Verzögerung bei der Änderung an Namen von Zielvorhaben oder Datenansichten in Google Analytics

Wenn ihr die Benennung eines Zielvorhabens oder einer Datenansicht mit importierten GA Zielvorhaben ändert, werden die neuen Name in AdWords angezeigt, sobald das Zielvorhaben erreicht wird. Es kann bis zu 24 Stunden dauern, bis diese Daten in AdWords importiert werden.

Fazit

Wie ihr seht, gibt es unterschiedliche Gründe, warum eure Conversions in AdWords und Google Analytics voneinander abweichen können. Diese ohne fundierte Fachkenntnisse richtig zu bewerten und anschließend aussagekräftigen Analysen zu erstellen, ist dabei gar nicht so leicht. Unsere Analytics Experten helfen euch dabei aber gerne weiter.

Community Connectors bei Google Data Studio: Zugänge zu vielen neuen Datenquellen!

In der letzten Zeit wurde wieder mit Hochdruck an den Features von Google Data Studio gearbeitet. Immer wieder gab es diverse Neuerungen. Aber das aktuellste Feature „Community Connectors“ ist schon ganz klasse! Hier erfahrt ihr mehr darüber.

Was sind Community Connectors?

Mit dem neuen Feature von Google Data Studio erhaltet ihr einen Blick über alle Auswertungen eurer wichtigen Marketing-Kanäle. Auch Daten von Kanälen, die sich bislang nicht mit dem Visualisierungs-Tool von Google verbinden ließen, können nun automatisch integriert werden.

Schon zuvor bot euch das Google Tool tolle Möglichkeiten um coole Dashboards zu bauen. Die Daten-Grundlage dafür zieht sich automatisch aus anderen Google-Diensten (z.B. Google Analytics, AdWords, Sheets, Search Console).

Doch nicht nur Googles eigene Dienste müssen im Auge behalten werden. Auch andere Marketing-Kanäle von Drittanbieter Tools wie Bing, Facebook, Instagram, Twitter oder MailChimp sind von großer Bedeutung. Für die Auswertung dieser Daten musstet ihr bisher ein anderes Tool bzw. ein anderes System benutzen, da es keine direkte Datenanbindung dazu gab. Die Cleveren unter euch haben sich vielleicht eine Brücke gebaut, indem sie diese Daten in Google Sheets importierten und diese wiederum mit Data Studio verbanden. Dies war jedoch sehr aufwendig.

Ein Umweg, der jetzt nicht mehr nötig ist. Ab sofort ist der Data Studio Community Connector online. Er ermöglicht es euch, Daten aus allen möglichen Communities direkt mit Data Studio zu verbinden. Dies geschieht über das Anzapfen der jeweiligen API.

Konnektoren erstellen und verwenden

Um das neue Feature nutzen zu können, müsst ihr den jeweiligen Konnektoren allerdings erstmal erstellen. Ihr könnt entweder selbst ein entsprechendes Skript schreiben (mithilfe des Google Apps Scripts) oder ihr verwendet eins der fertigen Connector-Skripte, die in der Connectors Gallery bereitstehen.

In der Data Studio Community Connectors Gallery gibt es bereits viele fertige Skripte, die kostenfrei genutzt werden können.

In der Data Studio Community Connectors Gallery gibt es bereits viele fertige Skripte, die kostenfrei genutzt werden können.

Rechtzeitig zum Launch des Features haben Google Partner bereits mehr als 20 Quellen Konnektoren gebaut, die zur allgemeinen Benutzung zur Verfügung stehen. Und es werden immer mehr.

Aktuell können folgende Connector Apps kostenfrei aus der Gallery geladen werden:

  • Adform (Supermetrics)
  • Adobe Analytics (Supermetrics)
  • AdStage Data Connector (AdStage)
  • AdWords (Supermetrics)
  • Analytics Canvas (nModal Solutions Incl.)
  • Bing Ads (Supermetrics)
  • CallRail: Calls Summary (CallRail)
  • world (data.world)
  • DoubleClick Search (Supermetrics)
  • Facebook Ads (Supermetrics)
  • Facebook Insights (Supermetrics)
  • Facebook public data (Supermetrics)
  • Funnel (Funnel Inc.)
  • Google Analytics (Supermetrics)
  • Google Search Console (Supermetrics)
  • Instagram (Supermetrics)
  • LinkedIn Ads (Supermetrics)
  • MailChimp (Supermetrics)
  • Moz (Supermetrics)
  • Pinterest (Supermetrics)
  • Reddit (Supermetrics)
  • Stripe (Supermetrics)
  • Tumblr Public Data (Supermetrics)
  • Twitter Public Data (Supermetrics)
  • Twitter Ads (Supermetrics)
  • Vimeo (Supermetrics)
  • Yahoo Gemini (Supermetrics)
  • Yandex Metrica (Supermetrics)

So geht’s:

Wählt einfach den gewünschten Community Connector aus der Gallery aus und fügt ihn direkt zu eurem Data Studio Dashboard hinzu.

Wenn ihr einmal den Community Connector hinzugefügt und autorisiert habt, wird diese App als Datenquelle in eurem Data Studio angezeigt und ihr könnt diese genauso wie die anderen Datenquellen benutzen.

Einmal autorisieren und wie andere Datenquellen nutzen

Einmal autorisieren und wie andere Datenquellen nutzen

Was gibt es sonst Neues?

Google Data Studio ist nach wie vor in der Beta-Phase und es gibt ständig Neuerungen, die das Tool noch umfangreicher machen. Ein weiteres tolles neues Feature ist die Möglichkeit, Reports einzubetten, zum Beispiel auf einer Website mittels iFrame. Und über Google Sheets lassen sich jetzt auch Grafiken exportieren.

Große Unternehmen oder Agenturen mit vielen Zugängen zu verschiedenen Accounts werden sich über die Integration der Datenkontrolle freuen. Diese Funktion erlaubt es, ein Dashboard bzw. einen Bericht über alle Konten hinweg zu nutzen.

Mit dem Button zur Datenkontrolle lassen sich Berichte auf andere Konten übertragen

Mit dem Button zur Datenkontrolle lassen sich Berichte auf andere Konten übertragen

Einfach datenansicht auswählen und fertig

Einfach Datenansicht auswählen und fertig

Wir sind gespannt, was als nächstes online geht! Wenn ihr noch mehr über das Visualisierungs-Tool erfahren wollt, dann schaut doch mal in unseren Blogartikel zum Google Data Studio.