Panda, Penguin, Hummingbird, RankBrain, BERT und wie sie alle heißen – Google testet und verändert laufend seinen umfassenden Algorithmus, um die Suchergebnisse für Nutzer noch besser zu machen. Im Folgenden erhaltet ihr einen Überblick über die wichtigsten Google Updates der letzten Jahre und Einblicke in ihre Auswirkungen. Anschließend seid ihr bestens gewappnet und wisst, worauf ihr bei der Optimierung eurer Website achten solltet, damit sie möglichst nicht beim nächsten Google Update abgewertet wird.

Aktuelle Google Updates

2019 hat Google bereits mehrere Updates ausgerollt. Die letzten bekannten Updates sind hier kurz zusammengefasst. Ins Detail gehen wir weiter unten.

BERT Update – Natural Language Processing from Transformers

Das im Oktober 2019 ausgerollte BERT Update soll dafür sorgen, dass komplexe Suchanfragen besser interpretiert und passende Suchergebnisse ausgespielt werden können. So sollen Wörter im Kontext der Suchanfrage erfasst und nicht mehr einzeln interpretiert werden. Das Update wurde vorerst nur für die englische Sprache ausgerollt, kann aber auch Auswirkung auf andere Sprachen haben. Wann BERT auch für Deutschland ausgerollt wird, ist bisher nicht bekannt.

September 2019 Core Update

Im September 2019 kündigte Google ein neues Core Update an. Wie bei den vergangenen Core Updates waren Domains aus dem „Your Money Your Life“-Bereich betroffen. Neben dem Gesundheitssektor und dem Finanzbereich traf es diesmal auch Websites aus dem Reisebereich, wie Sistrix berichtete. E-A-T (Expertise, Autorität und Vertrauenswürdigkeit der Website) spielt hier eine wichtige Rolle. Laut Searchmetrics werden vor allem Video Inhalte jetzt stärker gewertet, wodurch Googles eigene Video-Plattform YouTube zu den Gewinnern dieses Updates gehört.

Site Diversity Update

Mehr Abwechslung in den SERPs sollte das Site Diversity Update zu Folge haben. Google rollte dieses Update im Juni 2019 aus. In dessen Zuge darf jede Domain maximal zwei Mal in den Top 10 der Suchergebnisse auftauchen. So soll vermieden werden, dass eine einzige Website die SERPs dominiert. Eine Ausnahme bilden Keywords mit einer navigationalen Suchintention. Mehr zu den Auswirkungen des Updates findet ihr bei Searchmetrics.

Basics: Update vs. Data Refresh

Nicht alle Optimierungen, die Google durchführt, sind automatisch Updates. Jeder, der sich tiefer mit dem Thema Google Updates beschäftigt, wird früher oder später auch über den Begriff „Data Refresh“ stoßen.

Der Unterschied ist schnell erklärt: Unter einem Update versteht man eine tatsächliche Änderung des Google Algorithmus, wie zum Beispiel die erstmalige Einführung des Panda oder Penguin Updates. Solche Updates sind quasi Filter, die über den Algorithmus gelegt werden und sich auf einen bestimmten Aspekt des gesamten Algorithmus, bestehend aus sehr vielen Rankingfaktoren, beziehen. Diese Filter brauchen aber immer eine Datenbasis, auf der sie funktionieren können. Wenn Google einen Filter, wie beispielsweise Penguin, verbessert und einzelne Faktoren des Filters anders gewichten möchte, dann wird hierfür nur die Datenbasis aktualisiert. Es wird also ein Data Refresh durchgeführt. Wenn Google jedoch neue Signale und Aspekte identifiziert und in den Filter mit aufnimmt, dann handelt es sich um ein Update.

Updates haben deshalb einen sehr viel größeren Effekt auf Websites und deren Ranking, als ein Data Refresh (Quelle: Sistrix.de).

Panda Update (2011)

Eins der bekanntesten Updates ist das Panda Update. Es wurde erstmalig im Jahr 2011 ausgerollt und dient als Qualitätsfilter für Google in Bezug auf Website-Inhalte. Mit Hilfe dieses Filters wird der Content von Websites auf Qualität und vor allem den Mehrwert für den Nutzer geprüft.

Seit dem ersten Roll-out wurden bereits vier aktualisierte Versionen in unregelmäßigen Abständen veröffentlicht. Vor allem die Panda Updates 4.0 und 4.1 im Jahr 2014 hatten erheblichen Einfluss auf Website-Rankings in den Suchergebnissen. Danach wurden Aktualisierungen des Panda Updates nicht mehr kommuniziert, da der Filter fortan als fester Bestandteil des Google Algorithmus fungiert.

Google-Panda-update

Welche Auswirkungen hat das Panda Update?

Websites mit guten redaktionellen Inhalten wurden in Folge des Panda Updates besser bewertet und konnten so an Ranking-Positionen gewinnen. Im Gegenzug verloren Websites mit unseriösen und schlechten Inhalten an Sichtbarkeit, da sie durch andere Suchergebnistreffer verdrängt wurden. Mit jedem weiteren Panda Update fügt Google mehr Signale zum Filter hinzu, die dabei helfen qualitativ hochwertige Inhalte von minderwertigen zu unterscheiden.

Laut Searchmetrics waren vom Update 4.1 teilweise internationale Größen, wie HRS.de oder Nokia.com negativ betroffen. Kleinere und mittlere Seiten mit hochqualitativem Inhalt konnten hingegen an Sichtbarkeit gewinnen.

Um vom Panda Update zu profitieren, ist es also wichtig, dass ihr eigene hochwertige Inhalte auf der Website bereitstellt, die vor allem den Mehrwert der Nutzer als Ziel haben. Doppelte Inhalte und Informationen externer Quellen, die 1-zu-1 übernommen wurden, solltet ihr vermeiden. Wodurch sich hochwertige Inhalte auszeichnen, hat Google im Webmaster Blog erklärt.

Penguin Update (2012)

Das Penguin Update wurde erstmalig im April 2012 ausgerollt und von Google kommuniziert. Es handelt sich dabei um einen weiteren Qualitätsfilter von Google, bei dem sich alles um die Identifizierung von Spam, Verlinkungen und Backlinks dreht. Google erkennt mit Hilfe dieses Filters im Algorithmus Websites, die unnatürliche Backlinkmuster aufweisen oder Keyword-Stuffing betreiben. Diese werden abgestraft, indem sie Rankings verlieren oder ganz aus dem Google Index verbannt werden. Seit dem Penguin Update 4.0 ist der Qualitätsfilter laut Google noch besser geworden: Der Filter ist nun in der Lage Spamsignale auf URL-Basis zu identifizieren und nur die URLs mit spammigen Links abzuwerten.

Seit dem ersten Roll-out gab es vier aktualisierte Versionen des Updates. Seit Penguin 4.0 ist dies in den Core Algorithmus integriert. Seit September 2016 werden diese Updates nicht mehr extra kommuniziert, da Penguin nun in Echtzeit agiert. Aktualisierungen am Filter werden laut Google kontinuierlich vorgenommen, ohne Ankündigung.

Welche Auswirkungen hat das Penguin Update?

Websites, die unnatürlichen und unseriösen Linkaufbau betrieben haben, oder mit Hilfe von Keyword-Stuffing ihre Seite künstlich in den Rankings nach vorne gebracht haben, werden von Google rigoros abgestraft. Mittlerweile ist Google in der Identifizierung von unnatürlichen Backlinks sehr gut und feinfühlig geworden. Tipps zu nachhaltigem Linkbuilding findet ihr beim OMT.

Als Penguin noch nicht in Echtzeit im Core Algorithmus integriert war, sondern manuell durch Google ausgerollt wurde, konnte die Auswirkung eines Penguin Updates stets gut erkannt werden anhand einer Steigerung der Sichtbarkeit einer Website oder dem Verlust derselben. Da Penguin nun in Echtzeit bei jedem Crawl einer URL in Kraft tritt, sind die Auswirkungen deutlich weniger einfach zu benennen. Generell ist die Funktion des Filters in Echtzeit jedoch positiv, da von Penguin betroffene Seiten somit nicht bis zum nächsten Roll-out warten müssen, sondern direkt die Auswirkungen ihrer Arbeit im Link Management sehen.

Hummingbird Update – ein neuer Google Algorithmus (2013)

Im August 2013 bestätigte Google den Launch einer neuen Generation des Google Algorithmus – passend zum 15. Geburtstag der Google Suche. Bei Hummingbird handelt es sich nicht nur um eine Änderung im Algorithmus, sondern es stellt einen gänzlich neuen Algorithmus dar, der seitdem die Basis der Suche bildet. Suchergebnisse sollen nun schneller und vor allem präziser ausgeliefert werden können.

Das Ziel von Hummingbird ist es, die Nutzer-Intention hinter einer Suchanfrage besser zu verstehen und dementsprechend passendere Suchergebnisse auszuliefern. Anstatt nach einzelnen Wörtern in der Suchanfrage eines Nutzers zu suchen und diese dann einzeln zu interpretieren, ist Google seit Hummingbird in der Lage die Suchanfrage insgesamt zu analysieren und eine semantische Beziehung zwischen den einzelnen Wörtern herzustellen. Dadurch wird die Nutzer-Intention deutlicher und auch die Ausrichtung und Intention einer Website kann mit Hilfe von Hummingbird besser ausgelesen werden.

Vor allem konversationelle Suchanfragen, also Suchanfragen, die im Stil einer Unterhaltung oder einer Frage gestellt werden, können besser interpretiert werden. Beispielsweise kann Google mittlerweile die Absicht hinter Suchanfragen, wie „Zeige mir Bilder des Kölner Doms“ oder „Wird es heute regnen?“ sehr gut erkennen:

Suchergebnis zur Suchanfrage "Wird es heute regnen?"

Suchergebnis zur Suchanfrage „Wird es heute regnen?“

Suchergebnis zur Suchanfrage: "Zeige mir Bilder vom Kölner Dom"

Suchergebnis zur Suchanfrage: „Zeige mir Bilder vom Kölner Dom“

Das Update betrifft auch die Suche mittels Sprachfunktion (Voice Search). Diese soll so enorm verbessert werden, da hier Suchanfragen häufig in ganzen Sätzen formuliert werden.

Hummingbird ist ein Schritt in Richtung der semantischen Suche und stellt die Weiche zu einer neuen Generation der Suche dar, die mit RankBrain und BERT (siehe unten) fortgeführt wurde. Knapp 90% aller Suchanfragen waren zum Zeitpunkt des Roll-outs von Hummingbird betroffen.

Welche Auswirkungen hat das Hummingbird Update?

Laut Searchmetrics nahm die Diversität der Suche nach Hummingbird ab, da ähnlichere Resultate für semantisch gleiche Suchanfragen ausgespielt werden. Die Anzahl an unterschiedlichen URLs in den Suchergebnissen hat um knapp 6% abgenommen. Vor allem bei Keywords mit semantischer Ähnlichkeit ist das oft der Fall.

Ein kleiner Tipp am Rande: Mit strukturierten Daten könnt ihr eure Website besser auf die semantische Suche ausrichten, da so die auf der Website vorhandenen Daten von Suchmaschinen besser ausgelesen und interpretiert werden können.

Google Mobile Update & mobile-first Index (2015)

Im Februar 2015 kündigte Google ein Mobile Update für den 21. April 2015 an und startete somit die Offensive, die mobile Suche benutzerfreundlicher zu gestalten. Da immer mehr Nutzer per Smartphone Google-Suchen durchführen, sollen auch in den Suchergebnissen auf mobilen Geräten möglichst Seiten erscheinen, die für diese optimiert sind.

Von den Medien wurde dieses Update als „Mobilegeddon“ betitelt, weil befürchtet wurde, dass mit erheblichen Auswirkungen auf die Suche zu rechnen sei. Einige Webmaster nutzten trotz der langen Frist bis zum Update die Zeit nicht, um ihre Website mobil zu optimieren und mussten große Einbußen in Bezug auf ihre Sichtbarkeit in Kauf nehmenInsgesamt hielten sich die befürchteten Schwankungen allerdings im Rahmen.

Im Mai 2016 fand ein zweites angekündigtes Mobile Update statt, welches jedoch einen weitaus geringeren Effekt hatte. Mittlerweile waren die meisten Websites mobil optimiert, wie Daniel Furch von Searchmetrics bestätigt und auch auf moz.com vermutet wird.

Im Mai 2018 rollte Google dann das Mobile First Indexing aus. Dies bedeutet, dass Google Websites anhand der Inhalte bewertet, die auf mobilen Geräten angezeigt werden. Zuvor wurde primär die Desktop-Variante einer Website verwendet, um die Relevanz für eine bestimmte Suchanfrage zu ermitteln. Inhalte, die auf Smartphones ausgeblendet sind, um zum Beispiel die Nutzerfreundlichkeit zu erhöhen, werden nicht für das Ranking berücksichtigt. Ausnahmen bilden Inhalte, die durch anklicken sichtbar werden, wie zum Beispiel Inhalte in Akkordeons.

Gestartet wurde laut Google in der ersten Welle bei der Umstellung des Indexes mit Websites, die den Best Practices für die mobile-first Indexierung entsprachen. Alle Websites, die bereits von der Desktop zur mobile-first Indexierung umgestellt wurden, erhielten in der Google Search Console eine entsprechende Benachrichtigung.

Hinweis in der Google Search Console, dass für eine Website die Mobile First Indexierung ausgerollt ist

Hinweis in der Google Search Console, dass für eine Website die Mobile First Indexierung ausgerollt ist

Wenn ihr eure mobile Seite testen möchtet, dann könnt ihr dies mit Hilfe eines Google Tools tun.

Welche Auswirkungen hat das Mobile Update & der mobile-first Index?

Wie von Google angekündigt wurden Websites mit responsive Design oder mobile Websites nach dem Update in Smartphone-Suchergebnissen besser positioniert. Laut Searchmetrics haben Websites, die vom ersten Update betroffen waren, größtenteils nachgebessert und mittlerweile ebenfalls eine mobilfreundliche Seite. Generell hat der Anteil an Websites, die eine mobilfreundliche Seite haben, stark zugenommen. Laut Searchmetrics ist ihr Anteil an von 76% im Mai 2015 auf 98% im Mai 2016 gestiegen.

Wie sich der mobile-first Index theoretisch auswirkt, hat Google in seinen Best Practices festgehalten:

Wenn ihr diesen Website Typ habt, passiert folgendes:
Nur Desktop Variante: Eure Website gibt es nur als Desktop Variante und ihr habt keine mobilfreundliche Version Keine Veränderung. Die mobile Version ist die gleiche wie die Desktop Variante.
Responsive Website: Eure Website passt sich der Bildschirmgröße des Nutzers an. Keine Veränderung. Die mobile Version ist die gleiche wie die Desktop Variante.
Kanonische AMP Website: Alle eure Seiten sind als AMP HTML erstellt. Keine Veränderung. Die mobile Version ist die gleiche wie die Desktop Variante.
Separate URLs: Jede Desktop URL hat ein Äquivalent für Nutzer von Mobilgeräten, deren URL allerdings anders lautet. Dieser Seitentyp ist auch als m-dot Website bekannt. Google bevorzugt die mobilen URLs für die Indexierung.
Dynamische Zuordnung: Eure Website bietet Nutzern unterschiedliche Inhalte an, abhängig vom Gerät, über das der Nutzer gekommen ist. Nutzer sehen allerdings alle die gleiche URL. Google bevorzugt den mobil-optimierten Inhalt für die Indexierung.
AMP und nicht-AMP: Eure Website hat sowohl AMP als auch nicht-AMP Versionen für eine Seite. Nutzer sehen zwei unterschiedliche URLs. Google bevorzugt die mobile Version der nicht-AMP URL für die Indexierung.

Positiv ist unter anderem außerdem, dass mit dem mobile-first Index auch endlich Hamburger-Menüs und Akkordeons, d.h. Elemente, die auf Mobilgeräten erst nach einem Klick mehr Inhalte präsentieren, von Google erkannt werden. Der Inhalt hinter diesen Elementen fließt in die Bewertung einer Seite mit ein, wie Barry Schwartz es zusammenfasst. Bisher hat Google solche „versteckten“ Inhalte häufig nicht richtig auslesen und bewerten können.

RankBrain – Machine Learning im Google Algorithmus (2015)

Im Oktober 2015 gab Google bekannt, dass RankBrain bereits seit mehreren Monaten Teil des Algorithmus sei und nach Inhalten und Backlinks als drittwichtigster Rankingfaktor zähle. RankBrain basiert auf Machine Learning.

Ryte definiert Machine Learning wie folgt:

Machine Learning (deutsch: maschinelles Lernen) ist ein wichtiger Bereich der Computerwissenschaft und Bestandteil künstlicher Intelligenz. Computerprogramme, die auf Machine Learning basieren, können mit Hilfe von Algorithmen eigenständig Lösungen für neue und unbekannte Probleme finden. Maschinelles Lernen kommt auch beim Online-Marketing und bei der Webanalyse zum Einsatz.

Laut Google Senior Research Scientist Greg Corrado besteht der Unterschied zwischen RankBrain und allen anderen Google Ranking-Faktoren darin, dass die Erkenntnisse, die die Grundlage der bisherigen Ranking-Faktoren bilden, auf interner Forschung basiert haben. RankBrain gewinnt diese Erkenntnisse nun auf Basis von Machine Learning selbst.

Google-Rank-Brain

Generell verfolgt Google mit RankBrain die Absicht, Suchanfragen von Nutzern so gut zu analysieren, dass auch Websites unter den Suchergebnissen angezeigt werden, die eventuell nicht dem genauen Wortlaut der Suchanfrage des Nutzers entsprechen. Vor allem bei sehr langen (Longtail-Keywords) oder generischen Suchanfragen soll RankBrain dabei helfen, diese besser zu interpretieren. (Quellen: searchengineland.com und Searchmetrics)

Kurz gefasst ermöglicht RankBrain einen einfacheren Umgang mit neuen oder sehr generischen Suchanfragen, indem es Verknüpfungen zu ähnlichen bekannten Suchanfragen herstellt und lernt, die Suchintention hinter den Suchanfragen des Nutzers basierend auf statistischen Erfahrungswerten besser zu identifizieren. Die Nutzerintention steht hier also wieder einmal im Vordergrund.

Welche Auswirkungen hat RankBrain?

Da RankBrain bei jeder Suchanfrage genutzt wird, beeinflusst es die Rankings von sehr vielen Websites. Google hat bis dato offiziell nur wenige verständliche Beispiele zur genauen Funktion von RankBrain gegeben. Kai Spriestersbach hat jedoch einige gute Beispiele gesammelt. So wurde für die folgende Suchanfrage nach RankBrain ein deutlich sinnvolleres Suchergebnis ausgespielt als vorher:

Suchergebnisse zur Suchanfrage "Why are PDFs so weak" vor RankBrain

Suchergebnisse zur Suchanfrage „Why are PDFs so weak“ vor RankBrain

Suchergebnisse zur Suchanfrage "Why are PDFs so weak" nach RankBrain

Suchergebnisse zur Suchanfrage „Why are PDFs so weak“ nach RankBrain

Auch in Deutschland hilft RankBrain dabei, Suchanfragen besser zuzuordnen. Wurde vor RankBrain zur Frage „Wer ist abs?“ nur der offensichtlichere Bezug zum Antiblockiersystem (ABS) hergestellt, spielt Google mittlerweile andere relevantere Seiten zu der Suchanfrage aus, da mit Hilfe von RankBrain erkannt wird, dass bei der Frage „WER ist abs?“ eher nach einer Person, als nach einem System gesucht wird.

Suchergebnisse zur Suchanfrage "Wer ist Abs" vor RankBrain

Suchergebnisse zur Suchanfrage „Wer ist Abs“ vor RankBrain

Suchergebnisse zur Suchanfrage "Wer ist Abs" nach RankBrain

Suchergebnisse zur Suchanfrage „Wer ist Abs“ nach RankBrain

Laut Kai Spriestersbach haben andere Rankingfaktoren, wie Beispielsweise Backlinks und Keywords im Title seit RankBrain an Bedeutung verloren, da Google nun basierend auf maschinell erfassten statistischen Erfahrungswerten in der Lage ist Beziehungen zwischen Suchanfragen herzustellen, die vorher nicht möglich waren. Nutzersignale und die Nutzer-Intention hinter einer Suchanfrage spielen hierbei eine zentrale Rolle.

Noch mehr Informationen zu Rankbrain findet ihr im Artikel „Künstliche Intelligenz im Einsatz oder: Was ist RankBrain?

Quality Update oder Phantom Update (2015)

Immer wieder finden unerwartete und unerklärte Schwankungen in den Suchergebnissen statt, da Google Änderungen im Algorithmus testet und diese nicht wie bei den Panda oder Penguin Updates kommuniziert. Generell scheint es sich bei Updates dieser Art um Änderungen im Kern des Algorithmus (Core Update) zu handeln, die sich laut Google auf die Qualitätssignale des Core Algorithmus beziehen. Die genaue Natur der betroffenen Ranking Signale kommentiert Google jedoch nicht. Im Mai, Juni und Dezember 2015 sorgten mehrere dieser Updates für Turbulenzen in den Suchergebnissen. Da es keine offiziellen Namen für diese Updates gab, wurden sie Quality und Phantom Updates genannt. Auch Mitte 2016 wurde vermutet, dass ein weiteres Phantom Update ausgerollt wurde (Searchmetrics und internetworld berichteten darüber).

Bei den Phantom Updates stehen laut Searchmetrics Qualität und Nutzerintention im Fokus. Hochwertige, relevante und einzigartige Inhalte und eine gute Website Struktur, die es ermöglicht alle Inhalte auch einfach zu erreichen, werden positiv bewertet. Laut der von Google veröffentlichen Quality Rater Guidelines liegt der Fokus bei der Bewertung von Websites vor allem auf dem Grad der Befriedigung der Nutzerintention.

Welche Auswirkungen hat das Phantom Update?

In der Kalenderwoche vom 04.05.2015 bis 11.05.2015 verloren Domains weltweit laut Sistrix zwischen 20% und 60% an Sichtbarkeit. Anschließend bestätigte Google eine Änderung des Core Algorithmus vorgenommen zu haben.

Das Update scheint jedoch keinen spezifischen Website-Typ zu betreffen, sondern hatte Auswirkungen auf verschiedene Arten von Websites. Laut Searchmetrics sind vor allem Nutzersignale ausschlaggebend. Wenn der Inhalt einer Seite thematisch oder strukturell nicht auf die Intention des Nutzers abgestimmt ist, wirkt sich dies langfristig auf die Sichtbarkeit einer Website aus.

Fred Update (2017)

Anfang März 2017 gab es erneut große Diskussionen ausgelöst von Barry Schwartz und weiteren bekannten Köpfen der Branche um ein weiteres Update des Kern-Algorithmus. Mehr aus Spaß wurde das Update inoffiziell auf den Namen Fred getauft.

Nachdem Fred Ende März von offizieller Seite bestätigt wurde, ist die genaue Wirkungsweise des Updates nicht hundertprozentig klar, da auch hier seitens Google nur wenige Informationen preisgegeben wurden. Gary Illyes verwies allerdings darauf, dass Seiten, die abgestraft wurden, konkret gegen aktuelle Webmaster Richtlinien verstoßen hätten.

Sistrix kam in einer Analyse der Auswirkungen des Fred Updates zu dem Schluss, dass es sich hierbei wieder um eine Optimierung der Rankingkriterien handelt, die sich mit der Qualität der Seiteninhalte einer Website beschäftigen. Der Mehrwert der Inhalte für den Nutzer steht auch hier im Fokus.

Welche Auswirkungen hat das Fred Update?

Laut der Sistrix-Analyse sind vor allem Websites unter den Verlierern, die minderwertige Inhalte anbieten und stark anzeigenlastig sind, sprich viele Werbebanner Above-the-Fold (im direkt sichtbaren Bereich einer Seite) aufweisen. Dies bestätigen auch die Analyseerkenntnisse von Barry Schwartz. Seiten mit stark veraltetem oder sehr dünnem Content, sowie „SEO-Texte“ die mit Keywords überoptimiert wurden, werden negativ bewertet. Ebenso verlieren Seiten, deren Hauptziel es ist, viele Nutzer über Google mit minderwertigen Inhalten zu generieren und sich über Affiliate Programme zu monetarisieren, anstatt dem Nutzer einen Mehrwert zu bieten.

Domains, die bereits von Panda und/oder Penguin Updates betroffen waren, sind auch dieses Mal meist unter den Verlierern anzutreffen und mussten Ranking-Einbußen von 40 bis 100+ Positionen hinnehmen.

User Localization Update – Mehr Relevanz für die lokale Suche (2017)

Gegen Ende Oktober 2017 gab Google bekannt, dass es nun nicht mehr möglich sei, gezielt Suchanfragen in spezifischen Google-Indexes durch die Eingabe der jeweiligen country code Top Level Domain (ccTLD) durchzuführen. Konnte man vorher noch basierend auf der eingegebenen ccTLD spezifische Suchergebnisse pro Land einsehen, auch wenn man sich physisch nicht in diesem befand, so geht das mittlerweile nicht mehr. Stattdessen werden dem Nutzer per default basierend auf seinem physischen Standort die Suchergebnisse des jeweiligen Google Indexes ausgespielt.

Das bedeutet konkret, wenn ihr euch in Deutschland befindet und dort etwas googelt, werden euch SERPs des deutschen Indexes (google.de) angezeigt. Seid ihr dann allerdings im Urlaub in Frankreich und sucht dort nach dem Wetter, erhaltet ihr automatisch das relevanteste Suchergebnis, nämlich die Wettervorhersage für euren Standort im französischen Index (google.fr) und nicht für das Wetter bei euch zu Hause in Deutschland. Das Ziel dieses Updates besteht darin, die Relevanz der Suchergebnisse für den Nutzer zu steigern und den jeweiligen individuellen (örtlichen) Kontext des Nutzers stärker berücksichtigen zu können.

Von nun an bestimmt also euer physischer Standort Suchergebnisse, die euch ausgespielt werden. Der Name User Localization Update ist wohl auf Searchmetrics zurückzuführen – Google selbst hat diesem Update keinen konkreten Namen gegeben.

Welche Auswirkungen hat das Localization Update?

Searchmetrics hat zu diesem Thema einen interessanten Artikel verfasst und Experten der Branche zu ihren Meinungen befragt. Folgende Kernaussagen solltet ihr mitnehmen:

  • Die Bewertung von Websites ändert sich nicht. Das Tracking der Rankings pro Land wird für Toolanbieter in diesem Bereich ggf. eine Herausforderung
  • Globale Portale werden es evtl. in Zukunft schwieriger haben bei lokalen Suchen zu erscheinen, da lokalen Ergebnissen mehr Relevanz zugewiesen wird
  • Internationale SEO Standards wie hreflang und die regionale Ausrichtung mit Hilfe der Google Search Console ebenso wie die Verwendung der jeweils relevanten Begriffe pro Land und Sprache sollten noch einmal überprüft werden, sofern ihr diese in eurer internationalen SEO Strategie noch nicht berücksichtigt
  • Zusätzlich unterstützt das Update die Relevanz mobiler Suchanfragen, da diese sehr häufig einen lokalen Bezug haben laut Searchengineland und Google

Speed Update (2018)

Dass PageSpeed ein wichtiger Rankingfaktor ist, war den meisten von euch wahrscheinlich schon längere Zeit bekannt. Mit dem Speed Update im Juli 2018 hat Google allerdings noch einmal die Wichtigkeit dieses Faktors vor allem für die mobile Suche unterstrichen. Bisher wurde bei der Bewertung von Seiten hauptsächlich auf die Ladezeiten der Desktop-Version eurer Website geachtet. Mit dem Speed Update rückt der PageSpeed der mobilen Websites in den Fokus der Bewertung eurer Website. Mobile Seiten, die sehr langsam laden, haben dadurch einen Nachteil im Ranking.

Die Ladezeit einer mobilen Seite ist kritisch mit Hinblick auf die Absprungrate

Die Ladezeit einer mobilen Seite ist kritisch mit Hinblick auf die Absprungrate

Welche Auswirkungen hat das Page Speed Update?

Das Speed Update wirkt sich laut Google Webmasters nur auf die Seiten aus, die die langsamste Nutzererfahrung aufweisen und betrifft deshalb nur eine geringe Anzahl an Seiten und Suchanfragen. Unabhängig von der Technologie einer Seite wird hier nur auf die Ladezeit selbst geachtet.

Auch laut Searchmetrics ist nur eine geringe Anzahl an sehr langsamen mobilen Websites betroffen. Durch die frühe Ankündigung des Updates und die generell recht offene Kommunikation von Google, wenn es um mobile Updates geht, hatten Websitebetreiber ausreichend Zeit, um sich auf die Thematik vorzubereiten.

Um eure eigene Website Performance in Bezug auf Ladezeiten zu überprüfen, gibt es eine Reihe von Tools. Unter anderem gehört dazu Page Speed Insights von Google selbst. Hier könnt ihr ganz einfach die URL der zu analysierenden Seite eingeben und darauf basierend erhaltet ihr ein Reporting für Desktop und Smartphone Performance der Seite.

Ergebnis des Page Speed Insights Tests für eine URL

Ergebnis des Page Speed Insights Tests für eine URL

Seit Oktober 2019 gibt es außerdem einen Bericht zu Ladezeiten in der Search Console, mit dem ihr sehen könnt, welche eurer URLs besonders langsam oder besonders schnell laden. Ein Hinweis darauf, dass das Thema PageSpeed auch in Zukunft noch Relevanz haben wird.

Bericht zu Ladezeiten in der Google Search Console

Bericht zu Ladezeiten in der Google Search Console

Medic Update I & II (2018)

Anfang August 2018 rollte Google weltweit ein großes Core-Algorithmus-Update aus, das die Rankings von auffallend vielen Seiten des Gesundheitssektors beeinflusste. Aus diesem Grund prägte Barry Schwartz den Begriff Medic Update für die Veränderungen am Google-Algorithmus.

Es zeigte sich, dass das Medic Update nicht nur Auswirkungen auf Seiten aus dem Gesundheitsbereich hatte, sondern generell Seiten der Kategorie YMYL – also „Your Money, Your Life“ – betraf. Neben Gesundheitsseiten waren dementsprechend auch Finanzseiten, Fitness- oder Wellness-Seiten betroffen. Teilweise konnten sie Abstürze oder Zuwächse der Sichtbarkeit von bis zu 60% verzeichnen.

Google hielt sich in seinen Aussagen auch bei diesem Update eher bedeckt, vermutlich wurde aber nicht gezielt eine ganze Branche neu bewertet, sondern es wurden Anpassungen vorgenommen, die sich auf eine bestimmte Art von Seite auswirken, die zufällig häufig in diesen Themenbereichen liegen.

Anfang Oktober 2018 erfolgte dann ein weiteres Medic-Update, wobei sich die Sichtbarkeit einiger zuvor abgefallener Seiten wieder normalisierte, während andere weiter an Sichtbarkeit gewannen oder verloren. Offensichtlich hat Google hier nachjustiert und Fehler behoben.

Google kommentierte auch dieses Core-Update nur sehr begrenzt. In einem Tweet der Google SearchLiaison wurde noch einmal die Bedeutung von qualitativ hochwertigem Content als Rankingfaktor betont.

Quelle: https://twitter.com/searchliaison/status/1050447185177800704

Quelle: https://twitter.com/searchliaison/status/1050447185177800704

Welche Auswirkungen haben die Medic-Updates?

Bei den Medic-Updates scheint es vor allem um die Vertrauenswürdigkeit der Seiten zu gehen. Wichtige Faktoren sind hierbei Expertise, Autorität und Vertrauenswürdigkeit (Expertise, Authoritativeness and Trustworthiness) – kurz E-A-T. Die Updates werden daher auch E-A-T Updates genannt. Betroffen sind vor allem Seiten, bei denen die Inhalte sehr sensibel sind und der Faktor „Trust“ eine besondere Rolle spielt. Seitenbetreiber sollten daher auch weiterhin auf hochwertigen und relevanten Content achten, dabei aber auch die Expertise der Autoren – für die Suchmaschine erkennbar – hervorheben.

Hierzu betont Google auch in seinen General Guidelines unter Punkt 2.3:

We have very high Page Quality rating standards for YMYL pages because low quality YMYL pages could potentially negatively impact users’ happiness, health, financial stability, or safety.

Googles E-A-T Score gibt dabei einen guten Einblick, welche Faktoren ein Text erfüllen sollte, um als vertrauenswürdig zu gelten.

Für Seiten mit einem hohen E-A-T Score zu medizinischen Themen wird dort z.B. unter Punkt 3.2 folgendes empfohlen:

High E-A-T medical advice should be written or produced by people or organizations with appropriate medical expertise or accreditation. High E-A-T medical advice or information should be written or produced in a professional style and should be edited, reviewed, and updated on a regular basis.

Das Medic Update hat uns also nur einmal mehr daran erinnert, wie bedeutend Qualitätscontent für das Ranking von Webseiten ist. Webseitenbetreiber sollten daher auch weiterhin in hochwertige Inhalte investieren, wissenschaftliche Belege anführen (wenn nötig) und auch insgesamt auf eine hohe Vertrauenswürdigkeit der eigenen Seite setzen – z.B. durch ein vorhandenes Impressum, AGB und Kontaktmöglichkeiten.

Core Algorithmus Updates 2019

Im Jahr 2019 gab es in relativ kontinuierlichen Abständen (März, Juni und September) Core Updates, die auch von Google bestätigt und zum Teil sogar via Twitter angekündigt wurden. Benannt wurden sie nach dem Monat, in dem sie ausgerollt wurden.

Auffallend bei diesen Updates ist, dass betroffene Seiten sehr schnell und sehr deutliche Veränderungen in der Sichtbarkeit aufweisen. Es gibt klare Verlierer, aber auch eindeutige Gewinner der Updates. Domains, die bereits die Auswirkungen der Medic Updates bzw. E-A-T Updates aus 2018 zu spüren bekommen hatten, gehören jetzt meist auch zu den betroffenen Seiten. Zudem ist zu erkennen, dass Seiten, die auf das March Update reagierten, auch von den beiden nachfolgenden Updates beeinflusst wurden. Zum Beispiel bei netdoktor.de ist dies sehr deutlich zu sehen:

Sichtbarkeit zeigt zum Zeitpunkt der Core Updates starke Veränderungen

Sichtbarkeit zeigt zum Zeitpunkt der Core Updates starke Veränderungen

Eine Übersicht zu den Sichtbarkeitsveränderung bei großen Portalen aus dem Gesundheitssektor findet ihr bei Martin Mißfeld.

March 2019 Core Update

Betroffen vom March 2019 Core Update waren vor allem Domains aus dem „Your Money Your Live“ (YMYL)-Umfeld und Seiten aus dem Gesundheitssektor. Seiten, die ein starkes Branding und ein erweitertes Themenspektrum aufweisen, gehörten laut Searchmetrics zu den Gewinnern des Updates. Nischenwebsites dagegen eher zu den Verlierern. Außerdem scheinen Seiten mit guten Nutzersignalen vom Update profitiert zu haben.

June 2019 Core Update

Im Juni kündigte Google erstmals ein Core Update via Twitter an. Auch diesmal waren wieder viele Websites aus dem YMYL-Bereich betroffen und Domains, die im März Sichtbarkeit einbüßen mussten, konnten sich im Juni wieder fangen. Neben den Medizin- und Pharmaseiten, die schon in 2018 auf die Medic Updates reagierten, gehörten nun laut Sistrix aber auch Websites aus dem News-Bereich und Content-Seiten zu den Betroffenen. Searchmetrics beobachtete außerdem eine Zunahme der Video-Karussells in den SERPs.

September 2019 Core Update

Das September 2019 Core Update wurde erneut von Google über Twitter angekündigt. Laut Sistrix waren verstärkt Seiten aus dem Reisebereich betroffen, aber auch im Gesundheits- und Finanzbereich gab es wieder einige Bewegungen in den SERPs. Searchmetrics stellte außerdem eine Aufwertung von Video-Inhalten fest, so dass Video-Karusselle in den SERPs jetzt häufiger vor den eigentlichen organischen Ergebnisse befinden.

Auswirkungen der Core Updates

Ziel der Core Updates ist es, Inhalte von Websites noch besser zu bewerten und Nutzern den bestmöglichen Inhalt zu ihrer Suchanfrage zur Verfügung zu stellen. Websites, deren SEO Performance durch die Updates in Mitleidenschaft gezogen wurde, machen laut Google nicht unbedingt etwas falsch und werden deshalb abgestraft. Viel mehr sind neue Wettbewerber hinzugekommen, die bessere Inhalte liefern.

Es handelt sich dabei also nicht um Abstrafungen aufgrund von Verstößen gegen die Google Richtlinien. Dementsprechend kann aber auch nichts auf der Seite gefixt werden, um schnell die alte Sichtbarkeit zurückzugewinnen. Orientierung bieten die Websites, die durch das Update an Sichtbarkeit gewonnen haben. Diese scheinen aus Sicht von Google etwas richtig zu machen. Der Fokus sollte hier auf der Qualität der Inhalte liegen. Bei deren Erstellung sollte verstärkt auf die Suchintention geachtet werden. E-A-T spielt weiterhin eine große Rolle.

Im Webmaster Forum hat Google eine Liste mit Fragen bereitgestellt, unter deren Gesichtspunkten Webmaster ihre Inhalte kritisch überprüfen können. Außerdem solltet ihr euch mit den Google Quality Rater Guidelines auseinandersetzen.

BERT Update (2019)

Im Oktober 2019 veröffentlichte Google ein neues Update, das dabei helfen soll, komplexe Suchanfragen richtig zu verstehen und entsprechende Suchergebnisse auszuliefern. Das Update trägt den Namen BERT, kurz für „Bidirectional Encoder Representations from transformers“. Nach Googles eigenen Angaben handelt es sich bei diesem Update um die größte Entwicklung der Suchmaschine in den vergangenen fünf Jahren.

BERT basiert auf Natural Language Processing (NLP) und schließt damit an Hummingbird und den Rank Brain Algorithmus an. Ziel ist es, Suchanfragen in ihrer Vollständigkeit besser zu verstehen und einzelne Wörter im ganzen Satzzusammenhang interpretieren zu können, anstatt jedes Wort einzeln. Dies bezieht sich vor allem auf Präpositionen wie „to“ oder „for“, die bisher nicht im Kontext der Suchanfrage ausgewertet werden konnten. Als Beispiel führt Google die Suchanfrage „2019 brazil traveler to usa need a visit“ an. Der Präposition „to“ spielt eine entscheidende Rolle bei der Bedeutung der Suchanfrage. Schließlich sucht der Nutzer nach Informationen für Reisende aus Brasilien, die in die USA einreisen möchten. Dies kann Google nun erkennen und entsprechende Informationen ausspielen. Das Beispiel zeigt, dass dies zuvor nicht immer möglich war:

Suchergebnis vor und nach dem BERT Update

Suchergebnis vor und nach dem BERT Update

Für uns bedeutet dies, dass Suchanfragen, die in natürlicher Sprache bzw. in ganzen Sätzen gestellt werden, besser verstanden und entsprechend Suchergebnisse passend zur Suchintention ausgeliefert werden können. Die Verbesserungen betreffen dabei sowohl die gewöhnlichen Suchergebnisse als auch die Ausspielung von Featured Snippets.

Welche Auswirkungen hat das BERT Update?

Zunächst ist BERT nur für die englische Sprache in den USA im Einsatz. Laut Google sollen ca. 10 % aller englischen Suchanfragen in Amerika davon betroffen sein. Doch Erkenntnisse, die aus der einen Sprache gewonnen werden, lassen sich auf eine andere übertragen. Dadurch ist es möglich, dass auch in anderen Sprachen Auswirkungen zu spüren sein werden, bevor das Update selbst für die jeweilige Sprache ausgerollt wird. Also auch wenn BERT noch nicht in Deutschland angekommen ist, können unsere Suchergebnisse trotzdem davon profitieren.

Eine Optimierung für BERT gibt es in dem Sinne nicht, da es bei diesem Update nicht um eine neue Bewertung von Websites geht, sondern um ein besseres Verständnis der Suchanfrage. Trotzdem ist es in diesem Kontext sinnvoll, genau die Inhalte auf der eigenen Website bereitzustellen, die Nutzer suchen und sie möglichst einfach und klar verständlich zu formulieren. Mehr dazu findet ihr bei SEOSüdWest.

Fazit

Die aktuellen Google Updates zeigen, dass Google an zwei Stellschrauben dreht: An der Bewertung von Websites und an der Interpretation von Suchanfragen.

So wird die Suchmaschine immer besser darin, die Qualität einer Website zu beurteilen. Websites mit schlechten oder veralteten Inhalten verlieren an Relevanz und somit an Ranking-Positionen. Website mit guten Nutzersignalen gewinnen hingegen an Sichtbarkeit. Wichtig in diesem Kontext sind neben ausgezeichneter Inhalte auch die Nutzerfreundlichkeit einer Website. Die Bedienung auf mobilen Geräten oder auch die Ladezeiten rücken bei der Optimierung in den Fokus.

Auf der anderen Seite lernt der Google Algorithmus die an ihn gestellten Suchanfragen genauer zu interpretieren. Dies ermöglicht der Suchmaschine eine gezieltere Ausspielung von Suchergebnissen. Außerdem wird dadurch die Kommunikation mit der Suchmaschine für den Nutzer einfacher, da Suchanfragen, die im Stil der gesprochenen Sprache gestellt werden, besser ausgewertet werden können.

Als Faustregel solltet ihr euch merken:

Wer SEO qualitativ hochwertig umsetzt, seriös und transparent arbeitet, Kreativität einbringt und dabei immer den Kontext des Nutzers im Blick behält, der lässt sich von Panda, Penguin, RankBrain, BERT und Co. nicht beeindrucken. Außerdem solltet ihr eure mobilen Nutzer nicht außer Acht lassen und sicherstellen, dass eure Website auch mobil eine gute Usability aufweist, relevante Inhalte präsentiert und gut performt.

 

Bildnachweis: Einige der verwendeten Bilder stammen von stramark.

Tags: SEO
Mareike Doll
Mareike Doll ist Senior Consultant und leitet das SEO Team bei lunapark . Sie studierte Germanistik und Italienische Philologie an der Rheinischen Friedrich-Wilhelms-Universität in Bonn und absolvierte nach Abschluss ihres Studiums eine Fortbildung zur Online-Redakteurin. Bevor sie 2014 bei lunapark anfing, war sie bereits als Online Redakteurin in der SEO Agentur SEOPT tätig. Bei lunapark ist sie vor allem für SEO und Content Bewertung und Optimierung zuständig. Ihr Schwerpunkt liegt dabei auf Websites aus dem Tourismus Bereich. Sie gibt Workshops und betreut den Firmen-Blog.
Share This