Auch in diesem Jahr war lunapark wieder auf dem SEO-Day vertreten. Dieser fand am 7.11.2019 im Kölner RheinEnergieStadion statt und lieferte für die rund 900 Besucher spannende Beiträge aus dem SEO-Bereich. In den drei Slots E-Commerce SEO, Onsite/Offsite und SEO-Coder gab es insgesamt über 30 Vorträge. Stefan und Viola waren mit dabei und geben euch einen Überblick über die besuchten Vorträge.

Why most SEO Audits are SH*T: Ein praktisches Framework, um zu verhindern, dass Sie weiterhin Zeit & Geld verschwenden – Bastian Grimm

Den Einstieg in den SEO-Day lieferte uns Bastian Grimm mit seinem Vortrag zu SEO-Audits. Er wies auf die Fehler hin, die häufig in SEO-Audits gemacht werden. Diese führen dazu, dass sie und die aufgebrachte Zeit und Arbeit meist nicht die positiven Erkenntnisse und Verbesserungen bringen, die sie könnten.

Er lieferte Probleme und Verbesserungen:

  1. Format
    • Welche Ziele gibt es? Wer ist der Adressat?
    • Stellt Audit Findings, also Handlungen, bereit und verseht sie mit (Code-)Beispielen.
  2. Symptome vs. Ursachen
    • Nicht nur Aufzählungen von beispielsweise doppelten Titeln oder 404-Fehlerseiten geben, sondern erläutern, woran das liegt und wie es behoben werden kann.
  3. Priorisierung
    • Jedes Thema hat eine Priorisierung.
    • Im besten Fall gibt es eine Tabelle bzw. Liste mit allen Maßnahmen, sortiert nach Wirkung und Aufwand.
    • Nicht alles inkludieren.
    • Sprecht vorab mit Kunden ab, welche Empfehlungen können nicht umgesetzt/akzeptiert werden. Diese müssen dann gar nicht erst betrachtet werden.

Wie genau der Audit am Ende aussieht, hängt aber auch von der Branche und der Anzahl der URLs ab. Auch wenn es einige Themen gibt, die nie fehlen dürfen, gibt es also nicht eine Vorlage, die sich auf jeden Kunden anwenden lässt, sondern jeder Fall muss individuell betrachtet werden.

Wettbewerbsbeobachtung im Internet: Was machen meine Konkurrenten besser als ich – Johannes Beus

Johannes Beus, Geschäftsführer von Sistrix, zeigte uns in seinem Vortrag, dass eigentlich keiner von uns Marktführer ist. Viele Unternehmen definieren für sich selbst ihren eigenen Wettbewerb. Aber sind das wirklich die direkten Konkurrenten? Oft sagen die SERPs etwas anderes. Zum Beispiel ist der größte Konkurrent von Stepstone.de nicht indeed.com, sondern Google Jobs.

Die nächste Frage, die sich dann stellt, ist, warum sind meine identifizierten Wettbewerber besser als ich? Dafür hat Johannes uns 5 Tipps für die Praxis mitgebracht.

  1. Definiert ein Keyword-Set

Euer Keyword-Set sollte ca. 1.000 – 10.000 Keywords enthalten und das gesamte Portfolio eurer Domain widerspiegeln. Versucht dabei spezifisch vorzugehen, aber nicht zu spitz zu werden.

  1. Erkenne den Marktführer in deiner Nische

Ermittelt mit dem definierten Keyword-Set den Marktführer. Dafür bietet die Sistrix-Toolbox einen tollen Bereich, der euch die größten Keyword-Überschneidungen mit eurem Keyword-Set aufzeigt. Berücksichtigt bei eurer Auswahl, dass die Wettbewerber ein vergleichbares Geschäftsmodell haben, schon länger erfolgreich und keine großen Marken sind.

Wettbewerb in Sistrix

Wettbewerb in Sistrix

  1. Erfolgsformate identifizieren

Jede Domain hat ein Verzeichnis, was für einen Großteil des Erfolges in den SERPs zuständig ist. Bei der Identifizierung hilft euch ebenfalls die Toolbox weiter. Die Erfolgsformate erkennt ihr an einer verhältnismäßig hohen Sichtbarkeit und einem hohen Anteil an Top10-Keywords.

Verzeichnisse in Sistrix

Verzeichnisse in Sistrix

  1. Verstehe die Erfolgsformate vollständig

An diesem Schritt werdet ihr die meiste Zeit verbringen. Versucht das Erfolgsformat ganzheitlich zu analysieren und zu verstehen. Schaut euch dazu auch andere Kanäle an, wie z.B. YouTube, Instagram, aber auch Newsletter und Pressemeldungen.

  1. Kopiere das Erfolgsformat

Wenn man einmal verstanden hat, woher der Erfolg kommt, braucht man diesen nur noch zu kopieren, für seine eigene Domain zu adaptieren und regelmäßig zu verbessern.

Alle Folien von Johannes Beus seinem Vortrag könnt hier herunterladen.

(Sichtbarkeit ≠ Traffic) + (Traffic ≠ Conversions) * Semantische Verlinkung / Nutzersignale = SEO 2019 – Maximilian Muhr & Jan Achtermann

Da Max und Jan kurz vor dem SEO-Day die Urlaubspiraten verlassen haben, mussten sie ihren Vortrag kurzfristig umgestalten. Das hat man leider etwas gemerkt. Viele Folien wurden übersprungen und man hat keinen roten Faden in dem Vortrag erkennen können.

Trotzdem hatten sie einige wichtige Informationen für uns mitgebracht. Und zwar, dass man sich nicht rein auf die Entwicklung der Sichtbarkeit konzentrieren soll, sondern darauf, dass sich auch der Traffic erhöht. Die wichtigste Schnittstelle dafür ist das Snippet. Dieses sollte optimiert und bestmöglich mit strukturierten Daten ausgezeichnet werden. Insbesondere die FAQ-Page-Auszeichnung vergrößert das Snippet um ein Vielfaches und steigert somit die Attraktivität. Aber auch andere Auszeichnungsmöglichkeiten vergrößern das Snippet. Schaut euch einfach mal auf Schema.org um.

FAQ Snippet in den SERPs

FAQ Snippet in den SERPs

Wichtig hierbei ist: nutzt die Auszeichnungsmöglichkeiten nicht seitenübergreifend, sondern optimiert die Landingpages gezielt.

Reichweite über Local SEO – Thorsten Loth

Local SEO ist ein hochspannendes Feld, das auch gerade in Zeiten der Sprachassistenten immer weiterwächst. Die lokalen Suchanfragen steigen seit 2014 stetig. Daher empfiehlt uns Thorsten jetzt in diesem Bereich aktiv zu werden, da man ansonsten abgehängt wird.

Wichtig für die lokale Suche ist, dass man seinen Google My Business-Eintrag verifiziert und optimiert. Dort sollte auch nicht rein die Startseite verlinkt werden, sondern die Filiale, die für die Suchanfrage relevant ist.

Google My Business Eintrag

Google My Business Eintrag

Auch das Verwenden von Bildern ist äußerst wichtig und steigert die CTR. Dabei ist es noch nicht mal so entscheidend, ob es sich hierbei um die richtige Filiale handelt. Nutzer stehen einfach auf Anzeigen mit Bildern.

Die Landingpage sollte wiederum, was untypisch für das klassische SEO ist, minimalistisch gehalten werden. Auf der Seite sollten nur Informationen zu finden sein, die relevant sind. Öffnungszeiten, Parkmöglichkeiten, Telefonnummer etc. Diese Informationen sollten dafür alle mit strukturierten Daten ausgezeichnet werden. Zeichnet eure Landingpages für die lokale Suche bis zum Anschlag aus. Auch die Optimierung für Mobile-Friendliness und Pagespeed sind entscheidend für Local SEO, sollten aber auch bereits eine Selbstverständlichkeit für uns SEOs sein.

CTR Maniulation in Google SERPS – Nedim Sabic

Nedim entführte uns zu Beginn seines Vortrags in die Tiefen des Black Hat SEOs und erzählte uns von Agenturen, die für viel Geld das SEA-Budget der Konkurrenten aufbrauchen, indem sie Bots auf deren Anzeigen klicken lassen.

Dieses Verfahren wird aber auch bei organischen Suchanzeigen angewandt. Dabei wird sich zu Nutzen gemacht, dass die CTR ein Nutzersignal ist. Die SERPs der Konkurrenz werden angeklickt, um im Anschluss die Seite direkt wieder zu verlassen. Somit wird die Bounce Rate negativ beeinflusst. Anschließend wird die eigene Seite ausgewählt, um mit dieser zu interagieren. Das Ganze ist aber illegal und somit abmahnbar! Auch das Vergütungsmodell ist für den Käufer nicht lukrativ. Daher solltet ihr solche „Tipps“ nicht anwenden.

Besser ist die CTR mit White Hat SEO zu beeinflussen. Das macht ihr zum einen mit optimierten Snippets. Eine weitere, spannende Möglichkeit ist, eine Umfrage oder ein Gewinnspiel zu veranstalten, in dem ihr Informationen eurer Wettbewerber anfragt, die User auf deren Seite finden. Die Nutzer besuchen die Konkurrenten um diese Informationen zu finden, verlassen die Seite und kommen anschließend zu euch und schließen ein Lead ab. Das bewertet Google positiv. Und das beste an der Sache: Die Rankings verbessern sich nachhaltig, auch wenn der CTR-Anstieg nur über einen kurzen Zeitraum erfolgt. Zudem ist diese Anwendung legal und somit nicht abmahnbar.

Eine kurzfristige CTR Steigerung erhöht nachhaltig die Ranking-Position

Eine kurzfristige CTR Steigerung erhöht nachhaltig die Ranking-Position

Das ganze Thema hatte Nedim auch bereits im Interview mit Christian B. Schmidt präsentiert, was man sich auf YouTube nochmal anschauen kann.

Relaunch NEU denken – Strategien zur Performancesteigerung! – Uwe Roll & Juliana Schmidt

Die beiden SEO-Consultants Uwe Roll und Juliana Schmidt von Deptagency beschäftigten sich mit dem Thema Relaunch. Optimalerweise steigert dieser die Performance einer Website und soll deshalb als eine Chance gesehen werden. Dies setzt aber eine gute Planung voraus.

Zunächst ist es wichtig, einen Status Quo der Seite zu erstellen. Hierunter fallen sowohl interne als auch externe Analysen, in denen man die Wettbewerber betrachtet. Im zweiten Schritt werden durch Konzeptionierung Grundlagen geschaffen. Hier ist es wichtig, die Zielsetzung und Strategie festzusetzen.

Die beiden stellen vor allem heraus, wie wichtig Absprachen und die Kommunikation untereinander und mit den verschiedenen Teams sind. Sprecht mit der IT, dem C-Level usw. Was ist für wen wichtig und wer setzt was um?

Betrachtet im Zuge eines Relaunches die gesamte Website und überlegt, was sich noch verbessern lässt. Das kann z. B.  die Anpassung der URL für eine leichtere Nutzerführung oder das Löschen bzw. Deindexieren von Seiten mit geringer Qualität sein.

Vom Testprojekt zur kleinen Mark – 10 Mio. Pageviews als Ziel für 2020 – Johannes Bornenwasser

Johannes ist COO bei dem Verlag RP Digital GmbH und leidenschaftlicher SEO. Daher hat er sich vor sieben Jahren dazu entschieden, ein privates kleines News-Portal über die Insel Teneriffa zu veröffentlichen: www.teneriffa-news.com. In seinem Vortrag erzählte er uns von den Kinderkrankheiten seiner Seite und wie er diese Probleme gelöst hat. Auch das man sich drei, vier Mal für Google News registrieren muss, bevor man akzeptiert wird.

Für mich war das mit einer der spannendsten Vorträge, da er aufzeigte, wie aus einer kleinen Idee eine Domain wurde, die sich als Ziel für 2020 10 Millionen Pageviews setzt. Dabei betreibt Johannes das Ganze nebenbei. Leider konnte in der Kürze der Zeit nicht das volle Potential des Vortrags ausgeschöpft werden, trotzdem war es spannend zu sehen, was man mit dem nötigen Know-How und einer Portion Leidenschaft erreichen kann.

GET SH!T DONE – sofort umsetzbare SEO-Tipps im Wert von 36 Tsd. Euro – René Dhemant

SEO-Berater René Dhemant lieferte in seinem Vortrag einen Überblick über SEO-Tipps, die sofort umzusetzen sind.

SEO Tipps von René Dhemant

SEO Tipps von René Dhemant

SEO-Traffic sauber messen

Es ist wichtig, die Tools, die ihr verwendet, richtig zu verstehen. So „versteckt“ Google Analytics beispielsweise weiteren organischen Traffic unter dem Begriff „referral“. Darunter fallen Suchmaschinen wie web.de, gmx.de, t-online.de, DuckDuckGo oder Ecosia. Durch einen Filter lässt sich der organische Traffic aber leicht ändern, sodass Analytics auch diese zum organischen dazu zählt und dieser somit auch höher ist. Mehr dazu findet ihr im Artikel „Organische Suchmaschinen richtig auswerten“.

„FAQ-Page“ Markup nach schema.org

Zeichnet die Inhalte der FAQ-Page mit einem Markup für Google aus und erhöht so die Chance, in den SERPs mit einem Rich-Snippet ausgespielt zu werden. Dieser zusätzliche Platz sorgt für mehr Aufmerksamkeit bei den Nutzern.

Content für „FAQ-Page“ finden

Existiert noch keine FAQ-Page auf der Website, so solltet ihr nach Content dafür suchen. Hilfreich dafür können die „Nutzer fragen auch“-Boxen sein, die bei einigen Suchanfragen ausgespielt werden.

„Nutzer fragen auch“-Box, die in den SERPs auf die Frage „Was ist SEO?“ ausgespielt wurde

„Nutzer fragen auch“-Box, die in den SERPs auf die Frage „Was ist SEO?“ ausgespielt wurde

Lazy Loading

Setzt Lazy Loading ein, wodurch Bilder erst geladen werden, wenn der Nutzer an diese Stelle scrollt.

F*CK Java-Script

René rät dazu, möglichst auf Java Script zu verzichten und stattdessen CSS 3 zu verwenden. Die meisten Seiten sind auch ohne Java Script normal bedienbar, teilweise lassen sich Elemente wie die Navigation oder ein Akkordeon jedoch nicht anklicken und bedienen.

Setzt ihr Lazy Loading ein und verzichtet auf Java-Script, kann dies zu einer besseren Pagespeed eurer Seite führen.

Lesen

Der sechste Tipp beinhaltete Informationen zum „Information Retrieval“, welches ein Verfahren darstellt, wodurch Informationen aufgefunden werden, die so gespeichert sind, dass sie unter unterschiedlichen Aspekten gesucht werden können. Hierzu verweist René auf das kostenlose PDF-Dokument „Search Engines Information Retrieval in Practice“, das sich damit auseinandersetzt.

Synonyme

Bei der Erstellung von Content und dem Festlegen auf Keywords ist es wichtig, sich zu fragen, wonach der Nutzer sucht. Als Beispiel nannte René hier den „Waschvollautomaten“, den die meisten Nutzer aber wohl eher unter dem Keyword „Waschmaschine“ suchen. Nicht immer ist der branchenrichtige Begriff die beste Wahl. Verwendet ebenso nicht nur den Begriff mit dem höchsten Suchvolumen. Es ist wichtig, Variationen in eure Texte zu bringen und Synonyme zu verwenden.

Finding co-occurring terms

Co-occuring terms lassen sich beispielsweise durch die TF-IDF Funktion von termlabs aufdecken. Bei der Eingabe eines Keywords liefert euch das Tool weitere Keywords, die häufig damit in Verbindung stehen.

Sucht man beispielsweise nach „Skiurlaub“, so erhält man u. a. folgende weitere Keywords:

Auszug aus termlabs.io

Auszug aus termlabs.io

Schriftgröße

Noch immer haben nicht alle Websites eine vernünftige und für den Nutzer angenehm zu lesende Schriftgröße. Dabei führe diese zu einer besseren Nutzer-Experience und somit auch dazu, dass dieser sich länger auf der Seite aufhält. Die Font-Size sollte deshalb mindestens 16 Pixel – besser sogar 18 oder mehr – betragen. Sorgt für einen guten Kontrast zwischen Schriftfarbe und Hintergrund sowie einen ausreichenden Zeilenabstand. Dies erleichtert das Lesen für den Nutzer.

UX Playbooks von Google

Die User Experience (UX) gilt als ein wichtiger Ranking Faktor für Google. Die UX Playbooks von Google veranschaulichen, was Google darüber denkt und was wichtig ist. Unterteilt in verschiedene Branchen, könnt ihr euch diese so leicht als eine Hilfe nehmen:

Maximum Pagespeed – 100 % bei Google Lighthouse Audits – Tobias Schwarz

Der Lighthouse Audit von Google ist ein weit genutztes Tool um den Pagespeed einer Seite zu untersuchen und zu optimieren. Doch den Score von 100 % zu erreichen ist äußerst schwer. Tobias hat es aber geschafft.

Ein wichtiger Faktor dafür ist unter anderem ein CDN und die Google Cloudflare zu nutzen. Klar steht das Google Tool auf Dienste aus dem eigenen Haus. Aber auch das Verwenden von http/2, Prefetching und Prerendering sind wesentliche Dinge, um den Score zu optimieren. Die tollste Erkenntnis aus dem Vortrag war aber die Vorstellung von der Google Software Brotli.

Brotli ist ein Datenkompressionsalgorithmus, der das Markup noch kleiner macht als es derzeit mit Gzip und Co. möglich ist. Insbesondere für statische Ressourcen, was für das Erreichen der 100 % ebenfalls essentiell ist, lohnt sich die Software.

Wer abschließend das Werk vollbracht und die 100 % erreicht hat, wird auch mit einer besonderen Darstellung und einem Feuerwerk belohnt. Bedenkt jedoch, nicht immer sind alle Maßnahmen und Vorschläge von Google Lighthouse sinnvoll und praktikabel für eure Seite. Pagespeed ist auch nur ein Rankingfaktor von vielen. Daher sollte eure Seite natürlich einen guten Pagespeed aufweisen. Perfekt muss er jedoch nicht sein.

Google Lighthouse Audit

Google Lighthouse Audit

SEO im Health-Sektor – moderne Materialschlacht oder Hirn & Strategie? – Jan Brakebusch

Veränderungen und Google-Updates hatten in den letzten Monaten teils starke Auswirkungen auf den Health-Sektor. Wie diese aussahen, führte der Online Marketing Berater Jan Brakebusch in seinem Vortrag zu SEO im Health-Sektor aus.

Insbesondere in der Sichtbarkeit mussten einige Seiten einstecken. Positiv fallen meist die Seiten auf, die Content mit Expertenstatus liefern. Hierzu zählen auch hochwertige Quellen und Nachweise.

Ebenso können Backlinks, insbesondere wenn sie von einer staatlichen Seite kommen, zu besseren Rankings führen, da sie Trust vermitteln. Dieser zusammen mit einer guten Brand sind laut Jan nahezu unschlagbar, sodass diese Seiten von Updates nicht so stark getroffen werden.

Negativ dagegen sind purer Sales und Affiliate. Seiten mit übermäßiger Werbung, vielen Produkteinblendungen und Affiliate-Links zählen zu den Verlierern, da Google hier erkennt, dass es hier in erster Linie darum geht, Geld zu verdienen und nicht medizinischen Trust zu vermitteln, bei dem der Nutzer im Vordergrund steht.

Es kann hilfreich für euch sein, alle Google-Tools wie MyBusiness, Bewertungen und Bilder zu nutzen. Seiten, die so verfahren, performen meist besser, da es auch mehr Daten gibt und sie somit sichtbarer sind.

Als weiteren Tipp gab der Online Marketing Experte neue Wege im Content einzuschlagen. Das kann auch bedeuten, neue Kanäle auszuprobieren und etwa auf YouTube aktiv zu sein. Probiert und testet also auch neue Dinge. Haltet zudem nicht zu sehr daran fest, welche Auswirkungen, das letzte Update hatte, sondern überlegt, was das nächste bringen kann und welche Veränderungen es auch in den SERPs gibt.

JavaScript & SEO – eine ungewöhnliche Freundschaft – Martin Splitt

Auch Google Developer Martin Splitt war auf dem SEO-Day 2019 und erzählte uns etwas über JavaScript im SEO.

Oft wird JavaScript noch kritisch von uns SEOs betrachtet, da wir Google in erster Linie noch als reine Textsuchmaschine verstehen. Für Fehler beim Crawling wird regelmäßig JavaScript als Schuldiger ausgemacht, obwohl das Problem meist woanders liegt. Grundsätzlich ist JavaScript ein Werkzeug und somit nur für bestimmte Dinge gut. Nicht alles sollte mit JavaScript ausgespielt werden. Gänzlich drauf verzichten sollte man aber auch nicht.

Eine wichtige Erkenntnis für uns war, dass der Google Bot-Browser Anfragen, wie zum Beispiel nach dem Standort, grundsätzlich ablehnt.

Standortabfrage

Standortabfrage

Bedenkt das bei der Konstruktion eurer Seite. Solltet ihr unterschiedlichen Content für verschiedene Standorte ausspielen wollen, braucht der Google Crawler einen Fallback, den er crawlen kann, wenn die Standort-Wiedergabe abgelehnt wird. Ansonsten kann es sein, dass eine leere Seite gecrawlt und somit bewertet wird.

Erfreulich war auch zu hören, dass der Google JavaScript Crawler mittlerweile auf der neusten Chromium Engine Version 74 läuft.

Keyword-Kannibalismus auflösen – ein Diätplan für stabilere Rankings – Leonard Metzner

Der SEO-Freelancer Leonard Metzner beschäftigte sich in seinem Vortrag mit Keyword-Kannibalismus. Dieser liegt im SEO dann vor, wenn sich mehrere Seiten einer Domain auf das gleiche Thema bzw. Keyword konzentrieren.

Häufig passieren diese Überschneidungen dadurch, dass beim Erstellen von neuem Content und neuen Seiten nicht untersucht wird, ob dieses Thema bereits existiert. Hinweise auf Keyword-Kannibalismus können dann für euch sein:

  • Mehrere Rankings zu einem Keyword, insbesondere auf den Seiten 1 bis 3
  • Dauerhafte Schwankungen von mehreren Positionen
  • Ranking mit wechselnder URL

Negative Folgen des Kannibalismus sind dementsprechend instabile Rankings und Content-Lücken.

Metzner unterscheidet zwischen 4 Keyword-Arten (Suchintentionen):

  1. Do (kommerziell)
  2. Know (informativ)
  3. Website
  4. Visit-in-person

Ihr müsst also überlegen, auf welche Art von Keyword ihr optimieren möchtet. Dadurch, dass es nicht immer eine eindeutige Zuordnung gibt, spricht er aber auch von einer Intent-Verschiebung und definiert die 5. Keyword-Art „Multiple User Intent“. Nicht immer lässt sich eine Suchanfrage genau einer der Arten zuordnen, weil sie nicht immer rein kommerziell oder rein informativ sein muss. Als Beispiel nimmt er die Suchanfrage „jeans hose“, bei der sowohl Ergebnisse zu Herren als auch zu Damen erscheinen, da nicht klar ist, wonach genau der Nutzer sucht.

Metzner macht darauf aufmerksam, dass es sich nicht immer um Kannibalisierung handeln muss. Wenn zwei Seiten derselben Domain in Top 10 SERPs stehen, spricht er stattdessen von einem wertvollen Mehrfach-Ranking. Voraussetzung hierfür sind aber stabile Rankings sowie mindestens ein Top 3 Ranking einer URL.

Ziel ist es, Kannibalisierung im Vorfeld verhindern. Themenüberschneidungen gibt es dabei immer und so lässt es sich auch nicht vermeiden, dass Keywords aus ähnlichen Themenbereichen zusammen in den Top 10 ranken. Sie können das gleiche Thema behandeln, sollten jedoch einen eigenen Teilaspekt abdecken.

RULE YOUR LINKJUICE – Ranking Boost durch gezielte Linkjuice Steuerung – René Seidel

René Seidel von Beyond Media GmbH war kurzfristig für seinen erkrankten Kollegen Dominik Thoma eingesprungen – worunter die Qualität des Vortrags aber keineswegs litt.

Er stellte ein Verfahren zur Priorisierung und Verteilung von Linkjuice vor, welches sich positiv auf die Rankings auswirkt. Dieses veranschaulichte er anhand eines durchgeführten Kunden-Cases.

Analysiert zunächst die interne Linkstruktur und legt fest, welche Seite welche Priorität auf der Domain hat. Welche Seiten sind besonders wichtig und sollen dementsprechend den meisten Linkjuice bekommen? Beschränkt euch dabei lediglich auf Content-Verlinkungen, da diese eine höhere Relevanz hat.

Dahinter steckt die Idee einer Neuverteilung des Linkjuice. Korrigiert zum einen fehlerhafte Links wie Broken Links oder abweichende Ziel-URLs. Fügt zum anderen neue Links hinzu: Dies beinhaltet sowohl neue Keyword-Terme als auch neue Themenfelder.

Durch das Anpassen der internen Verlinkung könnt ihr den Linkjuice auf den Seiten steuern und so der eigenen Priorisierung anpassen.

Wettbewerbsanalysen im SEO: Alles im Blick – Matthäus Michalik

Matthäus Michalik, Geschäftsführer von Claneo GmbH, stellte in seinem Vortrag Wettbewerbsanalysen im SEO vor.

Diese zielen darauf ab, folgende Fragen zu beantworten:

  • Wer sind meine aktuellen Wettbewerber?
  • Auf welche Keywords sollte ich optimieren?
  • Welche Themen sollte ich abdecken?
  • Woher bekomme ich relevante Verlinkung?
  • Was brauche ich, um die Wettbewerber zu schlagen?

Um diese Analysen effektiv durchführen zu können, ist das richtige Tool-Set entscheidend, das sich aus Tool-Suiten wie Sistrix oder Searchmetrics, Spezial-Tools wie ahrefs sowie einem Crawler z. B. Screamingfrog und Datenverarbeitung wie Excel zusammensetzt.

Bestimmt zunächst, wer eure Wettbewerber sind. Darüber können euch Tools wie Sistrix Auskunft geben. Aber Achtung: Nicht immer sind die direkten Wettbewerber, die ihr kennt, auch diejenigen in der Suche. Die tatsächlichen Wettbewerber lassen sich durch die Definition eines dedizierten Keyword-Sets und der Erhebung von Rankings bestimmen.

Zusammenfassende Folie aus Matthäus Michaliks Vortrag zu Wettbewerberanalysen

Zusammenfassende Folie aus Matthäus Michaliks Vortrag zu Wettbewerberanalysen

Nutzt eure Wettbewerber zur Optimierung eurer eigenen Website, um beispielsweise festzulegen, welche Keywords wichtig sind. Schaut euch die Seite der Wettbewerber an, untersucht die Sitemap, crawlt und kategorisiert Seiten und Unterseiten. Deckt somit neue Themenbereiche für euch auf.

Orientiert euch aber nicht immer an den Besten eurer Branche, sondern den direkten Wettbewerbern eurer Industrie. Zielt hier darauf ab, der Beste und Schnellste von diesen zu werden.

Nutzt eure neuen Erkenntnisse über die Wettbewerber und monitort diese regelmäßig. So könnt ihr feststellen, wenn diese neue Themen hinzufügen und mit euren abgleichen.

Fazit

Uns hat der SEO-Day 2019 sehr gut gefallen und wir konnten viele interessante Vorträge hören. Er lieferte viele Insights und neue Erkenntnisse, durch die wir unsere Arbeit und das Doing weiter verbessern können. Nicht nur für uns als Agentur, sondern auch für Unternehmen mit Inhouse-SEO stellte der SEO-Day eine spannende Veranstaltung dar.

Die rund 900 Teilnehmer verteilten sich gut auf die einzelnen Vorträge, sodass es meist nicht zu überlaufen war. Durch die enge Taktung der Vorträge, zwischen denen in der Regel nur eine Pause von 10 Minuten lag, kam es leider jedoch häufig am Ende zu Unruhen. Speaker mussten die letzten Folien häufig überspringen und überfliegen oder wurden von den Moderatoren unterbrochen. Endeten Vorträge früher, so liefen die Teilnehmer zu einer neuen Session. Dadurch, dass es keine abgeschlossenen Räume gab, wurden andere Vorträge durch die dadurch entstandene Geräuschkulisse gestört.

Dennoch sind wir sehr zufrieden mit dem SEO-Day und schon gespannt, was der SEO-Day 2020 für uns bereithält!

Weitere Recaps:

Infos zu weiteren Online Marketing Konferenzen

Tags: Recaps SEO
Share This