Voice Search, Amazon SEO, technisches SEO, Content und vieles mehr – der SEO Day 2018 hielt viele abwechslungsreiche Themen für die rund 900 Besucher bereit. Die SEO Konferenz fand im RheinEnergieStadion in Köln statt und konnte sich, was das fachliche Niveau betrifft, noch einmal steigern. Geballtes SEO Wissen in über 30 Vorträgen in 3 parallelen Slots erwartete die Teilnehmer. Judith, Saskia, Mareike und Maxi waren vor Ort mit dabei.

Top Alexa Skills und was wir über Voice Search lernen können

Der SEO-Day startete im Onsite/Offsite Raum mit einem Vortrag von Gero Wenderholm zum Thema Voice Search. Der erfahrene SEO-Spezialist Gero zeigte auf unterhaltsame Weise, welch großes Potenzial das Thema Voice Search für die Zukunft bietet. Noch wird die Sprachsuche auch unter Marketern kritisch beäugt, zu neu und ungewohnt ist die Nutzung – Zumindest für Erwachsene. Kinder und Jugendliche gehen bereits heute viel natürlicher mit den Sprachassistenten um. Und vor einigen Jahren hat schließlich auch niemand daran geglaubt, dass das Handy sich zum beliebtesten Device für Online-Shopping entwickelt.

Am Beispiel von Amazons Alexa stellt Gero die Vor -und Nachteile von Voice Search für SEO vor. Ein Problem: Häufig beantworten die Sprachassistenten Fragen direkt, es findet also kein Webseitenbesuch statt und oft wird nicht mal eine Google-Suche ausgelöst. In Analytics können diese Suchanfragen zum jetzigen Zeitpunkt also nur selten abgebildet werden. Eventuell scheint es sogar so, als würde Traffic verloren gehen, weil er sich in Richtung Voice Search verschoben hat – Die fehlende Messbarkeit ist ein Grund warum Unternehmen dem Thema häufig noch kritisch gegenüberstehen.

Alexa arbeitet jedoch mit sogenannten „Skills“, also kleinen Apps für den Sprachassistenten, die es dem Nutzer erleichtern, konkrete Informationen zu einem Thema abzufragen. Unternehmen können mit einem Alexa-Skill bestehende Webseiteninhalte schnell und relativ simpel verfügbar machen und so zum Beispiel einen vollautomatisiertes FAQ bereitstellen.

Der Vorteil: Dein Skill liefert dir wertvolle Daten! Über den Skill erhältst du eine komplette Aufzeichnung der Kommunikation zwischen der App und dem Nutzer, ähnlich einem Gesprächsprotokoll. So kannst du genau nachverfolgen, welche Fragen gestellt, welche Antworten gegeben wurden und an welcher Stelle die Nutzer ausgestiegen sind. Anhand dieser wertvollen Daten kann dann auch die Webseite besser, in Hinblick auf die tatsächlichen Nutzerbedürfnisse, optimiert werden.

Geros Fazit: Es lohnt sich auf jeden Fall jetzt schon einzusteigen, denn zum jetzigen Zeitpunkt verzeihen die Nutzer noch großzügiger Fehler und Startprobleme.

JavaScript SEO: Unerlässliche Optimierungen für Frameworks wie Angular, React, Vue.js und Konsorten

SEO Berater René Dhemant ging in seinem Vortrag auf das Thema JavaScript und SEO ein. Reine HTML-Websites sind einfach zu crawlen. Wird JavaScript verwendet, beeinträchtigt dies häufig die Crawling-Geschwindigkeit oder führt dazu, dass eine Website gar nicht mehr gecrawlt werden kann. Damit Google auch Webseiten crawlt, die JavaScript verwenden, sollten Optimierungen am Framework sowie dem verwendeten JavaScript Code selbst vorgenommen werden.

Grundsätzlich hat Google kein Problem damit, auch JavaScript basierte Websites zu indexieren. Für das Crawling benutzt Google allerdings eine Technologie, die auf dem Chrome Webbrowser Version 41 beruht. Dieser Browser ist schon über drei Jahre alt und kann daher einige Features nicht richtig interpretieren, die der aktuelle Chrome bereits darstellen kann. Welche das genau sind, könnt ihr euch hier einsehen. Um dieses Problem zu umgehen, könnt ihr einen Polyfill verwenden. Dabei handelt es sich um einen Code-Baustein, der in älteren Browsern neuere Funktionen, die diese nicht unterstützen, nachrüstet.

René Dhemant und Maximiliane Mehnert auf dem SEO Day 2018

René Dhemant und Maximiliane Mehnert auf dem SEO Day 2018

Was ihr außerdem wissen müsst: GoogleBot indexiert zunächst kein JavaScript, sondern crawlt nur die HTML-Website. JavaScript wird vom Indexer Caffeine verarbeitet und indexiert. Allerdings lässt dieser sich für die Verarbeitung von JavaScript oftmals sehr viel Zeit. Bis JavaScript Inhalte indexiert werden, kann es daher bis zu einem Monat länger dauern als bei reinem HTML. Inhalte, die für SEO wichtig sind wie Seitentitel, Meta-Description etc. sollten daher möglichst nicht per JavaScript eingefügt werden! Es gibt auch Fälle, in denen das JavaScript zu komplex, zu langsam oder fehlerhaft ist und Google es gar nicht rendern kann. Inhalte sind dann für Google nicht sichtbar und können nicht indexiert werden.

Umgeht dieses Problem, indem ihr Server Side Rendering (auch Pre-Rendering genannt) nutzt! Dabei wird der Inhalt eurer Website schon auf eurem Server gerendert und so an den Crawler übergeben, als handle es sich dabei um reines HTML. Google muss euer JavaScript also nicht mehr selbst rendern. Ein Tool, dass ihr dafür verwenden könnt und welches auch von Google empfohlen wird, ist Puppeteer. Ihr habt auch die Möglichkeit externe Service-Anbieter dafür zu nutzen. Der Nachteil dabei besteht aber darin, dass diese relativ teuer werden können und wenn der Server des Anbieters nicht richtig funktioniert, funktioniert auch das Crawling auf eurer Website nicht.

Welches JavaScript Framework ihr wählt, ist eigentlich egal. Alle haben ihre Vor- und Nachteile. Wichtig ist, dass ihr eine Entscheidung trefft und dann damit arbeitet.

Fazit: Überlasst das Rendern von JavaScript NICHT Google (kein Client Side Rendering) sondern setzt langfristig auf SSR (Server Side Redendering).

Die Slides von René stehen hier zum Download bereit.

OnPage SEO-Audit – Was sollte wann betrachtet werden

Bei Jens Fauldraths Vortrag stand das Thema OnPage SEO-Audit im Fokus. Der Audit ist der Stand der Dinge im Abgleich mit dem, wie es sein sollte. Er ging darauf ein, dass ein Tool allein keinen Audit durchführen kann, da Tools lediglich Ergebnisse liefern, ein Audit aber immer Problemlösungen und Ursachen unter Berücksichtigung der Ressourcen enthält.

Beim SEO-Audit nutzt Fauldrath folgende Kennzahlen: Leistungswerte aus z.B. Google Analytics, die Suchanfragen & Impressionen/ Klicks aus der Google Search Console, dann Informationen zur Nutzerführung. Ein kurzer Content Audit sowie eine Wettbewerbsanalyse sind außerdem enthalten. Dazu wird auch ein Pagespeed Check durchgeführt und insgesamt das Verhältnis der verschiedenen URLs auf der Website begutachtet. Aus diesen Informationen werden dann Fehler- und Optimierungsansätze gebildet. Wichtig ist, dass Fehlerklassen anhand der Seitentypen bzw. der Seitenstruktur gebildet werden. So können wiederkehrende Fehler identifiziert und einfach behoben werden.

Im zweiten Teil des Vortrags führte Jens Fauldrath dieses Vorgehen exemplarisch an einem Online Shop vor.

7 wirkungsvolle Online-Marketing Hebel für Online Shops

Julian Dziki, Geschäftsführer von Seokratie, stellte in seiner Session einfache Maßnahmen vor, mit denen man die Performance eines Online Shops verbessern kann. Viele dieser Maßnahmen lassen sich aber auch auf andere Websites anwenden. Besonders gut hat mir gefallen, dass er auch immer angegeben hat, wie lange es dauert, bis eine Maßnahme greift.

1. Content dezimieren

URLs, die nicht aufgerufen werden, Inhalte, die nicht mehr aktuell sind, ähnliche und doppelte Inhalte blähen Websites unnötig auf. Google muss unnötig Ressourcen aufwenden, um diese Inhalte zu crawlen. Deshalb ist es sinnvoll, regelmäßig genau diese Inhalte auszusortieren. Google mag Websites, die nur relevante Inhalte aufweisen und belohnt sie in der Regel mit besseren Rankings.

Besonders Doppelrankings einzelner Keywords (Keyword-Kannibalisierung) sollte vermieden werden. Erstellt euch dafür eine Keyword-Map und prüft regelmäßig, ob die zugeordneten Seiten mit den richtigen Keywords ranken. Falls es Überschneidungen gibt, solltet ihr prüfen, ob sich die Unterseiten nicht zusammenlegen lassen.

Bis sich die Auswirkungen dieser Maßnahme bemerkbar machen, dauert es zwischen einer Woche und bis zu drei Monaten.

2. Snippets optimieren

Die Snippet Optimierung gehört zu den absoluten SEO Basics, wird auf vielen Websites aber immer noch sträflich vernachlässigt. Dabei führt gerade diese Maßnahme häufig sehr schnell zum Erfolg, schon nach drei Tagen machen sich manchmal die ersten Auswirkungen bemerkbar. Bei großen Websites kann dies allerdings auch bis zu drei Monaten dauern. Wie ihr Snippets richtig optimiert, erfahrt ihr in unserem Artikel zur Snippet Optimierung.

3. Content Marketing

Content Marketing in Form eines Unternehmensmagazins oder eines Blogs braucht zwar etwas Zeit, bis es Wirkung zeigt, aber dann kann man dadurch sehr viel Traffic generieren.

4. Conversion Optimierung

Mit ein paar kleinen Kniffen könnt ihr anstatt mehr Traffic auf eure Website zu holen, auch einfach die Conversion Rate der vorhandenen Nutzer erhöhen. Folgende Maßnahme können eure Conversion Rate erhöhen:

  • Kostenlosen Versand anbieten
  • Bei Kontaktformularen nur wenige Informationen abfragen
  • Kunden auch als Gast bestellen lassen

Die Maßnahmen zeigen sofort ihre Wirkung.

5. Video Marketing

Mit Video-Marketing könnt ihr die Reichweite eures Online Shops auf andere Plattformen ausweiten. Zudem haben Videos und Video Ads auf Social Media Kanälen mehr Reichweite. Allerdings dauert es einige Monate, bis sich diese Maßnahme bemerkbar macht.

6. Vertrauen durch USPs schaffen

Überlegt euch, welche Vorteile der Nutzer dadurch erhält, dass er bei euch bestellt und kommuniziert diese offen auf eurer Website. Welchen Service bietet ihr an, den eure Konkurrenz nicht hat? Am besten fragt ihr hierzu auch mal eure Stammkunden. Von dieser Maßnahme profitiert ihr praktisch sofort.

7. WhatsApp nutzen

Viele Unternehmen versenden E-Mail-Newsletter, doch nur wenige nutzen bisher WhatsApp für die Kundenkommunikation. Dabei haben WhatsApp Nachrichten eine viel höhere Öffnungsrate. Und Kunden geben direkte Antworten über den Instant Messenger Dienst. Auf E-Mail-Newsletter antwortet in der Regel niemand.

8 Neue Denkanstöße für ein erfolgreiches SEO

Marco Janck von Sumago verriet seinen Zuhörern 8 neue Denkansätze, um der SEO-Strategie noch einmal einen Schub zu geben.

  1. Gute Inhalte: Wichtig beim Content ist die Kombination aus schnellen Antworten und umfassenden Informationen aus verschiedenen Perspektiven, zusammengefasst auf einer holistischen Landingpage (HLP). Sein Credo: Mindestens 5000 Wörter oder 500 Wörter mehr als der stärkste Mitbewerber!
  2. Pillar Pages und Content Hubs als Cluster der Website
  3. High Performance Format ausbauen: Hier steckt der Ansatz hinter, dass bereits erfolgreiche Bereiche der Webseite auf neue Seiten abfärben.
  4. Neue Bilder SEO: Jancks Ansatz geht davon aus, dass gut optimierte Bilder einen positiven Einfluss auf das „Hauptranking“ einer Seite haben.
  5. YouTube Analytics Daten auf Website übertragen
  6. Podcast bzw. Blogcast: Hier empfiehlt Marco Janck Inhalte z.B. aus dem Blog auch als Audio-Datei den Nutzern zur Verfügung zu stellen.
  7. Gemischte Inhalte: Auf einer guten HLP sollten verschiedene Medienformaten wie Video, Bilder, Podcasts usw. ergänzt werden, um die HLP zu erweitern.
  8. Influencer Marketing

Kostenlose SEO-Tools

Stephan Czysch stellte in seinem Vortrag einige kostenlose SEO-Tools vor. Hier war für alle Bereiche der Suchmaschinenoptimierung ein passendes Tool dabei.

Keywords & Content

  • Answer the Public
  • Ubersuggest
  • Keywords everywhere
  • Sistrix SERP Generator

OnPage

  • Crawler BeamUsUp
  • Xenu Crawler
  • Google Structured Data Markup Helper
  • Google Data Highlighter für Google Search Console
  • Google mobile friendly Test
Data Highlighter in der Google Search Console

Data Highlighter in der Google Search Console

Monitoring

  • SimilarWeb
  • SEMrush Sensor
  • Trust Agents OnPage Monitoring Tool
  • Rank Tank

Webmaster Tool

  • Google Search Console
  • Search Analytics for Sheets
  • Bing Webmastertools

OffPage

  • Open Link Profiler
  • Simple SERP Scraper (als Download)
  • Google erweiterte Suche
  • Google Alert
Googles erweiterte Suche

Googles erweiterte Suche

Braucht Google deine Webseite? – Johannes Beus

Johannes Beus, Gründer und Geschäftsführer von SISTRIX warf in seinem Vortrag einen Blick auf den Status Quo und die Zukunft von SEO und fragte provokant „Braucht Google deine Webseite?“.

Die Frage stellt sich, da Google Fragen zunehmend selbst beantwortet und der Nutzer kaum mehr organische Suchergebnisse anklicken muss, bzw. erst gar nicht ausgespielt bekommt. Google möchte die Nutzer idealerweise komplett im eigenen Ökosystem halten. Doch wo besteht dann noch Potenzial für organische Rankings, wo lohnt es sich für SEOs überhaupt noch zu optimieren?

Anhand von Punkt 12.7. „Understanding User Intent“ von Googles General Guidelines untersucht Johannes, an welchen Stellen sich eine Optimierung weiterhin lohnt.

Auszug Google General Guidelines

Auszug Google General Guidelines

Visit-in-Person

Visit-in-Person ist eine klassische lokale Suchanfrage (z.B. nach Restaurants, lokalen Geschäften oder Dienstleistungen), zu der von Google zumeist ein Google Maps Suchergebnis ausgespielt wird. 15,4% der untersuchten Keywords beziehen sich auf lokale Suchen, insgesamt machen lokale Suchanfragen 13,8% des Traffics aus. Zahl der Keywords und zu erwartender Traffic sind also relativ deckungsgleich.

Optimierungspotenzial: Kaum Chancen für Drittanbieter/SEO, daher sollte Maps Eintrag vorhanden und Google My Business Profil gepflegt sein.

Website

Was Google „Website query“ nennt, ist auch unter dem Begriff „navigational“ bekannt. Der Nutzer sucht hier eine spezifische Webseite, dessen (Brand-) Name ihm bereits bekannt ist.

Navigationale Keywords machten 8,7% der untersuchten Keywords aus, vereinten jedoch 33,2% des Traffics auf sich. Das Suchvolumen ist hier also besonders hoch.

Optimierungspotenzial: Hier besteht weiterhin Optimierungspotenzial zur Steigerung der Brand-Awareness

Do

Mit „Do queries“ beschreibt Google transaktionale Suchanfragen, denen ein eindeutiges Kaufinteresse (buying intent) zugrunde liegt, z.B. „iphone kaufen“ oder „kreditkarte beantragen“. Zu diesen Suchanfragen werden in der Regel viele Werbeanzeigen in den SERPs ausgespielt, da transaktionale Keywords der klassische Anwendungsfall für Google Ads sind. 27,7% der berücksichtigten Keywords waren transaktionaler Art, sie vereinten jedoch nur 15,7% des Traffics auf sich. Hier scheint es also eine starke Differenz zwischen Angebot und Nachfrage zu geben – Ein Problem für Google und die Effizienz der geschalteten Werbeanzeigen.

Optimierungspotenzial: Reines SEA-Thema, kaum Chancen auf relevanten Traffic an Ads vorbei.

Know

„Know queries“ sind auch als „informational“ bekannt, sind also ausgerichtet auf die Suche nach bestimmten Informationen. Dabei wird zwischen zwei verschiedenen Arten der SERPs entschieden.

Bei „Know“ werden zumeist drei organische Treffer auf den Top-Positionen angezeigt (z.B. Wikipedia). Bei „Know Simple“ spielt Google die Antwort direkt im Knowledge Panel aus, sodass der Nutzer kein Suchergebnis mehr klicken muss.

Bei informationalen Suchanfragen vereinen 36,5% der Keywords 62,2% des Traffics auf sich. Informationale Suchanfragen sind also weiterhin die häufigsten Suchen.

Optimierungspotenzial:

Know Simple: Kaum Optimierungsmöglichkeiten.

Know: Größtes Optimierungspotenzial aller Bereiche, durch Bereitstellen der gesuchten Informationen.

Fazit:

Das Optimieren auf transaktionale Keywords macht kaum noch Sinn, die Konkurrenz zu Google Ads ist zu groß. Konzentriert euch in euren Optimierungsbemühungen auf navigationale und informationale Keywords, indem ihr eure Brand stärkt und bei informativem Content in die Tiefe geht.

100 Tage DSGVO: Was uns das neue Datenschutzrecht (außer Abmahnungen) gebracht hat und was Webseiten Betreiber jetzt beachten müssen!

Datenschutzrechtexperte Christian Solmecke gab einen unterhaltsamen Einblick in die Praxis der ersten 100 Tage mit der Datenschutz-Grundverordnung. Seit Inkrafttreten der DSGVO im Mai 2018 hagelte es vor allem Abmahnungen. Die Gründe für Abmahnungen reichten von der fehlenden/fehlerhaften Datenschutzerklärung über fehlende SSL-Verschlüsselung bei Formularen hin zu der Verwendung von Google Fonts oder des Google Tag Managers ohne darüber aufzuklären.

Vielen kleinen Webseitenbetreibern ist nicht klar, dass sie über all diese verwendeten (Google-) Produkte aufklären müssen. Gerade Google Fonts gelten als „das trojanische Pferd“, da die Schriftarten von Google zwar gratis zur Verfügung gestellt werden, gleichzeitig durch sie aber Daten zu Google, und damit ins außereuropäische Ausland, übertragen werden.

Abmahner suchen sich gezielt diese Schlupflöcher und mahnen fast willkürlich vor allem Kleinunternehmer ab.

Doch nicht jede Abmahnung ist auch rechtens. So müssen Abmahnungen konkret formuliert sein. Ein Schreiben darf also nicht einfach einen Datenschutzverstoß abmahnen, sondern muss diesen auch konkret definieren. Zudem dürfen nur unmittelbare Wettbewerber, die von dem Datenschutzverstoß einen Wettbewerbs-Nachteil erwarten können, abmahnen. Diese Voraussetzungen können zum jetzigen Zeitpunkt allerdings noch recht weit ausgelegt werden, sodass z.B. eine Firma mit dem Zusatz im Namen „Handel von Gütern aller Art“ quasi jeden abmahnen könnte.

Hierzu sollen die Gesetze in naher Zukunft verschärft werden, damit ein echtes Wettbewerbsinteresse nachgewiesen werden muss. Diese Maßnahme soll die massenhaften Abmahnungen eindämmen.

In den vergangenen 100 Tagen gab es zudem ein bedeutendes Urteil zu Facebook-Fanpages. Dieses Verfahren beschäftigte sich mit der Frage, wer für die Inhalte einer Facebook-Fanpage verantwortlich ist – Facebook oder das Unternehmen, welches die Fanpage pflegt? Das Gericht kam zu dem Entschluss, dass es sich hier um eine Partnerschaft mit einem Technologie-Dienstleister handelt und daher nicht allein Facebook für die Inhalte verantwortlich gemacht werden kann, sondern dass der jeweilige Fanpage-Betreiber ebenfalls Mitverantwortung trägt. Um die Wogen zu glätten und das massenhafte Schließen von Fanpages zu verhindern, bietet Facebook betroffenen Betreiber an, Probleme für sie zu klären. Hierzu sollten sich betroffene Unternehmen direkt an Facebook wenden.

Fazit: Die ersten 100 Tage DSGVO haben vor allem für viel Verwirrung und eine Abmahnwelle gesorgt. Die Voraussetzungen für gerechtfertigte Abmahnungen zu verschärfen scheint hier ein geeigneter Weg, um dieses Problem einzudämmen.

Google Q/A

Spannend erwartet wurde auch in diesem Jahr wieder das Q/A mit Googles John Müller, der diesmal leider nicht persönlich anwesend sein konnte und daher per Google Hangouts aus dem Nähkästchen plauderte. John hielt im Rahmen des Q/A einen spannenden Kurzvortrag zum Thema war „Technical SEO 2019“ und verriet Details zu einigen Trend-Themen.

Mobile First Index:

  • Fehlen Texte, Meta-Daten, Alt-Tags oder strukturierte Daten kann es zu Problemen bei der Indexierung kommen
  • Neue Domains erscheinen momentan noch zuerst im Desktop-Index, bevor sie Mobile First indexiert werden.

Canonicalisierung:

  • Hreflang, Crawl-Budget und robots.txt sind auch weiterhin gute Gründe, Seiten zu canonicalisieren.
  • Canoncials machen Sinn, da weniger gecrawlte URLs ein positives Signal sind und einzelne Seiten stärken kann.
  • Müller betont explizit, dass Duplicate Content keine Penalty nach sich zieht.
  • Canonicalisiert werden kann mit Hilfe von Redirects, rel=canonical, internen & externen Links, Sitemaps, hreflang, https und Parameter-Handling.
  • Wichtig sind klare Signale! Verschiedene Faktoren führen den GoogleBot zu einer Seite und erhöhen die Wahrscheinlichkeit, dass diese Seite berücksichtigt wird.
  • Getestet werden kann der Indexierungs-Status mit der Google Search Console und site: Abfragen.

JavaScript & Crawl Budget:

  • JavaScript wird wichtiger, erhöht aber das Crawl-Budget.
  • Geplant ist, den GoogleBot Anfang nächsten Jahres upzudaten. Momentan läuft er noch auf Chrome Version 41. Zukünftig sollen die Anpassungen an neue Versionen schneller erfolgen.
  • SEOs und Entwickler müssen noch enger zusammenarbeiten
  • Pre-Rendering und schnelle Server/Seiten helfen das Crawl-Budget zu schonen

Speed & Structured Data

  • Speed bleibt wichtig, allerdings muss zwischen Browser-Speed und Crawling-Speed unterschieden werden.
  • Sauberes HTML hilft bei der Auszeichnung von strukturierten Daten.
  • Überlegt, wie ihr in den SERPs erscheinen wollt und welche strukturierten Daten ihr dafür braucht. Unnötige strukturierte Daten blähen die Seitengröße künstlich auf.

9 Tricks & Hacks für den Google Tag Manager – So geht es einfacher

„Master of Data“ Michael Jansen stellte in seinem Vortrag einige Tricks vor, die die Arbeit mit dem Google Tag Manager vereinfachen.

In der Theorie ist der Einbau von Marketing Tags mit dem Google Tag Manager kinderleicht. Der Code des Tag Managers muss nur einmal in die Website eingebaut werden und danach ist man nicht mehr auf die IT angewiesen. In der Praxis sieht das Ganze aber doch ein bisschen anders aus. Erstmal findet die IT es gar nicht gut, dass jeder mit Hilfe des Tag Managers Code in die Website einbauen kann, weil dadurch die komplette Funktionalität der Seite beeinträchtigt werden kann. Es entsteht Chaos, weil jeder eigene Tags anlegen darf und so schnell der Überblick verloren geht.

Michael Jansen über Hack für den Google Tag Manager

Michael Jansen über Hack für den Google Tag Manager

Damit der Umgang mit dem Tag Manager trotzdem funktioniert, sollten folgende Hacks berücksichtigt werden:

  1. Tag Manager kennenlernen: Setzt euch damit auseinander, was der Tag Manager genau ist und was er eigentlich macht.
  2. Marketing Tags verstehen: Warum baut ihr ein Tag ein und welche Funktion hat es?
  3. Immer testen, bevor ihr etwas live stellt: Im Vorschau Modus könnt ihr überprüfen, ob eure Tags funktionieren. Es schadet auch nichts, eine zweite Person drüber schauen zu lassen.
  4. Gebt niemandem Zugriff, der keine Ahnung vom Tag Manager hat.
  5. Nutzt verschiedene Arbeitsbereiche: Legt eure Tags nicht im Default Workspace an. Man kann hier keine einzelnen Tags veröffentlichen. Nutzen mehrere Personen den Default Workspace, veröffentlicht ihr eventuell Tags von anderen Nutzern, die noch nicht fertig sind.
  6. Dokumentation: Gebt jeder Version, die ihr anlegt, eine Beschreibung anhand derer ihr erkennt, was ihr geändert habt. Alte Versionen können nachträglich wiederhergestellt werden. Tags, Trigger und Variablen sollten mit sinnvollen Namen ausgestattet werden.
  7. Lernt wichtige Sachen um eure eigenen Tags zu schreiben und zu verstehen: Kenntnisse zu HTML und CSS, RegEx und JavaScript Grundlagen können nicht schaden, wenn man mit dem Google Tag Manager arbeitet.
  8. DataLayer auf Vorrat ausfüllen: Wenn ihr euren DataLayer von der IT befüllen lasst, lasst hier direkt alles mit reinschreiben, was ihr in Zukunft braucht. Die IT hat bekanntlich nicht so viel Zeit und wenn sie schon mal dran ist, trägt sie am besten gleich alles ein.
  9. Legt ein Admin Konto für alle Tools an: Das Admin Konto sollte nicht im privaten Account eines Mitarbeiters liegen, da der Zugang sonst weg ist, wenn der Mitarbeiter das Unternehmen verlässt.

Abschließend wies Michael noch daraufhin, dass nicht alles, was man mit dem Tag Manager machen kann, auch sinnvoll ist. Außerdem riet er dazu, sich mit der IT anzufreunden, da man eben doch immer noch auf ihre Hilfe angewiesen ist – spätestens, wenn der DataLayer genutzt wird.

Die Folien zum Vortrag findet ihr hier.

App-Hijacking: Mikrosuchsysteme als Alternativen zu Google & Co. nutzen (Gianna Brachette-Truskawa)

Gianna Brachetti-Truskawa, Senior International SEO Manager bei bold ventures, ging in ihrem Vortrag darauf ein, wie man seine Inhalte und Services für App-interne Suchen optimieren kann und so entweder Traffic auf seine Website ziehen oder zumindest den Bekanntheitsgrad seiner Marke steigern kann.

Dank Smartphones sind Nutzer zwar rund um die Uhr online, doch sie sind nicht immer nur auf Websites unterwegs. Viele nutzen auch Apps wie Spotify oder Reddit. Diese Apps verfügen meist über eine Such-Funktion und hier kann man seine eigenen Inhalte ganz gut platzieren, wenn man ein wenig um die Ecke denkt – auch ganz ohne Ads zu schalten.

Gianna zeigte beispielhaft, wie sich eine Band in folgenden Apps platzieren könnte: Spotify, Reddit und Lovense Remote.

Spotify

Spotify liegt gerade im Bereich Musik sehr nahe. Der Streamingdienst bietet eine Suche nach Genres und bestimmten Kategorien an. Besonders praktisch: Spotify Playlists erscheinen auch in den Google Suchergebnissen. Wer also bei Spotify gut gelistet ist, kann damit ebenfalls in der organischen Google Suche punkten. Über die Api können Inhalte zudem auch in andere Dienste eingebunden werden.

Damit nun die Inhalte (in diesem Fall die Lieder der Band) weit oben in den Suchen erscheinen, müssen diese häufig abgespielt werden. Für eine eher unbekannte Band scheint dies auf Anhieb sehr schwierig. Es gibt aber die Möglichkeit, seine Lieder in anderen Playlistes mit vielen Followern unterzubringen. Dies erreicht man meist nur, indem man den Kontakt zum Ersteller der Playlist herstellt oder eben selbst so gute Playlists baut, dass andere auf einen aufmerksam werden.

Reddit

Auf Reddit können Posts, Statements, News etc. geteilt werden. Vorteil hier: Auch Hyperlinks können in ein Posting integriert und so Nutzer auf die eigene Website gelockt werden. Welche Postings oben angezeigt werden, hängt von verschiedenen Faktoren ab, wie Alter der Kommentare, Votes etc.

Ziel muss es also sein, Postings zu generieren, mit denen viel interagiert wird. Eine Möglichkeit sind sogenannte Ask me Anything Sessions. Voraussetzung ist, dass man etwas besonders gut kann und die Nutzer dann Fragen stellen lässt. Ein Beispiel in diesem Bereich wäre: „Ich bin ein Vollzeitmusiker, fragt mich alles!“

Lovense Remote

Relativ weithergeholt erscheint das letzte Beispiel. Bei Lovense Remote handelt es sich um eine App, mit der man Sextoys fernsteuern, eigene Vibrationsmuster erstellen und diese mit anderen Nutzern teilen kann. Unter anderem spielt diese App auch Spotify Playlists ab. Indem man ein Vibrationsmuster erstellt – zum Beispiel passend zur Musik – und dieses sehr häufig geteilt wird, kann man auch hier die Bekanntheit seiner Marke (oder in diesem Fall seiner Band / Musik) stärken.

Im Grunde nutzt man also beim App-Hijacking die Funktionalität anderer Apps. Diese können auch themenfremd sein und mit Marke oder Produkt erstmal nichts zu tun haben.

Fazit

Der SEO Day gehört zu den Pflichtveranstaltungen in der deutschen SEO Szene. Die Vorträge haben in diesem Jahr nochmal an Tiefe gewonnen. Gefühlt gab es noch mehr fachlichen Input als in den Jahren zuvor und auch die Auswahl der Speaker war sehr gut.

Das Programm war sehr straff gehalten und die Pausen zwischen den einzelnen Vorträgen hätten ruhig etwas länger ausfallen können. Vielleicht wäre eine Aufteilung auf 4 Räume mit gleicher Anzahl der Sessions besser gewesen, da sich so die 900 Teilnehmer auch etwas besser verteilt hätten. So haben wir zwischendurch einige Vorträge ausfallen lassen, weil wir nicht mehr aufnahmefähig waren oder einfach keinen Platz mehr bekommen haben. Insgesamt hat der SEO Day aber wieder gerockt!

Vielen Dank an Fabian und Julia für die super Organisation!

Infos zu weiteren Online Marketing Konferenzen

Tags: Recaps SEO

lunapark

Share This