Wenn Webseiten-Betreiber sich zum ersten Mal mit Suchmaschinen beschäftigen, steht meist ein bestimmtes Ziel im Vordergrund, z.B. der Wunsch nach mehr Traffic oder einer verbesserten Conversion-Rate. Im Rahmen des Suchmaschinenmarketing stehen hier zwei unterschiedliche Strategien zur Wahl: SEO und SEA. Während mit SEA (Search Engine Advertising) bezahlte Anzeigen in Suchmaschinen ausgespielt werden können, widmet sich SEO (Suchmaschinenoptimierung) den organischen, also unbezahlten, Suchergebnissen.

Was ist SEO? – Definition

SEO ist die Abkürzung für Search Engine Optimization, zu Deutsch Suchmaschinenoptimierung, und beschreibt Techniken und Strategien, mit denen die Sichtbarkeit einer Webseite in den organischen Suchergebnissen der Suchmaschinen erhöht werden soll. Das Ziel der Suchmaschinenoptimierung ist in erster Linie eine verbesserte Platzierung (Ranking) einer Webseite in den Suchergebnissen.

Warum für Google optimieren?

Wenn wir von Suchmaschinen sprechen, meinen wir in Deutschland in der Regel Google. Das liegt an der Marktmacht des US-Konzerns – diese ist in Deutschland mit einem Marktanteil von 95,8% nämlich noch überwältigender als beispielsweise in den USA mit einem Anteil von „nur“ 88,4%. Ein Großteil der potenziellen Websitebesucher nutzt also vorwiegend Google.

Suchmaschinenmarkt Deutschland 2018

Suchmaschinenmarkt Deutschland 2018

In anderen Teilen der Welt, wie z.B. China und Russland, haben andere Suchmaschinen die Marktmacht. In Deutschland, dem Rest von Europa und den USA gilt jedoch: Ist eine Webseite für Google optimiert und rankt gut, kann dadurch schon ein großer Teil des organischen Traffics abgegriffen werden. Außerdem ist die Wahrscheinlichkeit hoch, dass sie auch in anderen in Deutschland vertretene Suchmaschinen wie bing oder DuckDuckGo gut positioniert ist, da diese Suchmaschinen ähnlich arbeiten und zum Teil auch auf denselben Index zurückgreifen wie Google. Wie die einzelnen Suchmaschinen miteinander in Verbindung stehen, erfahrt ihr in unserem Artikel zum Suchmaschinen-Beziehungsgeflecht.

Was bedeutet SEO Sichtbarkeit?

Der Erfolg von SEO-Maßnahmen wird in der Regel daran gemessen, ob die Website in den Suchergebnissen sichtbar(er) ist, also ob sie zu wichtigen Suchanfragen auf den vorderen Plätzen in Suchmaschinen ausgespielt wird. Durch eine hohe Sichtbarkeit können dann z.B. mehr neue Webseitenbesucher akquiriert und in Folge im Idealfall auch mehr Conversions generiert werden.

Im besten Fall rankt die Webseite bei relevanten Suchanfragen auf Position 1 der Suchergebnisse, mindestens aber auf der ersten Ergebnisseite. Eine Webseite, die für viele solcher Keywords auf den vorderen Plätzen rankt, hat dementsprechend eine hohe Sichtbarkeit in den Suchergebnissen. Doch warum ist diese Sichtbarkeit überhaupt so wichtig?

Bereits 2015 hat Johannes Beus von Sistrix in einer Auswertung festgestellt, dass sich 99,1% aller Klicks auf die ersten 10 organischen Suchergebnisse verteilen, während Ergebnisse ab der zweiten Seite von Nutzern fast gar nicht mehr wahrgenommen werden:

Quelle der Daten: https://www.sistrix.de/news/klickwahrscheinlichkeiten-in-den-google-serps/ (Sistrix/ Beus)

Quelle der Daten: https://www.sistrix.de/news/klickwahrscheinlichkeiten-in-den-google-serps/ (Sistrix/ Beus)

Zwar ist diese Statistik bereits etwas älter, hat aber dadurch nichts von ihrer Relevanz eingebüßt. Im Gegenteil – durch den stetigen Ausbau der Werbeanzeigen, Universal Search Ergebnissen und Featured Snippets in den Suchergebnissen rutschen die organischen Suchergebnisse oft sogar so weit nach unten, dass nur noch einige wenige überhaupt die Aufmerksamkeit des Nutzers erhalten. Umso wichtiger ist es daher geworden, dass die eigene Webseite in den Suchergebnissen idealerweise unter den Top 3 zu finden ist.

Rankt eure Webseite auf Platzierungen ab der zweiten Seite der Suchergebnisse, so sinkt die Wahrscheinlichkeit, dass sie von Nutzern gefunden wird – selbst, wenn sie explizit danach suchen. Dadurch sinkt der organische Traffic, bzw. werden wichtige Traffic- und Branding- Potenziale verschenkt.

Wie funktioniert die Google Suche?

Um SEO zu verstehen, muss man Google verstehen und wissen, wie die Suchmaschine Webseiten betrachtet und bewertet.

Um später die relevantesten Seiten in den Suchergebnissen anzeigen zu können, muss Google erst einmal das Angebot kennen. Hierzu durchsucht (crawlt) Googles sogenannter Googlebot (auch Crawler oder Spider genannt) permanent das Netz, schaut sich die existierenden Webseiten an und sucht neue Informationen. Dabei hangelt sich der Crawler vor allem entlang der Links, um auch bisher unbekannte Seiten zu erfassen.

Auf einer Webseite scannt der Googlebot die Inhalte unter anderem entlang der HTML-Elemente wie Title oder H-Überschriften und definiert so Thema und Inhalt der jeweiligen Seite. Dabei bewertet und kategorisiert Google die Seiten bereits nach ihrer Qualität, um festlegen zu können, zu welchen Suchbegriffen diese Seite später ausgespielt werden soll. Da Google eine Text-Suchmaschine ist, orientiert sie sich dabei hauptsächlich an den textlichen Inhalten der Website.

Im Index sammelt Google all diese Webseiten. Gibt ein Nutzer nun bei Google einen Suchbegriff ein, so werden ihm die von Google als themenrelevant eingestuften Webseiten in den Suchergebnissen ausgespielt. Diese Suchergebnisseiten nennen sich im englischen Search Engine Result Pages, so dass auch im deutschen häufig die Abkürzung SERPs für die Suchergebnisseite verwendet wird.

Wie funktioniert Google?

Wie funktioniert Google?

Um die Relevanz einer URL zu bewerten, nutzt Google rund 200 verschiedene Rankingfaktoren, von denen nur die wenigsten offiziell bestätigt wurden. Die meisten werden von Google unter Verschluss gehalten, um Manipulationen zu verhindern. In den letzten Jahren zeigt sich jedoch eine deutliche Tendenz, die Inhalte einer Webseite nicht nur anhand von Keywords zu bewerten, sondern auch Qualität und Vertrauenswürdigkeit als Bewertungskriterien heranzuziehen. Durch Updates im Google Algorithmus verändert sich die Gewichtung der einzelnen Faktoren zudem immer wieder.

Das Ziel der Suchmaschine ist es, den Nutzern das bestmögliche bzw. relevanteste Suchergebnis auszuspielen. Hierzu nutzt Google auch die User Signals, also Nutzersignale. Rankt eine URL beispielsweise auf Platz drei, wird aber konsequent von Nutzern als erstes angeklickt, wird Google dieses Ergebnis als relevanter einschätzen und es früher oder später vermutlich auf der ersten Position ausspielen. Es ist also nicht nur wichtig, dass eine Webseite weit oben rankt, sondern auch, dass die Nutzer dort tatsächlich finden, was sie suchen.

Auf die Keywords kommt es an

Bei der Beschäftigung mit SEO wird immer wieder auf die Bedeutung von Keywords hingewiesen. Doch was genau sind eigentlich Keywords und noch wichtiger: Wie kommt ihr an die für euch relevanten Keywords?

Keywords sind Schlagworte, die den Inhalt eurer Seite gut beschreiben und idealerweise von den Nutzern in die Suchmaske der Suchmaschine eingegeben werden. Ein Keyword kann aus einem Wort (Short head Keyword) oder mehreren Begriffen (Long tail Keyword) bestehen. Relevant ist ein Keyword erst, wenn es von den Nutzern auch gesucht wird, also Suchvolumen hat.

Das perfekte Keyword sollte daher folgende Kriterien erfüllen:

  • Es passt zum Seiteninhalt
  • Es hat Suchvolumen

Mit Hilfe der Keywordanalyse könnt ihr die wichtigen Keywords zu eurem Thema bestimmen und Inhalte in Hinblick auf diese Keywords optimieren. Nicht jedes Keyword macht in jedem Zusammenhang Sinn und auch der Wettbewerb spielt eine Rolle. Wie genau ihr mit einer Analyse an die relevantesten Keywords kommt, zeigen wir euch in unserem Artikel zur Keywordanalyse.

Technik, Links & Content – SEO umfasst viele Teilbereiche

Anhand der Funktionsweise des Crawlers lässt sich bereits ableiten, welche Komponenten einer Webseite für den Crawler relevant sind:

1. Technik: Ist die Webseite für den Crawler problemlos zugänglich oder wird er durch technische Einstellungen oder Probleme daran gehindert sie zu lesen? Wenn der Crawler eine Seite nicht crawlen kann, indexiert er sie auch nicht und sie erscheint nicht in den Suchergebnissen.

2. Content: Die Inhalte einer Seite bestimmen, zu welchen Suchanfragen die Seite ausgespielt wird. Kann der Crawler die relevanten Keywords einer Seite schnell und problemlos erfassen, steigert dies die Wahrscheinlichkeit bei jeweiligen Suchanfragen berücksichtigt zu werden.

3. Backlinks: Backlinks bezeichnen Verlinkungen von anderen Websites. Für Google sind Links von anderen Seiten ein wichtiger Faktor bei der Bewertung der Website, da gute Inhalte tendenziell häufig verlinkt werden.

In der Suchmaschinenoptimierung kommt es auf das Zusammenspiel dieser drei Teilbereiche an. Zwar können auch Einzelmaßnahmen bereits Erfolge erzielen, eine ganzheitliche SEO-Strategie berücksichtigt aber immer alle drei Bereiche, um das bestmögliche Ergebnis zu erzielen.

Die folgende Grafik stellt diese Teilbereiche noch einmal aufgeschlüsselter dar und unterscheidet zwischen Onpage und Offpage SEO:

SEO Bausteine getrennt nach Onpage und Offpage

SEO Bausteine getrennt nach Onpage und Offpage

Während OnPage-SEO alle Maßnahmen bezeichnet, die auf der eigenen Seite durchgeführt werden, beziehen sich OffPage-Maßnahmen auf Faktoren, die außerhalb der eigenen Webseite liegen und dementsprechend schwerer zu beeinflussen sind. Ein Beispiel sind hier Backlinks – wenn also eine andere Webseite auf die eigene Seite verlinkt.

Technisches SEO

Technisches SEO ist die Grundlage für alle weiteren SEO-Maßnahmen. Stimmt die Basis nicht, können auch Optimierungen im Content-Bereich oder an der Linkstruktur nicht wirken. Technisches SEO umfasst eine Vielzahl von Maßnahmen, wie z.B.:

  • Steuerung des Crawlings: Die robots.txt Datei wird verwendet, um dem Suchmaschinen-Crawler Anweisungen zu geben – beispielsweise, welche Verzeichnisse er sich ansehen darf und welche nicht (z.B. ein Login-Bereich oder Warenkörbe).
  • Steuerung der Indexierung: Mit den Robots-Meta-Tags können einzelne Seiten von der Indexierung ausgeschlossen werden, hierzu wird der Befehl noindex genutzt. Wichtige Seiten dürfen dementsprechend nur per index-Tag und nicht per noindex ausgewiesen sein.
  • Sitemaps: In der Sitemap können die komplette URL-Struktur der Seite oder einzelne wichtige URLs aufgelistet werden. Sie dient dem Crawler als eine Art Wegweiser über die Domain. So stellt ihr sicher, dass alle wichtigen URLs vom Crawler gefunden werden.
  • Webseite-Struktur: Sind alle wichtigen Seiten in wenigen Klicks erreichbar oder sind relevante Inhalte tief in der Webseitenstruktur verborgen? Eine übersichtliche Struktur macht es dem Crawler leichter, alle Inhalte zu erfassen.
  • SSL-Zertifikat: Werden die Daten sicher per https übertragen und ist https korrekt umgesetzt? Existieren vielleicht http und https Seiten parallel? Dies kann zu Inkonsistenzen führen und dazu, dass der Crawler die Seiten im Ranking herabstuft.
  • Weiterleitungen: Wechselt ein Inhalt die URL, so kann die alte URL auf die neue weitergeleitet werden. So ist sichergestellt, dass der Crawler den Zusammenhang zwischen alter und neuer URL herstellen kann und keine Rankings verloren gehen. Dieses Vorgehen ist gängige SEO-Praxis, kann aber auch zu Fehlern führen.
  • Mobile Optimierung: Besonders wichtig ist die mobile Darstellung einer Website für Google. Seit einiger Zeit fährt Google eine „mobile-first“-Strategie und bewertet Seiten, anhand ihrer mobilen Version, also daran, wie sie auf dem Smartphone angezeigt werden.
  • PageSpeed: Besonders lange Seitenladezeiten werden von Google negativ bewertet und sollten daher vermieden werden. Eine Website, die schnell lädt, wird nicht nur von Google positiv bewertet, sondern macht auch Nutzer glücklicher.

Dieser kurze Abriss zum technischen SEO kann die Vielfalt der Maßnahmen natürlich nicht vollumfänglich darstellen, sondern soll nur dem Überblick dienen. Technisches SEO erfordert ein ausgeprägtes Know-how und je größer die Webseite ist, desto eher gleicht die Arbeit einer detektivischen Suche nach technischen Problemen und Fehlern, die die Performance der Seite beeinträchtigen könnten.

Content

Nutzer besuchen eine Webseite hauptsächlich, um einen bestimmten Inhalt zu finden. Content hatte daher auch für Suchmaschinen schon immer eine große Bedeutung. Vor einigen Jahren ging es bei der Content-Optimierung noch hauptsächlich darum, den Webseiten-Text möglichst häufig mit Keywords zu füllen, um so die Relevanz für die Suchmaschine zu erhöhen. Diese Praxis führte zu Inhalten, die für den Nutzer nur noch sehr holprig und unnatürlich zu lesen waren, denn die Texte waren für Suchmaschinen und nicht für Menschen geschrieben. Google hat sich daher in seinen Bemühungen, wirklich relevante Suchergebnisse zur Verfügung zu stellen, mittlerweile an die Bedürfnisse der Nutzer angenähert.

Daher gilt heute: Erst der Leser, dann der Algorithmus! Inhalte sollten für den Nutzer geschrieben werden. Sind sie für den Nutzer relevant, wird Google sie ähnlich bewerten.

Was ist eigentlich der Content?

Zum Content gehören sämtliche Inhalte, die, abgesehen von Navigation, Footer und Anzeigen, auf einer Seite zu finden sind. So ist der Content mehr als nur der reine Fließtext auf der Seite. Zum Content gehören:

  • URL
  • Meta Title & Description
  • Überschriften & Zwischenüberschriften
  • Bilder
  • Interne Verlinkungen
  • Texte
Was zählt alles zum Content?

Was zählt alles zum Content?

Meta Title und Description, auch Snippet genannt, sind letztendlich das, was der Nutzer in den Suchergebnissen zu sehen bekommt:

Meta-Snippet, bestehend aus Title und description erscheint in den Suchergebnissen

Meta-Snippet, bestehend aus Title und Description erscheint in den Suchergebnissen

Möchtest ihr tiefer in das Thema „Content Optimierung“ einsteigen, empfehle ich euch unseren Blogartikel „Content Optimierung für Suchmaschinen“.

Wie ihr die perfekten Meta Daten schreibt, erklären wir euch in unseren Blogpost „Snippet Optimierung: Google Snippets richtig formulieren“.

Bildoptimierung

Habt ihr euch schon einmal gefragt, wie die Bildersuche von Google funktioniert? Natürlich kann Google mittlerweile auch Text auf Bildern erkennen und Inhalte interpretieren, der beste Weg mit einem Bild zu ranken, ist aber die vernünftige Auszeichnung der eigenen Bilder per alt-Tag. Das genaue Vorgehen zur Bild-Optimierung haben wir in unserem Artikel zum Bilder SEO zusammengefasst.

Link-Optimierung

Die Link-Optimierung kann in zwei Bereiche unterteilt werden: OnPage und OffPage. Wie bereits beschrieben, nutzt der Crawler Verlinkungen, um sich über eine Webseite und durch das Netz zu bewegen.

Interne Links

Der Crawler sollte über die interne Linkstruktur jede wichtige Unterseite der Domain erreichen können. Ist eine URL häufig intern verlinkt, signalisiert dies dem Crawler, dass diese besonders relevant ist.  Eine gut ausgebaute und durchdachte interne Link-Struktur kann so gezielt einzelne Webseiten-Bereiche oder URLs stärken.

Dabei sollten die Linktexte (auch Anchor-Texte genannt), also die Textteile, die verlinkt werden, immer zu der verlinkten Seite passen. Hinter einem Linktext wie z.B. „Google Tag Manager einrichten“ sollte daher idealerweise auch genau dieser Inhalt zu finden sein. Der Crawler bewertet dabei immer nur den ersten Link im Content. Links, die weiter oben im Text platziert sind, werden wichtiger eingestuft als Links am Ende des Textes. Eine Unterseite muss also nicht möglichst häufig auf der gleichen Seite verlinkt werden, sondern auf unterschiedlichen URLs. Links aus dem Fließtext werden dabei höher gewertet als Links aus der Navigation oder dem Footer.

Wichtige URLs sollten immer mit dem passenden Linktext, möglichst weit oben im Text verlinkt werden. Linktexte wie „Hier informieren“ oder „Mehr…“ sollten dabei vermieden werden.

Externe Links

Externe Links (Backlinks) hingegen befinden sich auf anderen Domains und verweisen auf den Inhalt unserer Webseite. Die Optimierung des Backlink-Profils gehört demnach zur OffPage-Optimierung. In der Anfangszeit von Google nutzte die Suchmaschine vor allem Backlinks als Zeichen dafür, wie relevant eine Seite ist. Die Annahme, dass eine Seite, die im Internet häufig verlinkt wird, besonders wichtig sein muss, ist erst einmal logisch. Dies führte jedoch dazu, dass ein regelrechter Backlink-Handel entstand und Webseiten-Betreiber Backlinks im großen Stil kauften, um die Relevanz der eigenen Seite zu erhöhen.

Dieses Problem hat Google erkannt und seinen Algorithmus entsprechend angepasst. Zwar bezieht Google auch weiterhin Backlinks in die Bewertung einer Webseite mit ein, bewertet dabei aber auch die Qualität der Backlinks und straft beim Verdacht auf Manipulationen ab. Die betroffenen Webseiten verschwinden dann oft komplett aus dem Index bis das Problem behoben wurde. Zeigen externe Links auf interne 404-Fehlerseiten, geht der positive Effekt der Verlinkung hingegen verloren. Ein sauberes Backlink-Profil gehört daher zur Grundlage jeder Optimierung.

Mit Hilfe diverser Tools wie der Google Search Console, Majestics oder Ahrefs können Backlinks identifiziert und bewertet werden. Zeigen beispielsweise viele externe Links auf eine 404-Seite, so sollten diese nicht mehr existierenden Seiten auf neue Inhalte weitergeleitet werden, damit Nutzer und Crawler hier nicht ins Leere laufen. Weist das Backlink-Profil viele Links von Spam-Seiten auf, kann dies ebenfalls einen negativen Effekt haben. Hierzu bietet die Google Search Console die Möglichkeit, besonders toxische Links per „disavow“ für ungültig zu erklären. Damit signalisiert ihr Google, dass ihr diese Links nicht wollt und sie daher bitte nicht in eure Bewertung einfließen sollen. So vermeidet ihr, dass negative Backlinks die Performance eurer Seite beeinflussen.

Monitoring der Suchmaschinenoptimierungen

Oft stecken wir viel Energie in die Suchmaschinenoptimierung und natürlich wollen wir dann auch wissen, ob unsere Bemühungen erfolgreich waren. Überprüfen können wir dies anhand mehrerer Kennzahlen – je nachdem was für das jeweilige Business von Bedeutung ist.

Zum einen haben wir den oben bereits erwähnten Sichtbarkeitsindex, der mit Tools wie zum Beispiel Sistrix überwacht werden kann. Steigt die Sichtbarkeit, ist dies ein Zeichen für eine funktionierende SEO-Strategie. Mit Sistrix oder anderen Tools wie z.B. Searchmetrics könnt ihr die genauen Rankings anschauen, also zu welchen Keywords ranke ich auf welcher Position und welche URL wird dem Nutzer dabei ausgespielt? Dies ist generell sinnvoll, aber insbesondere, wenn ihr auf spezifische Keywords optimiert habt und überprüfen möchtet, ob dies erfolgreich war.

Die Webanalyse bietet euch ebenfalls einen guten Einblick in die SEO-Performance eurer Seite. Hier könnt ihr sehen, wie viele Nutzer über die organische Suche auf eure Webseite gelangt sind und ob es dort positive Veränderungen gibt. In unserem Artikel „SEO Kennzahlen mit Google Tag Manager und Google Analytics erfassen“ findet ihr eine Reihe weiterer wichtiger Kennzahlen, die dir wertvolle SEO-Insights verraten.

Fazit

Ihr seht, SEO ist mehr, als nur ein paar Keywords wahllos im Text zu platzieren. Letztendlich ist es der richtige Mix aus Technik, Links und Content, mit dem ihr das Beste aus eurer Webseite herausholen könnt. Für eine sinnvolle SEO-Strategie solltet ihr daher immer alle drei Teilbereich der Suchmaschinenoptimierung berücksichtigen.

Dabei muss euch klar sein: SEO ist oft kein schneller Fix und benötigt Zeit, insbesondere wenn es um Optimierungen am Content geht. Während einige technische Anpassungen auch schnelle Ergebnisse erzielen können, brauchen inhaltliche Anpassungen oft Monate, bis sie sich in besseren Rankings niederschlagen und so auch mehr Traffic generieren. Lasst euch also nicht entmutigen, wenn ihr keinen sofortigen Effekt seht und beobachtet die Entwicklung eurer SEO-Kennzahlen langfristig. Das Ziel sollte immer die bestmögliche User Experience für den Nutzer sein. Oder, um es mit den Worten von Googles John Mueller zu sagen: Awesomeness.

John Mueller über Rankingfaktoren: https://twitter.com/sarojnishad/status/905275025032450049

John Mueller über Rankingfaktoren: https://twitter.com/sarojnishad/status/905275025032450049

Tags: SEO
Saskia Wollenberg
Saskia Wollenberg ist SEO Consultant bei lunapark. Bereits während ihres Sozialwissenschaft-Studiums an der Heinrich-Heine-Universität Düsseldorf optimierte sie redaktionelle Texte für das Online-Portal derwesten.de. Bevor sie 2018 zu lunapark stieß, arbeitete sie als Online-Redakteurin für den Versandhändler casando.de und als Content Marketing Managerin bei Piwik Pro. Bei lunapark ist sie Teil des SEO-Teams und für Themen rund um Content Erstellung und Optimierung zuständig, zudem führt sie Kundenworkshops durch.
    Share This