(Eine) SEO Site Clinic Checkliste

Diese Auflistung zeigt den exemplarischen Ablauf der Untersuchung einer Domain zur Bestimmung des Optimierungspotentials aus Suchmaschinensicht. Die Checkliste ist auf eher allgemeine Punkte beschränkt. Je nach Typ einer Website (Blog, Shop, Portal o. a.) gibt es darüber hinaus (reichlich) weitere Aspekte, die sinnvollerweise - und vor allem deutlich tiefer als hier skizziert - untersucht werden sollten, um ein vollständiges Bild zu erhalten. Diese Checkliste dient dazu, einen Startpunkt für eine Optimierung der eigenen Website zu finden, von dem aus alle identifizierten Ansatzpunkte in eine planbare erste Optimierungsphase übernommen werden können. Die Definition realistisch erreichbarer Ziele und einer langfristigen Strategie können dadurch nicht übergangen werden, aber das Ergebnis ist ein guter Einstieg in das Thema, bei dem "wirklich große Brocken" i. d. R. auch gefunden werden können.

Wenn Sie Unterstützung bei der Analyse Ihrer Website benötigen, eine ähnliche Erstanalyse extern durchführen lassen oder Detailfragen zu Ihren hiermit selbst ermittelten Optimierungspunkten klären wollen, finden Sie weitere Hinweise im Anschluss an die Checkliste.

Aufbau und Bedienung

In jedem Abschnitt werden einzelne Aspekte aufgezählt, die dabei untersucht werden sollten. Nach den Kernfragen, die in diesem Bereich zu untersuchen sind, folgt eine kurze Erläuterung dazu, warum dieser Punkt untersucht wird und was es zu beachten gibt. Wo es sinnvoll ist, werden am Ende jedes Abschnitts weiterführende Links zu Details und / oder einzusetzenden Werkzeugen aufgelistet.

1. Crawlability und Indexierbarkeit

Was bei Google gefunden werden soll, muss dort auch bekannt sein. Im Index zu sein ist daher Grundvoraussetzung. Hierbei kann man es Suchmaschinen leicht oder schwer machen. Die folgenden Punkte betrachten daher diesen Bereich.

a. Gestaltung der URLs

Kernfragen

  • Sind URLs "sprechend" / menschenlesbar?
  • Existieren Parameter, die ggf. zu unnötigen Doubletten führen?
  • Gibt es ein canonical-Link-Element und funktioniert dieses einwandfrei?

Darum geht es

Die URL ist die vollständige Adresse jeder (einzelnen) Seite im Internet (die Sie auch in der Adressleiste oben im Browser sehen können). die URL sollte möglichst knapp, eindeutig und im idealfall auch mit wichtigen Bestandteilen einer Suchphrase bestückt sein, also bei dem Thema Suchmaschinenoptimierung könnte es z. B. heißen www.meinedomain.de/suchmaschinenoptimierung.html.

Wenn sich erfreulicherweise bereits einige Ihrer Seiten in den Suchergebnissen befinden, müssen Sie mit dem Umbenennen der (neuen) Unterseiten sehr vorsichtig sein, damit Klicks auf die Suchtreffer nach einer Überarbeitung nicht ins Leere laufen. Weiterleitungen mit dem Statuscode 301 (nein, nicht 302, 200 oder andere Scherze!) sollten von allen alten Adressen auf möglichst passende neue führen, wenn aus Sicht der Suchmaschinen nichts verloren gehen soll.

Mehr Infos & Tools

b. Behandlung fehlerhafter URLs

Kernfragen

  • Stimmt der Statuscode bei falschen Adressen (404)?
  • Ist die Fehlerseite hilfreich?.

Darum geht es

Es ist sinnvoll, dass falsche URLs auch wirklich mit einem Fehlercode (404) beantwortet werden. Gern antwortet ein System aber auch mit der Startseite und dem Statuscode 200 ("alles super, Seite existiert"). Das führt theoretisch zu unendlich vielen gültigen Adressen, was das effiziente Crawling einer Site deutlich erschwert.

Eine 404er-Seite sollte den Besucher bei der weiteren Navigation helfen, also nicht nur einen platten "404-Error" auswerfen.

Verschaffen Sie sich regelmäßig einen Überblick über die falschen URLs Ihrer Seite, um diese möglichst auf passende Zielseiten weiterzuleiten.

Mehr Infos & Tools

c. Doublettencheck

Kernfragen

  • Gibt es mehrere Domains, die den gleichen Inhalt ausliefern?
  • Was ist mit www vs. non.www? Wird beides angenommen oder auf die Wunschversion weitergeleitet?
  • Dito: https und http beide parallel erreichbar? Wenn ja: Gibt es wenigstens einen Canonical (siehe oben), der auf die Wunschfassung zeigt?

Darum geht es

Doubletten sind ärgerlich, weil man dort etwas findet, was man schon hat. Daher mögen Suchmaschinen keine Doubletten, obschon sie nicht direkt zu schlechtem Ranking führen. Zudem droht bei vielen Doubletten eine weitere Gefahr: Google untersucht für jede Domain nur eine bestimmte Anzahl an URLs in einer gegebenen Zeitspanne. Dieser auch "Crawl-Budget" genannte Umfang sollte sinnvollerweise für wichtige (und z. B. auch möglichst schnell für neue) Inhalte genutzt werden. Zu viele Doubletten können aber leicht dazu führen, dass dieses Budget erschöpft ist, bevor alle Seiten untersucht sind. Das Ergebnis sind fehlende Seiten im Index, dafür aber eben auch einige doppelte Seiten, denn die Bereinigung solcher Doubletten ist nicht immer einfach für eine Suchmaschine.

also schwächt man seine Position, wenn es mehrere Fassungen gibt, die alle für sich eine Historie aufbauen, statt diese in einer Fassung zu konsolidieren... und der Crawler beschäftigt sich unnötig mit mehreren Adressen, die zum gleichen Inhalt führen. Unschön.

Mehr Infos & Tools

d. Interne Verlinkung

Kernfragen

  • Wie viele Klicks von der Startseite aus sind meine wichtigen Inhalte entfernt (möglichst kurze Wege) und wie tief ist die Struktur insgesamt?
  • Gibt es fehlerhafte interne Links, die korrigiert werden sollten?
  • Sitemap.xml vorhanden und korrekt verlinkt?

Darum geht es

Wenngleich es deutlich mehr zu diesem Thema zu sagen gibt, wenn es um SEO geht, so steht hier zunächst die Frage im Vordergrund, ob auch wirklich alle Inhalte miteinander verlinkt sind, wie tief die Struktur ist und ob die Anzahl der URLs wirklich endlich ist. Viele Websites sind - meistens durch Fehler - in der Lage, unendlich viele URLs zu produzieren (daher auch der Doublettencheck im vorherigen Schritt).

Das betrifft auch sog. Kettenweiterleitungen, die schlimmstenfalls in einer Weiterleitungsschleife enden (also eine "Endlos-Schleife", die nie zu einer finalen Adresse und einem Inhalt führt).

Um interne Verlinkung gezielt zu nutzen, kann man in der Webanalyse Zielseiten identifizieren, die gestärkt werden sollten. Auch die Search Console zeigt Seiten, die z. B. "in Lauerstellung" auf einer hohen Durchschnittsposition auf der zweiten Seite der Suchergebnisse rangieren. Diese durch gezielte Verlinkung mittels besonderer Navigationselemente (Buttons, Banner etc.) direkt von der Startseite aus zu stärken, kann durchaus einen Unterschied beitragen, wenn diese Seiten zuvor erst in einer tieferen Ebene und / oder von nur wenigen internen Seiten aus verlinkt wurde.

Optimierten Zielseiten sollten also intern auch so oft wie möglich verlinkt werden, wo es thematisch sinnvoll ist - so zeigen Sie dem Crawler, welche die auch aus Ihrer Sicht relevantesten Seiten sind.

Mehr Infos & Tools

e. robots.txt

Kernfragen

  • Ist diese vorhanden und beinhaltet keine potentiell problematischen Ausschlüsse?
  • Sitemap.xml vorhanden und korrekt verlinkt?
  • Ungewöhnliche Direktiven oder Ausnahmen für bestimmte Crawler definiert?

Darum geht es

Um eine möglichst umfassende Indizierung aller Unterseiten zu erreichen, dürfen keine relevanten Bereiche für Suchmaschinen verboten werden. Denn der erste Schritt zur erwünschten Aufnahme in den Index ist die Besuchbarkeit der jeweiligen Seiten.

In der Datei robots.txt stehen dazu genaue Anweisungen für den Suchmaschinen-Crawler. Hier könnten sich also aktuell Anweisungen befinden, die bestimmte Bereiche von Suchmaschinen ausschließen. Wenn die Datei fehlt, sperren Sie zwar niemanden aus, laden aber auch nicht explizit zum Besuch ein. Wenn Sie eine solche Datei auf Ihrem Server im Basisverzeichnis des Webauftritts ablegen, können Sie zudem einzelne Verzeichnisse verbieten und alles andere gilt explizit als erlaubt. Um keine Verbote für Robots außer für ein einzelnes Verzeichnis zu vergeben, erstellen Sie z. B. eine Datei robots.txt mit dem Inhalt

User-agent: *
Disallow: /meineprivatendaten/

Lassen Sie die letzte Zeile einfach weg, wenn es keine nicht zu indizierenden Verzeichnisse oder einzelne Seiten gibt. Bedenken Sie vor allem, dass das Sperren von Ressourcen wie Bildern, CSS-Dateien oder JavaScript dazu führt, dass Google die Seite nicht "sehen" kann, wie es ein realer Besucher im Browser (auf einem Laptop oder auch einem Smartphone!) sehen würde. Aus diesem Grund mag es also sein, dass Sie sich selbst durch Sperrung wesentlicher Ressourcen schaden.

Außerdem: Können alle (für Sie und Google wichtigen) Inhalte besucht werden, ist dies zwar kein Garant dafür, dass alle Seiten auch in den Index aufgenommen werden – werden – dazu sind weitere Faktoren wie die Relevanz, Qualität und Einmaligkeit des Inhalts ebenso wichtig wie die interne und externe Verlinkung der Seite -, aber Sie stellen zumindest sicher, dass keine erwünschten Zugriffe durch Anweisungen in der robots.txt verhindert werden.

Über Disallow-Anweisungen lässt sich entsprechend das Crawling-Budget (siehe oben) sinnvoll schonen, um so z. B. alle Ergebnisse der internen Suche ausschließen, wenn dies erforderlich erscheint.

Mehr Infos & Tools

f. Index bei Google

Kernfragen

  • Weichen übermittelte und indexierte Werte bei den Sitemaps in der Search Console deutlich ab?
  • Wenn kein Zugriff besteht: Wie sieht es mit der von außen per site:-Abfrage ermittelbaren Zahlen aus?
  • Wenn es relavant sein sollte: Gleiche Fragen für Bing.

Darum geht es

Durch Eingabe der Suchanfrage site:meinewebsite.de bei Google erhalten Sie einen (wenngleich sehr unzureichenden und oft bei größeren Websites auf Zufallswerten basierenden) Überblick darüber, welche Ihrer Seiten in der Suchmaschinen bereits indiziert sind. Genauere Angaben darüber, welche Seiten Google von Ihrer Domain kennt, können Sie nur als verifizierter Webmaster in der Google Search Console abrufen.

Das Ziel sollte es sein, möglichst alle relevanten Seiten in den Index zu bekommen und umgekehrt keine unnötigen Adressen (wie eben Doubletten, Druckansichten der eigentlichen HTML-Seiten etc.) dort zu finden.

Mehr Infos & Tools

  • Google Search Console
  • 2. Kopfdaten

    Im Kopf von HTML-Seiten stehen neben dem Seitentitel, Verweisen zu Ressourcen und ein paar anderen Dingen auch so genannte "Metatags", mit denen Sie u. a. den Suchmaschinen weitere Informationen zum Inhalt der Seite geben können. Hier wird betrachtet, ob diese sinnvoll genutzt werden und einen Zweck erfüllen.

    a. Titelgestaltung

    Kernfragen

    • Sind Titel eindeutig, prägnant und nicht zu lang?
    • Stehen die wichtigen Dinge im Vordergrund oder werden diese erst am Ende eingefügt?
    • Sind Titel mit den Hauptbegriffen der Seite abgestimmt und finden sich auch in Überschriften etc. wieder?

    Darum geht es

    Die Keywords (Suchbegriffe), für die eine Seite gefunden werden soll, sollten sich im Titel wiederfinden. Der Titel "Willkommen bei Karl-Heinz Schmitz, Meisterbetrieb in Mönchengladbach-Odenkirchen für Anstriche" bringt suchmaschinentechnisch weniger, als möglich ... außer vielleicht Treffer auf den ersten Seiten, wenn jemand in Google nach "Willkommen bei Karl-Heinz" sucht! Viele Suchmaschinen gewichten den Titel einer Seite besonders stark, da er ja schließlich die Zusammenfassung Ihrer Seite darstellt. Deshalb ist dieser Punkt für gute Suchmaschinen-Optimierung extrem wichtig! Bringen Sie Ihre Haupt-Keyword-Kombination dort – möglichst am Anfang - unter, ohne allzu viele weitere Begriffe in den Titel packen zu wollen; das verwässert den Titel und schwächt die eigentlichen Suchbegriffe. Denn die einleitend beschriebene Keyworddichte" zählt nicht nur im Hauptinhalt, sondern auch im Titel!

    "Karl-Heinz-Schmitz | Malermeister in Mönchengladbach" wäre demnach ein deutlich knapperer und besserer Titel, wenn Sie mit der Startseite nicht nur für Ihren Namen, sondern ggf. auch die Kombination "malermeister mönchengladbach" gefunden werden wollen – bei allen anderen (Unter-) Seiten sollten Sie sich selbst aber in den Hintergrund stellen – z. B. nach dem folgenden Muster: "Thema der Seite | Unternehmensname GmbH"

    Da die Klickrate (wer klickt auf "mein Suchergebnis" (Snippet)) für das Ranking wichtig ist, kann auch moderat mit Blickfang-Zeichen gearbeitet werden.

    Mehr Infos & Tools

    b. Metatags

    Kernfragen

    • Gibt es sinnvolle Angaben für Robots, zur Sprache, eine Description und ggf. og:Tags für Facebook oder andere (wo relevant)?
    • Was kann entfernt werden?
    • Gibt es widersprüchliche Angaben?
    • Siehe Indexierbarkeit: canonical-Link-Elemente vorhanden?

    Darum geht es

    Viele Metatags wie z. B. keywords sind mittlerweile für Suchmaschinen bedeutungslos. Daher sollten Sie diese Angaben auch heute weglassen. "Begriffsüberschwemmung" in diesen Bereichen brachte irgendwann einmal etwas, heute aber nur noch Ärger, übertreiben Sie es also nicht oder räumen Sie alte überfüllte Metatags auf!

    Zur Kennzeichnung der Beschreibung einer Seite dient z. B. die folgende Angabe:

    <meta name="description" content="…" />

    Tragen Sie, wenn nicht vorhanden oder im Übermaß befüllt, auf allen Seiten die Angaben sorgfältig und maßvoll nach und füllen Sie den content mit einer Beschreibung. Jede Seite ist ein Unikat, sprich auf der Startseite dürfen die Informationen sicherlich etwas allgemeiner gehalten werden, während auf den Produktseiten nur Informationen zum entsprechenden Produkt verwendet werden sollen. Auch können Sie über Meta-Informationen Suchmaschinen explizit "einladen", Ihre Seite in den Index zu übernehmen und den Links zu folgen:

    <meta NAME="robots" CONTENT="index,follow">

    Diese Angabe ist weder erforderlich, noch kann damit allen Bots wirklich wirksam erlaubt - oder umgekehrt: verboten - werden, eine Seite zu untersuchen oder zu indexieren. Ebenso sinnvoll sind spezielle Angaben für Facebook, Twitter & Co, wenn es darum geht, das Erscheinungsbild der Seite zu bestimmen, wenn diese dort geteilt wird (was sicher nicht für alle Seiten gleich relevant ist). Viele andere Angaben sind aber oft veraltet und / oder vollkommen wirkungslos. Im Sinne von möglichst schlanken Seitenquellcodes sollten Sie sich also auf Angaben beschränken, die einen nachvollziehbaren Nutzen bringen – alles andere kann ausgemistet werden.

    Auch hier gilt: Wenn der description Metatag gut befüllt ist, übernimmt Google ihn und man kann so seinen eigenen "Werbetext" in den Suchergebnissen schreiben und damit die rankingrelevante Klickrate erhöhen. Auch hier kann man mit Sonderzeichen moderat Aufmerksamkeit erzielen. Wichtig: Das Ergebnis regelmäßig in der Google-Suche kontrollieren. Mag Google den Metatag nicht, erscheint stattdessen irgendein Text aus der betreffenden Seite, was teilweise sehr sinnfrei ist und nicht wirklich zum Klick animiert.

    Mehr Infos & Tools

    3. Seitenattribute

    Nicht nur der lesbare Inhalt einer Seite, sondern auch eine ganze Menge anderer Faktoren können beeinflussen, ob eine Seite ihre Chancen in Suchmaschinen wirklich ausnutzen kann. Einige davon werden hier betrachtet, damit die wichtigsten Aspekte abgeklopft werden.

    a. Strukturierte Daten

    Kernfragen

    • Ist das ein Thema für mich und wenn ja, welche Informationen können weitergegeben werden?
    • Gibt es bereits strukturierte Daten und ist deren Implementierung korrekt?

    Darum geht es

    Über verschiedene Wege jenseits der o. a. "3Kopfdaten" können Seiten weitere Inhalte liefern, die primär nicht der Darstellung für den Besucher im Browser, sondern der Kennzeichnung und / oder Anreicherung bestehender Informationen innerhalb der Seite dienen, damit diese besser von Suchmaschinen "verstanden" oder verarbeitet werden können.

    Ein einfaches Beispiel ist eine Telefonnummer oder einer Adresse im Impressum, die mit entsprechend erweitertem HTML-Markup als solche gekennzeichnet werden kann. So wird aus einer Information ein Objekt bzw. Element, von dem die Suchmaschine weiß, welchem Zweck es dient. Auch bei Produkten in einem Shop kann so nicht nur das Produkt selbst gekennzeichnet werden, sondern auch seine verschiedenen Attribute wie die Lieferbarkeit, der Preis, Eigenschaften wie Größen, Farben etc.

    Suchmaschinen nutzen diese Angaben dazu, den Inhalt besser zu "verstehen". Außerdem kann auf diese Weise auch eine Anreicherung der Suchtreffer zu Ihrer Website erfolgen, wenn z. B. ein Produkt inkl. separat ausgewiesenem Preis gelistet wird.

    Es gibt verschiedene Wege, dieses Ziel zu erreichen und unterschiedliche Formate. Es ist aber i. d. R. empfehlenswert, sich auf einen Standard wie der Auszeichnung nach schema.org zu verlassen, der von vielen Systemen unterstützt und verstanden wird; darunter eben auch Google.

    b. Eingesetzte Scripts, Frameworks etc.

    Kernfragen

    • Ist der Einsatz größer JS-Frameworks gerechtfertigt?
    • Müssen es wirklich alle eingebundenen Fassungen und Scripts sein?
    • Gerade bei Wordpress: Brauche ich all diese Plugins (heute) wirklich?

    Darum geht es

    Viele Websites verwenden verschiedene JavaScript-Bibliotheken wie jQuery und andere, um dynamische Elemente wie Slider, Bildergalerien u. a. umzusetzen - oft in verschiedenen Fassungen parallel. Nicht nur, aber gerade bei Wordpress kommt so schnell ein nennenswerter Umfang an zusätzlich zu übertragenden Daten und / oder anzufordernder Ressourcen neben der eigentlichen Seite zusammen, der kritisch hinterfragt werden sollte. Denn auch Suchmaschinen und vor allem reale Besucher müssen all diese Ressourcen übertragen, um eine Seite untersuchen / betrachten zu können, wodurch viele Aspekte wie Datenvolumen, Kosten mobiler Verbindungen, Ladezeiten und Benutzerverhalten beeinflusst werden können.

    In der Regel kann man den Umfang solcher Ressourcen deutlich minimieren und im Idealfall auch nur dort verwenden, wo sie auch wirklich benötigt werden. Dem widmet sich auch der nächste "Checkpunkt".

    c. Qualität & Umfang von HTML und CSS

    Kernfragen

    • Ist der Quellcode / das Design "ausreichend valide"?
    • Kann man Dinge wie Script, CSS etc. auslagern, zusammenfassen o. Ä.?
    • Werden große Teile überall geladen, aber nur auf einzelnen Seiten genutzt?

    Darum geht es

    Gleich vorab: Validierbarkeit ist kein Rankingfaktor. Fehler sind aber trotzdem immer noch Fehler und daher sollte man sich zumindest für die Startseite und andere zentrale Seiten fragen, welche Fehler und Meldungen man ggf. einfach beheben kann. Bevor eine Seite wirklich nicht von Google "verstanden" wird, ist allerdings mehr nötig, als nur ein paar kleine Fehler im HTML-Gerüst. Trotzdem kann man Codequalität an verschiedenen Aspekten wie z. B. dem Verhältnis von "Markup" (HTML-Tags, Code und Scripts etc.) zu "Nutzlast" und der Dateigröße bzw. Menge der zu übertragenden Bytes erkennen. Dazu gehört auch, dass alles, was auf mehreren Seiten an Designanweisungen und Scriptinhalten etc. direkt im Quellcode vorhanden ist, stattdessen besser ausgelagert wird, um es nur einmal (beim ersten Mal) übertragen zu müssen. In die gleiche Richtung geht die Zusammenfassung und Minimierung vorhandener notwendiger Ressourcen. Besonders aber das Abspecken von Seitenquellcodes hilft nicht zuletzt auch dabei, das nun schon mehrfach beschworene Crawl-Budget zu schonen und die Ladezeiten gering zu halten.

    Mehr Infos & Tools

    d. Gestaltung von Navigation und Links

    Kernfragen

    • Besteht die Navigation aus echten Links oder funktioniert diese nur mit JavaScript o. Ä?
    • Listen von Links vs. Tabellenkonstrukte?
    • Wid InPagePage-Navigation o. Ä. genutzt?

    Darum geht es

    Navigation ist nicht gleich Navigation. So kann eine Hauptnavigation z. B. nur jeweils eine Ebene darstellen oder auch ggf. direkt in tiefere Bereiche der jeweiligen Kategorie führen ("Mega-Menüs"). Auf technischer Ebene kann eine Navigation zudem auf sehr unterschiedliche Weise umgesetzt werden, die nicht nur den Umfang des Codes, sondern auch die Nutzbarkeit bzw. Erfassbarkeit der Verweise durch Suchmaschinen beeinflussen können. Idealerweise ist eine Navigation codearm umgesetzt und besteht aus echten Links, wenn diese dazu dienen soll, die dort verlinkten Seiten erreichbar zu machen und im Sinne einer guten internen Verlinkung zu stärken.

    Auch quantitativ kann Navigation ein SEO-Thema sein, denn zu viele Links auf einer Seite sind nicht nur für einen echten Besucher ein Problem, sondern auch für Suchmaschinen, denn solche Seiten dienten in der Vergangenheit selten dazu, einem Besucher wirklich eine Hilfestellung anzubieten. Daher: Existiert ggf. (noch immer) eine HTML-Sitemap oder haben Sie noch eine "Link-Seite" und wenn ja, ist diese wirklich sinnvoll oder nur ein großer Haufen hunderter Links, den SIe besser abbauen sollten?

    Mehr Infos & Tools

    e. Mobiltauglichkeit

    Kernfragen

    • Passt sich das Design an unterschiedliche Gerätegrößen an?
    • Wenn nicht: Wird ggf. auf eine separate Mobilfassung weitergeleitet (und versteht Google dies auch?)
    • WIe verhalten sich meine mobilen Besucher?

    Darum geht es

    Mobiltauglichkeit ist Rankingfaktor. Nicht nur auf Mobilgeräten. Wer sich also als Webmaster / Domainbetreiber bisher "noch nicht" mit dem Thema Mobile befasst hat, ist definitiv zu spät dran.

    Aber auch da, wo der eher platte Test bei Google (siehe unten) bestanden wird, heißt es nicht zwingend, dass es nichts zu tun gibt. Mobile Darstellung ist ein Thema, mobiltaugliche Inhalte ein anderes. Schauen Sie sich daher idealerweise das Verhalten Ihrer mobilen Besucher auf Mobilgeräten an und suchen Sie nach Ausreißern oder anderen Auffälligkeiten, die Ihnen einen Hinweis auf Probleme mit der Usability (z. B. zu umfangreiche und dadurch unbedienbare Formulare) geben.

    Denn neben der Darstellung sind vor allem Usability & Geschwindigkeit Faktoren, die man nicht vergessen darf, da diese schlussendlich den Besucher betreffen - egal, aus welchem Kanal er gekommen sein mag.

    Mehr Infos & Tools

    f. Technologie

    Kernfragen

    • Ist noch Flash im Einsatz oder veraltete Mittel wie Frames?
    • HTML <> HTML. Z. B.: Inhalte als Text oder Bilder?

    Darum geht es

    Wird noch auf veraltete Methoden wie Frames gesetzt, ist Flash im Einsatz oder werden andere Voraussetzungen gestellt, um die Seite konsumieren zu können? Dazu gehören auch Inhalte, die großteilig als Grafik angeboten werden. Nicht, dass dies verboten wäre oder dass Google nicht bei der Erkennung von Inhalten auf Bildern immer besser geworden wäre in den letzten Jahren, aber dennoch gilt die Devise, dass Textinhalte unverkennbare Vorteile haben und deshalb auch immer eine Textversion oder in der Seite vorhandener Ersatztext mit den wesentlichen Angaben zu finden sein sollte.

    g. Interne Verlinkung

    Kernfragen

    • Gibt es sinnvolle Ankertexte, vor allem in der Navigation?
    • Bietet die Site auf Unterseiten Breadcrumbs?
    • Wie sieht es mit "Linkorgien" im Footer o. Ä. aus?

    Darum geht es

    Während zuerst technische Aspekte wie Gestaltung der Verlinkung und fehlerhafte Links im Vordergrund standen, geht es hier nun um die Anzahl ein- und ausgehender Links einzelner Seiten, die Anzahl der Seiten je Ebene (Klicks von der Startseite aus), interne Ankertexte oder ggf. vorhandene "Einbahnstraßen". Die zentrale Frage bleibt: Sind die richtigen / wichtigen Seiten gut intern verlinkt? Dabei kann auch der Ankertext, mit dem auf eine Seite intern verlinkt ist, einen recht großen Einfluss darauf haben, für was die verlinkte Seite als relevant angesehen wird.

    Auch ist für eine gut strukturierte Website eine überschaubare Anzahl an Links und die Auswahl der Linkziele ein Thema. Daher sollten vor allem Websites mit mehr als einer oder zwei Ebenen jenseits der Startseite daran denken, dem Besucher mittels sog. "Breadcrumbs" die Positionsbestimmung einer Seite und den Wechsel zu einer vorherigen Ebene zu erleichtern und auf der anderen Seite große Blöcke von Links im Inhalt oder im Fuß einer Seite zu vermeiden, wenn dadurch die Gefahr besteht, nicht nur den realen Besucher zu überfordern, sondern auch einen Crawler. Ein ausgewogenes Verhältnis von guter interner Verlinkung auf der einen und erforderlicher "Linksparsamkeit" auf der anderen Seite kann für jede Website anders aussehen.

    Mehr Infos & Tools

    h. PageSpeed

    Kernfragen

    • Dauert es zu lange, meine Inhalte zu konsumieren; vor allem bei langsamen Datenverbindungen?
    • Werden Ressourcen geschont oder mit Bedacht eingesetzt?
    • Kann der Server schneller antworten als bisher?

    Darum geht es

    Der aufmerksame Leser wird es bemerkt haben: Ladegeschwindigkeit war auch in den vergangenen Abschnitten ein Thema. Aber auch über schlanken Quellcode und minimierte Ressourcen hinaus gibt es eine ganze Menge an Ansatzpunkten. Die meisten listen entsprechende Tools (siehe unten) auf und zeigen, wo der größte Hebel zu finden ist. Bei vielen Servern kann so durch die Aktivierung von Kompression am Server und Caching in Systemen wie Wordpress die Latenz deutlich verringert werden - oft mit einfachen Mitteln wie Anpassung der Serverkonfiguration oder Verwendung von Plugins.

    Achten Sie aber auch besonders darauf, dass sich Bilder schnell laden lassen. Dazu sollten vor allem größere Header-Fotos möglichst klein ausfallen, zumal diese auf allen Seiten geladen werden müssen. Auch lassen sich viele kleine Ressourcen zu sog. "Sprites" zusammenfassen und so viele einzelne Anfragen für kleine und immer wieder genutzte Bilder und Symbole verringert werden.

    Mehr Infos & Tools

    4. Inhalte

    Suchmaschinen brauchen etwas zu lesen. Stellen Sie sicher, dass sowohl Crawler als auch reale Besucher viele relevante, interessante und möglichst aktuelle Informationen auf Ihrer Website finden. Je mehr thematisch fokussierte, informative - und ausreichend umfangreiche - Texte auf einer Seite stehen, desto höher wird die Relevanz dieser Seite in Suchmaschinen zum behandelten Thema sein. Denn das Ziel der Suchmaschinen ist es, eine Seiten als Ergebnis zu liefern, auf denen der Suchende die gewünschten Informationen zur jeweiligen Anfrage findet.

    Die Inhalte sollten also nicht nur frisch und laufend gepflegt (zudem erfordern nicht alle Themen und alle Seiten eine ständige Aktualisierung), sondern vor allem auch thematisch klar abgegrenzt sein. Außerdem geht es bei der Generierung einer Seite, die ihre Chancen im OnPage Bereich voll ausspielen soll, um mehr als nur den Textinhalt. Gibt es sinnvolle andere Dinge wie Bilder, Videos, Tabellen, Zitate und anderes, was dem Thema dient? Dann sollte auch hier nicht gespart werden. Das große Ziel "die beste Quelle im Web" zu einer entsprechenden Suchanfrage zu werden, wird i. d. R. nicht allein mit ein wenig Text (und auch nur im Kontext einer in der Gesamtheit gut aufgestellten Domain) zu erreichen sein.

    a. Gezielte Abstimmung auf Themen / Kombinationen

    Kernfragen

    • Wofür soll die jeweilige Seite gefunden werden?
    • Wie gut ist die Seite auf die Hauptbegriffe / Kombinationen abgestimmt in der Gewichtung der Terme, im Titel, in Überschriften etc.?
    • Sind – auch für den Besucher – alle benötigten Informationen (für Besucher in allen Stadien des Entscheidungsfindungsprozesses) vorhanden?

    Darum geht es

    Wenn ein Text Einhundert Worte hat und der Begriff "Keyword" kommt darin vier Mal vor, hat das Keyword "Keyword" eine so genannte Keyword-Dichte von 4%. Vermeiden Sie den Begriff aber möglichst, denn das Konzept ist so unvollständig, dass niemand mehr etwas davon wissen will ;) Eine "sinnvolle Keyword-Dichte" kann durchaus zudem sehr unterschiedlich ausfallen. Und es ist auch nicht an jeder Stelle auf einer Website gleich wichtig, wie es dort um die Keywords bestellt ist. Auf jeden Fall aber nutzt es, wenn die wichtigen Keywords auch wirklich konsequent verwendet werden – also nicht nur im Titel, sondern eben auch (zumindest einmal, bitte!) im Text der Seite; idealerweise an anderen wichtigen Stellen wie Überschriften etc. Längst veraltete Regeln wie "eine gute Dichte liegt etwa zwischen 2 und 8%" sind zwar nicht generell falsch, decken aber nicht ab, wie Suchmaschinen auf eine Seite schauen und Keywords sowie Kombinationen bewerten. Außerdem sind höhere Keyword-Dichten zwar nicht automatisch ein Problem für Suchmaschinen, lesen sich aber recht zäh, weil das entsprechende Keyword einfach viel zu oft (und oft auch im unpassenden Zusammenhang) benutzt wird. Auch Werkzeuge, die Sie heute für die Bestimmung des "Gewichts" aller Begriffe im Vergleich zu den Top-rankenden Seiten nutzen können (Stichwort WDF*IDF-Analyse) betrachten schlussendlich die Anzahl aller Begriffe auf einer Seite und lassen so erkennen, welche Begriffe messtechnisch im Vordergrund stehen. Welchen Wert es aber hat, dies mit einem nur auf einem Ausschnitt an (aus verschiedenen Gründen) gut rankenden Seiten bestehenden vollständigen Dokumentenkorpus zu vergleichen, ist strittig. Unstrittig ist aber, dass die messtechnisch häufigsten Begriffe idealerweise Bestandteil Ihrer Ziel-Begriffskombination sein sollten und auch "drum herum" zum Thema passende Worte helfen, ein klares Signal an die Suchmaschine zu senden.

    Vor allem bei den zielgerichteteren Keywordkombinationen ("Suchphrasen"), auf die Sie abzielen sollten (siehe Einleitungskapitel), müssen Sie sich normalerweise nicht verbiegen, aber dennoch darauf achten, dass Sie Ihre Keywords auch wirklich verwenden. Übertreiben Sie es daher nicht, denn das wird gern von Suchmaschinen (als offensichtlicher Versuch, für bestimmte Begriffe besser zu ranken) negativ ausgelegt und mit schlechter Platzierung oder gar Verbannung aus dem Index (was Sie zur Unauffindbarkeit verdammt) honoriert. Die Wahrung einer gewissen Anzahl von Instanzen eines Fokusbegriffs – vor allem im Vergleich mit anderen Begriffen auf der Seite, die ggf. ein Übergewicht haben, dass Ihnen gar nicht bewusst sein muss - sollten Sie bei einer Überarbeitung genauso bedenken wie die Regel, dass keine Seite sinnvoll auf mehr als etwa 3 Keywords bzw. entsprechende Kombinationen ausreichend optimiert werden kann - und schon gar nicht auf mehr als ein Thema. Merksatz: "Es gibt sinnvollerweise oft mehrere Seiten zu einem Thema, aber nie mehr als ein Thema für eine Seite". Eine Aufteilung von Inhalten auf mehrere Seiten sollte also im Zusammenhang mit AdWords-Kampagnen und Suchmaschinenoptimierung immer bedacht werden. Um zu bestimmen, welche Begriffe auf Ihrer Startseite im Vordergrund stehen, analysieren wir daher im Folgenden auch den reinen "Nettoinhalt" (exkl. zusätzlicher Informationen wie Attribute von Bildern etc., was zwar die Realität nicht genau abbildet, aber für einen groben Überblick durchaus reicht) Ihrer Startseite und stellen dar, welche Begriffe besonders häufig vorkommen. Finden Sie hier die richtigen Begriffe oben, senden Sie klare Signale – ansonsten gibt es Optimierungsbedarf.

    Mehr Infos & Tools

    b. Struktur und Lesbarkeit

    Kernfragen

    • Lesbarkeit für die Suchmaschine = semantisch korrekte Auszeichnung von Überschriften etc.?
    • Lesbarkeit auch für den Besucher: Gute Struktur für "Skim/Scan/Read"?
    • Aufzählungen, Abbildungen, Highlights (wie gezielte Fettschrift) für Querleser genutzt?

    Darum geht es

    Mit verschiedenen HTML-Objekten wie <h1> bis <h3> (für Überschriften, spätestens ab der 4. Ebene verliert sich jeder auch nur minimale Effekt) oder <strong> (für fett) können Sie für Ihre Leser wichtige Textpassagen hervorheben und / oder zusammenfassen. Kurz gefasst: Was für Ihre Leser wichtig erscheint, halten auch die Suchmaschinen für wichtig(er) und relevant(er), wenngleich sich dieser Effekt mit der Zeit ein wenig abgenutzt hat. Setzen Sie dennoch für eine gelungene Suchmaschinen-Optimierung und vor allem Contentstruktur (eben auch für den querlesenden Besucher) Ihre Suchphrasen auch in Überschriften, Aufzählungen, Zusammenfassungen und als ALT-Text von Bildern etc. ein oder heben Sie diese fett hervor, ohne es dabei (siehe oben) zu übertreiben.

    Eine gute Struktur (insbes. Navigations-Struktur) und Lesbarkeit ist der "Klebstoff" Ihrer Seite (Stichwort: "Usability"). Damit halten Sie den Besucher und animieren ihn dazu, sich weiter / länger auf Ihrer Seite aufzuhalten. Lange Besuchszeiten sind ein wichtiger Rankingfaktor.

    Stimmen Sie die Metatags (s.o.) auf Ihre Inhalte ab, um das Werbeversprechen in den Suchergebnissen (SERPs) halten zu können. Ansonsten sind die Besucher gleich wieder weg, was zu einem Abbruch und zur Rückkehr zu den Suchergebnissen führt, der sich negativ auf Ihr künftiges Ranking auswirken kann, wenn Sie dadurch im Vergleich zum Wettbewerb weniger hilfreich wirken.

    Die SEO-Wertschöpfungskette lautet also vereinfacht: Klickrate -> Absprungrate -> Verweildauer. Durch gute Struktur und interne Verlinkung beeinflussen Sie vor allem den zweiten und dritten Faktor.

    Mehr Infos & Tools

    c. Aufteilung nach Seiten- / Inhaltstypen

    Kernfragen

    • Habe ich die richtige Menge an Informationen auf der Startseite, auf "Verteilerseiten" und Inhaltsseiten bzw. im Shop in Kategorien und auf Produktdetailseiten?
    • Bei welchen Seitentypen (jenseits der Startseite) ist eine Optimierung besonders sinnvoll?
    • Bei hoher Anzahl je "Seitentyp": Was sind die jeweiligen Top 10, 20 oder 50, mit denen man starten sollte?

    Darum geht es

    Die "wichtigste" Seite aus SEO-Sicht ist die Startseite - allein wegen der im Normalfall hohen Rate an eingehenden externen Links im Vergleich zu anderen Seiten der eigenen Domain. Aber sonst? Was sind noch wesentliche Seiten? In Shops bedeutet dies z. B. dass der unterschiedliche Aufbau von Kategorieseiten vs. Detailseiten vs. Inhaltsseiten, News etc. unterschiedliche Ansatzpunkte zur Optimierung und Rankingpotential liefern. Sie sollten daher Ihre Inhalte auch nach Klassen bzw. Kategorien einteilen. Achten Sie in jeder Klasse darauf, dass gemeinsame Merkmale wie die Seitenleiste etc. Ihren Bemühungen im Hauptinhalt nicht im Wege stehen und Sie die jeweiligen Top-Seiten gezielt inhaltlich und technisch optimieren, um auch größere Sites in jeweils überschaubaren Portionen mit gezielter Optimierung versehen können, ohne dabei bestimmte Seitentypen zu vernachlässigen.

    d. Medien: Verwendung von Bildern, Videos etc.

    Kernfragen

    • Technik: Sind kleine Bilder in Wirklichkeit nur skalierte "Riesenbilder"?
    • Dateinamen, ALT-Attribute oder Bildunterschriften sorgen für Ersatzinformationen" zum Inhalt?
    • Können auch Videos oder andere Mittel sinnvoll eigensetzt werden?

    Darum geht es

    Da Bilder, wenn Sie gut gewählt sind, zum Inhalt einer Seite beitragen, aber nicht unmittelbar für Crawler nachvollziehbare Informationen transportieren, sollten Sie darauf achten, dass Sie Ersatzinformationen wie z. B. die Alt-Attribute der Bilder gezielt für den Einsatz von relevanten Begriffen nutzen, wenn dies sinnvoll ist. Ebenso kann die Google-Bildersuche zu einer nennenswerten Traffic-Quelle werden. Dort erscheinen Bilder natürlich nur dann für sinnvolle Suchanfragen, wenn der Crawler sie themenrelevant zuordnen kann. Das unterstützen z. B. die Alt-Attribute, aber auch weitere Aspekte wie der Dateiname, Bildunterschriften und der Kontext, in dem das Bild eingesetzt wird.

    Auch auf der Seite eigebundene Videos können mit ähnlichen Ersatzinformationen bis hin zu einem Transkript versehen werden, um Suchtreffer zu erzeugen, die i. d. R. gute Chancen auf hohe Aufmerksamkeit haben.

    Wer also viele Bilder und Videos auf seiner Website bereitstellt, kann und sollte diese auch in eine entsprechende Sitemap integrieren.

    Mehr Infos & Tools

    e. Herunterladbare Inhalte & PDFs

    Kernfragen

    • Downloads & PDFs sind keine HTML-Seiten und stehen "allein" da. Verlinken sie dennoch auf die Website?
    • Stehen PDF Dateien in Konkurrenz zu bestehenden HTML-Pendants?

    Darum geht es

    PDF-Dokumente sind ein durchaus üblicher Bestandteil von Websites. Je nach Thema werden auch andere Dokumenttypen wie Word-Dokumente, Excel-Tabellen etc. bereitgestellt. Diese können nicht nur heruntergeladen werden, sondern landen ggf. auch im Google-Index. Das ist auf der einen Seite erfreulich und kann Besucher bringen, auf der anderen Seite fehlen bei einem solchen Treffer, der je nach Dateityp durchaus auch direkt im Browser angezeigt werden kann, wesentliche Bestandteile wie die Navigation der Website - das Dokument steht also "allein" da. Zudem ist ein solcher Besuch in der Regel auch nicht messbar. Das bedeutet nicht, dass Sie solche Dateien nicht bereitstellen sollten, aber es wird ggf. dann zum Problem, wenn Informationen exklusiv in solchen Dateien zu finden sind. Besser ist es daher, idealerweise auch eine HTML-Fassung anzubieten. Durch entsprechende Konfiguration des Servers könen Suchmaschinen sogar angewiesen werden, diese Fassung als "kanonische URL" (siehe oben) zu nutzen und in den Index zu übernehmen.

    Auch sollte darauf geachtet werden, dass automatisch vom System generierte PDF-Fassungen aller HTML-Seiten nicht durch die entsprechende Verlinkung auf jeder Seite den Vorzug vor der HTML-Fassung erhalten. Besteht bei einer Abfrage der Dokumente bei Google nach Typ (site:meinesite.de filetype:pdf) der Verdacht, dass dies der Fall sein könnte, gibt es je nach System i. d. R. auch relativ leicht zu implementierende technische Lösungen für das Problem.

    5. Externe Links

    Wenngleich der Fokus dieser Checkliste auf OnPage-Optimierungspotential liegt, kann und sollte zumindest aus dem Helikopter ein Blick auf die eingehenden Links der Domain geworfen werden... und sei es nur, um ein Gefühl für das darin ggf. steckende Risiko zu bekommen. Eingehende Analysen des Linkprofils können unabhängig davon jederzeit durchgeführt und so z. B. auch ein Abgleich mit dem Wettbewerb o. Ä. durchgeführt werden. Hier muss es reichen, einen kurzen Blick mit einfachen Mitteln auf das zu werfen, was potentiell auch Google sieht und was zur Vertrauen, Autorität und Relevanz der Domain beitragen kann und was eher potentiell schadet.

    a. Linkprofil

    Kernfragen

    • Wie viele Seiten / Domains / IPs verweisen auf meine Domain?
    • Welche Ankertexte werden dabei verwendet und welches Risiko steckt ggf. in "harten Keywordlinks"?
    • Wie sieht es mit der Herkunft der Links (TopLevel-Domain (de, at, com, es, info etc.) / Herkunftsland) aus?
    • Was kann über Wachstum oder Rückgang des Linkprofils gesagt werden?
    • Welche Domaintypen verweisen auf mich (Blogs, Presseportale, Unternehmensseiten, Shops)?

    Darum geht es

    Kriterien für das Ranking (Rangfolge auf den Suchergebnisseiten) existieren in der einen oder anderen Form für jede Suchmaschine. Jede Suchmaschine verwendet dabei zwar einerseits vergleichbare Algorithmen, andererseits aber ganz individuelle Einschätzungen der Wichtigkeit einer Seite zu bestimmten Suchbegriffen. Jedes einzelne Kriterium wird mehr oder weniger stark gewichtet in die Platzierungsberechnung der Suchmaschinen mit eingerechnet. Das gilt vor allem für Google, wo verschiedene Kriterien im Lauf der Zeit spürbar an Gewicht verlieren oder gewinnen.

    Einige dieser Faktoren werden in dieser Analyse abgedeckt, nicht alle haben den gleichen Effekt. Da die Gewichtung der einzelnen Faktoren variabel ist, haben Sie bei einer (OnPage-) Optimierung eigentlich keine andere Wahl, als möglichst alle Aspekte möglichst suchmaschinenfreundlich zu gestalten. Nach wie vor ist aber ein sehr gewichtiger Faktor zur Relevanzbestimmung – und somit zur Bestimmung des Rangs einer jeden Seite – die Anzahl und Qualität eingehender Links ebenso wie deren Gestaltung (z. B. Texte und Umfeld) und Verteilung (Links von möglichst vielen unterschiedliche Domains / IP-Adressen).

    Maßgeblich für die Qualität ist zudem auch die "Wichtigkeit", thematische Relevanz und Integrität der Linkquelle. Sollten Sie den Begriff PageRank" schon einmal gehört haben: Hierbei geht es hauptsächlich um die Menge eingehender Links. Diese ist zwar nach wie vor ein wichtiger Bestandteil der Rankings, allerdings ist der früher für die Öffentlichkeit sichtbare und mitunter absichtlich falsch dargestellte PageRank nie ein verlässlicher Bewertungsfaktor gewesen. Vergessen Sie ihn also weitestgehend. Andere, eher qualitätsabhängige Konzepte wie Trust und Authority können hier nicht ausreichend in wenigen Sätzen erklärt werden, aber es gilt das Prinzip, dass eine Empfehlung (ein Link) von jemandem, der sich bereits zu einem bestimmten Themenbereich bewährt hat, hochwertiger ist, als eine Empfehlung von einer unbewährten oder gar schlecht bewerteten Website. Und auch der Ankertext, mit dem auf Ihre Site verlinkt wird, ist nicht irrelevant. Wenn Sie hier zu viele Links finden, die mit unnatürlichen Keywordkombinationen auf Sie verweisen, mag das ein Problem sein und Bedarf einer tieferen Analyse.

    Mehr Infos & Tools

    b. Stichproben nehmen

    Kernfragen

    • Wie wirken die linkgebenden Seiten? Sind diese wirklich für Menschen gemacht oder riecht es nach Spam?
    • Wo sind die Links angebracht? Sind diese sichtbar oder versteckt, im Text oder im Footer neben 100 anderen Links?
    • Wie sehen die anderen Seiten der Domain aus?
    • Ist die verlinkende Seite überhaupt im Index oder kennt Google diese gar nicht (oder will sie nicht kennen)?

    Darum geht es

    Selbst im Rahmen einer ersten Einschätzung einer Domain, bei der der Fokus klar auf OnPage-Faktoren liegt, sollten gezielte Stichproben linkgebender Seiten nicht fehlen, welche man aus den in SEO-Tools oder auch der Google Search Console zu findenden externen Linkdaten als Liste exportieren kann.

    Ist die linkgebende Domain unbekannt, scheint der Domainname auf ein thematisch unpassendes Umfeld hinzuweisen oder sind besonders viele einzelne Links einer Domain in der Liste zu finden, hilft ein Blick auf die jeweilige Seite in einem Browser und eine Anfrage von info:anderedomain.de/seitenname.html bei Google dabei, den potentiellen Sinn der Verlinkung - oder eben auch das darin steckende Risiko - zu beurteilen. Stichproben ersetzen dabei auf keinen Fall eine vollständige Analyse; können aber helfen, die Notwendigkeit eines tieferen Einstiegs in das Linkprofil zu bestimmen, wenn diese von potentiell "nach Spam riechenden" Treffern dominiert wird und auch die Webanalyse keinen nennenswerten Verweistraffic ausweist.

    6. Rankings und Sichtbarkeit

    Was kommt an Rankings bei der ganzen Sache derzeit raus? Gibt es ggf. Seiten, die "in Lauerstellung" sind und mit gezielter Optimierung den Sprung von Seite Zwei auf die erste Seite schaffen könnten? Ein Überblick findet sich sowohl in typischen SEO-Tools (die dafür aber i. d. R. Geld haben wollen) als auch in der Google Search Console. Wer also mit Zugriff auf diese Daten ausgestattet ist, schaut sich den Status Quo im Bericht "Suchanalyse" an.

    a. Überblick Sichtbarkeit

    Kernfragen

    • Wofür werde ich überhaupt gefunden (Google Search Console)? Und auf welcher Position? Wie oft werde ich dort angezeigt und geklickt?
    • Was kann "von außen" mit SEO/SEA-Tools gemessen werden? (Und: Wie relevant ist das für mein Geschäft, was hier die Werte bestimmt?)

    Darum geht es

    Hinweis zu Sichtbarkeit, wenn diese durch SEO-Tools und nicht anhand der Suchanalyse aus der Search Console betrachtet wird: Alle externen Rankings, Sichtbarkeitswerte o. Ä. berücksichtigen nicht alle denkbaren Keywords und Kombinationen, die für Ihre Site relevant sind, sondern nur je Toolanbieter einen unterschiedlichen Pool an Keywords besitzt, für die regelmäßig Leistungswerte abgerufen und Rankings protokolliert werden.

    Die Werte für "Sichtbarkeit" basieren alle in gewisser Form auf der Häufigkeit des Erscheinens einer Domain zu Suchbegriffen, die automatisiert überwacht werden. Diese wird gewichtet nach Position in den ersten 100 Treffern und der Schwierigkeit" in Form des Wettbewerbs für jeden einzelnen Begriff. Zusammen ergibt das den Index des jeweiligen Tools. Das bedeutet also nicht, dass alle möglichen Suchbegriffe zum Sichtbarkeitsindex führen und Sie können auch mit Sichtbarkeit von 0 trotzdem Suchmaschinentraffic - zu nicht von den Tools überwachten Begriffen und Kombinationen - erhalten. Dennoch sind die Werte ein recht guter Anhaltspunkt dafür, wie erfolgreich eine Domain in Suchmaschinen (meint hierbei stets: Google) ist. Vor allem deren Verlauf kann Aufschluss darüber geben, ob die Domain einen Ab- oder Aufwärtstrend bzw. auffällige Ausreißer aufweist. Vor allem der Abgleich von Sichtbarkeitsveränderungen mit bestimmten bekannten Änderungen bei Google mag Aufschluss darüber geben, wie der aktuelle Status der Domain zustande gekommen ist.

    Mehr Infos & Tools

    b. Rankings jenseits der eigenen Website

    Kernfragen

    • Kann ich Google MyBusiness nutzen?
    • Sind YouTube, Twitter, Facebook & Co. denkbare Ansatzpunkte?
    • Ist ein gut rankendes Portal auch eine (Ersatz- oder Zusatz-) Lösung?

    Darum geht es

    SEO für die eigene Website ist ein Prozess, der i. d. R. mittelfristig und langfristig ausgelegt ist und im Erreichbaren sowohl durch den Wettbewerb als auch die einsetzbaren Ressourcen beschränkt ist. Daher ist es oft eine gute Idee, sich nach Gelegenheiten umzusehen, auf anderem Weg Sichtbarkeit zu erzeugen - sei es als Ersatz für die eigene Website oder auch als Ergänzung zu den damit erzeugten Suchtreffern.

    Social Media Kanäle sind dabei ein probates Mittel, wenn diese ohnehin "bespielt" werden sollen. Bedenken Sie aber, dass diese unterschiedliche Anforderungen hinsichtlich der Kommunikation in zwei Richtungen an Sie stellen können. Eine Facebook-Präsenz wird so z. B. mehr Pflege benötigen als ein Google Plus - Profil oder ein Youtube-Kanal.

    Für Unternehmen mit lokaler Präsenz, ist vor allem der My Business - Eintrag eine sehr gute Möglichkeit, auf der ersten Google-Suchergebnisseite zu erscheinen und so auf indirektem Weg ggf. auch ohne den Umweg über die eigene Website Business-Ziele online zu erreichen. Und wo Portale und Verzeichnisse die erste Suchergebnisseite dominieren, mag es in einzelnen Fällen auch die bessere Option sein, sich dort um einen gut auffindbaren Eintrag zu bemühen und so auf indirektem Weg zu Besuchern zu kommen.

    Mehr Infos & Tools

    Geschafft!

    Haben Sie sich bis hier durchgearbeitet, haben Sie einen guten ersten Eindruck vom Status Quo Ihrer Website aus Sicht einer Suchmaschine. Besser geworden ist dadurch zwar noch nichts, aber nun haben Sie alles in der Hand, um einen sinnvollen Maßnahmenplan zu erstellen, der zu Ihren Ressourcen passt. Wir wünschen Ihnen viel Spaß und Erfolg bei der Optimierung Ihrer Online-Präsenz!

    Unterstützung gesucht?

    Diese Checkliste ist im Rahmen der Entwicklung eines einheitlichen Verfahrens zur Erstanalyse von Websites in Zusammenarbeit der Agenturen Mertes + Leven und Gandke Marketing entstanden. Beide Unternehmen führen bereits seit mehreren Jahren solche Analysen durch, um daraus konkrete SEO-Maßnahmen im Rahmen einer Strategie abzuleiten, die in Abhängigkeit von den Wünschen und Ressourcen des Auftraggebers entweder maßgeblich durch die Agentur oder den Websitebetreiber verfolgt werden kann.

    Mertes + Leven    Gandke Marketing

    Unverbindliche Anfrage senden

    Gern beantworten die Autoren der Checkliste Ihre Fragen zu den hier vorgestellten Punkten oder zum Thema SEO im Allgemeinen bzw. unterstützen Sie bei der Durchführung und Auswertung einer ähnlichen Analyse - in einem Umfang, der für Ihre Website und Ihre SEO-Ziele angemessen und passend ist.

    Dabei können wir - vor allem für den Einstieg - auch einen Deckel für den Aufwand einer individuelle Analyse oder sogar einen Festpreis für einen bestimmten Standardumfang vereinbaren, damit die Kosten für den Start nicht nur kalkulierbar bleiben, sondern auch möglichst gering ausfallen. Gemeinsam mit Ihnen können wir im Anschluss dann einen sinnvollen Weg bestimmen, wie die gefundenen Potentiale gehoben werden können - entweder mit dem Fokus auf externer Agenturleistung oder strategischer und technischer Beratung mit dem Ziel, das Thema SEO mittelfristig aus eigener Kraft und kontinuierlich zu bearbeiten. Sprechen Sie uns an!

    Senden Sie uns dazu eine Nachricht an team@gandke.de oder über das Rückruf-Formular oder Kontaktformular auf gandke.de.