Tipps zur Suchmaschinenoptimierung - Kapitel "Grundlagen-Besonderheiten-Optimierungstechniken"

Was Google gar nicht mag

Jede Webseite und jeder Onlineshop ist darauf angewiesen, dass die Seiten auch in den Suchmaschinen gelistet werden. Wird die Webpräsenz gar nicht oder nur sehr schlecht gelistet, finden potentielle Interessenten nicht zu Ihrem Webangebot. Logisch, dass man möglichst alles tun will, um seine Chancen in den Suchergebnissen zu verbessern, wenn man einmal mit der Optimierung begonnen hat; zumal erste Ergebnisse sich nicht über Nacht, sondern erst nach einigen Monaten einstellen (wenn überhaupt). Wo genau die beliebtesten Fallen liegen, zeigt dieser Beitrag.

Nur eine Webpräsenz, die den Anforderungen der Suchmaschinen entspricht, erscheint auch in den Suchergebnissen. Besonders die bekannteste Suchmaschine Google entscheidet über diverse Rankingfaktoren (mehr dazu lesen Sie im Artikel „PageRank und wie man ihn verteilt“), ob und an welcher Stelle eine Webpräsenz in den Suchergebnissen erscheint.

Ziel bei der Optimierung einer Seite ist es immer, dieser hinsichtlich bestimmter Suchbegriffe mehr Gewicht zu verleihen und somit eine bessere Google Platzierung zu erzielen als konkurrierende Seiten. Dabei muss aber darauf geachtet werden, dass nur sogenannte „White-Hat“-SEO zur Anwendung kommt. Der weiße Hut steht stellvertretend für „legale“ und ethisch saubere Maßnahmen zur Suchmaschinenoptimierung. Es gibt allerdings auch „illegale“ Methoden, die folgerichtig als Black-Hat-SEO beschrieben werden. Diese versprechen zumeist nur kurzfristige Erfolge und führen früher oder später zur Abstrafung durch Google, können in der Zwischenzeit aber (bis zur Aufdeckung und Wirkungslosigkeit) einige Beachtung für ein kurzlebiges Webangebot erzeugen. Es existieren eine ganze Reihe von Suchmaschinenoptimierungsmethoden, die Google als „Black-Hat“ – SEO defintiv nicht mag und auf die Sie unbedingt verzichten sollten, wenngleich die Optimierung hat umkämpfter Begriffe oft so genannte „Grey-Hat“ – Methoden erfordert, die genau das sind, was die Schattierung andeutet: Optimierungstechniken, die gezielt auf eine Suchmaschine ausgerichtet sind, ohne dass dies (leicht) aufgedeckt werden kann. Auf solche ethischen Grenzfälle verstehen sich Profis, die mit dem Wissen nicht um sich werfen und deren Arbeit auch durchaus verschiedene Gautöne annehmen kann. Als „Selbstoptimierer“ sollten Sie sich aber auf dieses Spiel nicht einlassen und eine sprichwörtlich eine weiße Weste wahren. Damit Sie nicht versehentlich in die Falle tappen, hier die Top 5 der Optimierungsfehler:

Auffälliger („unnatürlicher“) Linkaufbau

Es ist bekannt, dass Google mit seinem PageRank Webseiten bester platziert, auf die möglichst viele Webseiten mit einem hohen PageRank verweisen. Der PageRank von anderen verweisenden Webseiten wird quasi an die eigene Webseite vererbt. Viele Anfänger machen allerdings entscheidende Fehler: Sie versuchen in kurzer Zeit möglichst viele Links im Linktausch zu erzielen, ohne darauf zu achten, dass die Links auch themenverwandt und nicht im direkten Linktausch, sondern möglichst ohne Backlink (und wenn, dann nur im über Dreieck) erfolgen sollten. Außerdem sollten es möglichst keine „gekauften“ Links sein, denn dies lässt Google schnell und nachhaltig misstrauisch werden.

Ein „unnatürlicher“ Linkaufbau zeigt sich auch über einen gewissen Zeitraum. Sollte Ihre Webpräsenz schon seit Jahren bestehen und nur wenige Links gesammelt haben, plötzlich hagelt es aber wöchentlich eingehende Links, ist dies auffällig, weil so ein dramatischer Linkaufbau kaum zu erklären ist – es sei denn, Sie haben ein neues Angebot, dass dieses Interesse erklären könnte. Das würde Google aber auch am plötzlichen Wachstum des Anteils am Suchvolumen spüren, welches Ihre Site erfahren würde, wenn Sie wirklich als einizger im Web Neufahrzeige für einen Euro anbieten würden…

Das so genannte „Linkprofil“ sollte auch bei einem künstlichen Aufbau durch selbst eingeleitete Maßnahmen also möglichst „natürlich“ wirken. Damit ist vor allem auch die „Qualität“ der linkgebenden Seiten gemeint. Neben den Themen der Sites / Seiten ist auch der PageRank zu beachten. Wenn Sie jede Menge Links von Seiten mit PR 5 oder höher haben, aber kaum Links von geringer gerankten Sites, wirkt dies für jedem Betrachter auffällig – so auch für Google. Linktexte sind ein weiterer Aspekt. Wenn alle oder auffällig viele Links als Ankertext „Atomkraftwerke kostenlos“ verwenden, spricht dies für konstruierte Links, denn bei natürlichem Aufbau würde jeder Linkgeber einen eigenen Text wählen und mal den Namen des Anbieters, mal die Webadresse und mal dieses oder jenes Keyword (bzw. Phrasen in verschiedenen Kombinationen) verwenden.

Die Auswahl der Linkpartner kann ebenso entscheidend sein… wenn Sie sich für das falsche verlockende Angebot „zahlreicher relevanter Links zum kleinen Preis“ entscheiden. Denn besonders abgestraft werden Webpräsenzen, die mit Seiten verlinkt sind, die aus dem Suchmaschinenindex, zum Beispiel aufgrund massiven Spammings, ausgeschlossen oder abgestraft wurden. Die Folge dieser „Bad Neighbourhood“ (zu Deutsch: „schlechte Nachbarschaft“ als Bezeichnung für Webseiten, die aus verschiedenen Gründen bei Google in Ungnade gefallen und vom Index ausgeschlossen sind) ist eine schlechtere Bewertung der eigenen Webseiten bei Google.

Zu viele Keywords

Viele Webseiteninhaber übertreiben es mit der Keywordoptimierung und platzieren unzählige Keywords für die einzelnen Seiten. Keywords sollten nur gezielt ausgewählt und auf die entsprechende Seite zugeschnitten verwendet werden. Vollkommenden überholtes Keyword Spaming, z.B. durch Unmengen an versteckten Keywords in weißem Text auf weißem Hintergrund, sollte auf keinen Fall eingesetzt werden. Derartige Versuche werden längst von Google erkannt und abgestraft. Webseitenbetreiber sollten stattdessen auf sinnvolle Seitentitel, Überschriften und vor allem passende Inhalte mit zugehörigen, ausgewählten Keywords achten. Wie Sie die richtigen Keywords finden, erfahren Sie im Artikel „Keywordrecherche: Die richtigen Suchbegriffe finden“. Hüten Sie sich auch vor der Angabe massenhafter Begriffe in den Metadaten einer Seite oder Keywords, die gar nicht im Text vorkommen!

Inhalte, die nur für Suchmaschinen sichtbar sind

Es gibt sie immer noch: Tricks, mit denen man Texte vor Besuchern verstecken kann, die aber eine Suchmaschine für „normale“ Inhalte der Seite hält. Das Ziel solcher Tricks ist es immer, der Suchmaschine Keywords in besonders schmackhafter Form und hoher Dichte unterzuschieben, ohne sich dabei die Mühe machen zu müssen, wirklich sinnvolle und auch für einen echten Besucher mit konkretem Interesse inhaltsvolle Texte zu erstellen. Sei es aus Mangel an Zeit oder wegen fehlender Kreativität: Hüten Sie sich vor allen Techniken, die dem beschriebenen Zweck dienen. Eine gut optimierte Seite zeichnet sich dadurch aus, dass der Quelltext mehr oder weniger genau das enthält, was auch im Browser zu sehen ist und möglichst wenig andere Dinge. Es geht aber (leider) auch anders:

  • Überschwemmte „noframes“ – Bereiche
  • per CSS oder Formatierung verborgener Text
  • Überblendung von Texten durch Grafiken oder andere Inhalte
  • Dynamisches Nachladen des „eigentlichen“ Textes als Ersatz für den Text, der der Suchmaschine untergeschoben werden soll

Diese und ähnliche Mittel sind potentiell gefährlich. Dumm nur, dass man das eine oder andere davon auch einsetzen kann, ohne sich dessen bewußt zu sein. Oder man setzt einzelne Techniken ein, die eigentlich dem Wohl des Benutzers dienen und dennoch für unterschiedliche Inhalte aus Sicht von Suchmaschine und Browser führen. AJAX ist ein gutes Beispiel: Sollten Sie etwa wirklich die Finger davon lassen? Jein. Denn: Dient es dem Benutzer, kann es nicht unethisch sein. Man kann diese Mittel aber auch nutzen, um (wissend) Betrug an der Suchmaschine zu betreiben. Denn werden wesentliche Abschnitte des „ursprünglichen“ Inhalts, wie ihn eine Suchmaschine sieht, per AJAX mit vollkommen anderen Inhalten ersetzt, passiert dies nur höchst selten aus Versehen. Denken Sie also bei jeder technologischen Umstellung daran, ob dies Konsequenzen für die „Konsumierbarkeit“ der Seiten durch Suchmaschinen hat.

Falsche Weiterleitungen

Eigentlich als Sonderfall der zuvor beschriebenen ungeliebten Differnez zwischen dem, was ein Besucher und eine Suchmaschine zu sehen bekommen, sind browsergesteuerte Weiterleitungen. Verzichten Sie unbedingt auf sogenannte automatische Redirects per JavaScript oder „Meta-Refresh“ – zumindest bei allen Seiten, die nicht ausschließlich funktionaler Natur sind und deren Adresse nicht in Suchmaschinen auftaucht. Solche Automatische Weiterleitungen, die zum Beispiel gern mit Hilfe von Java Script erzeugt werden, mögen ihre Berechtigung dort haben, wo Sie „virtuelle Seitenadressen“ benötigen und keinen Zugriff auf die Weiterleitungsregeln des Servers haben. Alle Seiten, deren Inhalt aber für Suchmaschinen zugänglich ist und auch in den Index aufgenommen werden darf, sollten unbedingt von solchen Weiterleitungen freigehalten werden! Denn automatische Redirects werden von Google häufig als Doorwaypages erkannt.

Dieses Mittel diente bis vor einiger Zeit massenhaft dazu, Google mit zahlreichen Keywords angereicherte Eingangsseiten (so genannte „Brückenseiten“) unterzuschieben, die der Suchmaschine suggerierten, dass die Seite besonders relevant zu einem bestimmten Thema ist. Durch die Weiterleitung im Browser wird diese Seite dem Besucher aber gar nicht angezeigt, sondern er wird auf ein beliebiges anderes Angebot weiterleitet. Da diese Technik also potentiell „immer“ dazu dient, eine Suchmaschine zu täuschen (und weil diese früher oft erfolgreich angewendet wurde, dem Besucher auf der eigentlichen Zielseite Schädlinge auf dem System unterzuschieben), wird es bei Erkennen durch Google fast sicher zu negativen Folgen kommen. Ihre Site – nicht nur die gegen die Richtlinien verstoßenden Seiten – werden bestraft, was in einer schlechteren Gewichtung oder sogar dem kompletten Ausschluss der Webseite bestehen kann.

Aber auch serverseitige Weiterleitungen können suchmaschinenunfreundlich sein, weil falsche Statuscodes zum Einsatz kommen, obwohl diese dem eigentlichen Zweck, Traffic zu erhalten und Anfragen auf die alte Adresse zur neuen Seite zu lenken, de facto erfüllen. Hierzu lesen Sie mehr im Beitrag zur Optimierung bestehender Inhalte.

Auffälligkeiten durch Automatismen

Alles, was „automatisch“ gemacht werden kann , birgt die Gefahr, dass es unnatürlich wirkt. Und da gerade bei Google alles, was nicht auf normalem Weg zustande gekommen zu sein scheint, verdächtig wirkt, müssen Sie Automatisierungen immer mit Vorsicht betrachten. Das bedeutet nicht, dass Sie sich die Arbeit nicht durch Programmcodes, Makros und Hilfsprogramme aller Art einfacher machen sollen, wo immer es geht. Aber hüten Sie sich davor, dass durch den Einsatz eines solchen Werkzeugs ein unnatürlich hohes Volumen an Informationen, Links, Seiten oder sonstiger Informationen im Zusammenhang mit Ihrer Website erzeugt wird.

Dazu gehört z. B. ein behutsames Wachstum einer bestehenden Webpräsenz. Haben Sie sich plötzlich entschieden, den seit mehreren Jahren mehr oder weniger unveränderten 30 Seiten neuen Content hinzuzufügen, sollte dieser möglichst behutsam publiziert werden. Also nicht immer 3000 neue Seiten pro Woche hinzufügen und per XML-Sitemap anmelden, wenn es nicht erforderlich ist – nur weil die auomatische Konvertierung von Inhalten in die Datenbank des CMS so einfach war… besser ist es, die Inhalte einzeln auf gewählte Keywords zu Optimieren und dann in der Frequenz zu veröffentlichen, in der die Überarbeitung erfolgen kann. Möglichst also auch nicht immer stur 10 gleich lange Seiten pro Woche, sondern eben „natürlich“… Sie haben den Punkt sicher bereits verstanden. Auch eine automatische Anpassung der Seitenquelltexte (bestehend aus mehr oder weniger sinnloser Umstellung der Inhalte), die der Suchmaschine stetige Aktualisierung der Seiten vorspiegeln soll, ist aus gleichem Grund erfolgreicher, wenn Sie nicht immer Dienstags um 15.00 Uhr vorgenommen wird.

Vorsicht sollte zu guter letzt auch bei automatischen Suchmaschineneintragungsprogrammen geboten sein. Was zwar nicht für alle verfügbaren Produkte gilt, ist zumindest leider auf die meisten kostenlosen Dienste anwendbar: Sie schaden mehr als sie Nutzen. Diese automatischen Eintragungsdienste melden zum Beispiel eine Webpräsenz bei unzähligen und auch unnützen Suchmaschinen und Verzeichnissen an. Dabei hat der Inhaber der Webseite keinerlei Kontrolle mehr darüber, wo seine Webpräsenz eingetragen wird. Häufig kommt es bei derartigen automatischen Anmeldungen in zur Abwertung der Webpräsenz. Zur Abwertung hinzu kommt es anschließend häufig zu einer Sinnflut an ungewünschten Werbemails.