Tipps zur Suchmaschinenoptimierung - Kapitel "Grundlagen-Arbeitsweise von Suchmaschinen"
Die 23 Panda-Fragen: Ist Qualität so wirklich messbar?
Mit der stärkeren Fokussierung auf „messbare“ Qualität von Inhalten hat Google´s „Panda / Farmer“-Update im englischsprachigen Raum nicht nur für Bewegung in den Suchergebnissen, sondern auch für viel Diskussion – und in der Einführungsphase auch zahlreiche Kollateralschäden gesorgt. Nicht alle Websites, die man inhaltlich eigentlich als ideales Ziel für eine Qualitätsverbesserung der Suchergebnisse gehalten hätte, sind wirklich betroffen und wie beabsichtigt tatsächlich weniger gut positioniert oder gar „unsichtbar“. Andere Opfer hingegen sind auf den ersten Blick nicht wirklich nachvollziehbar. Angesichts der vergleichsweise komplexen Aufgabe der Bestimmung eines „objektiven“ Faktors für Inhaltsqualität – selbst wenn man dazu Menschen einsetzt – ist die Wahrscheinlichkeit von Fehleinschätzungen durch maschinelle Lösungen noch ungleich höher. Das wirft die die Frage auf, ob dieses aktuell doch offenbar noch so schlecht messbare Kriterium wirklich so gravierend auswirken darf, wenn man selbst bei so uninterpretierbaren und klaren Kennzahlen wie Ladezeiten, Keyworddichte, Ankertexten etc. mitunter sehr vorsichtig zu Werke zu gehen scheint, obschon man mit diesen Faktoren schon viel länger hantiert als mit der „Inhaltsqualität“.
„Das wird schon werden“. Wirklich?
Oder anders gefragt: Liegen die Probleme bei der derzeit stattfindenden Einführung wirklich – wie in der Vergangenheit – an ungewollten „Ecken“ einer noch neuen Lösung, die nur abgeschliffen werden müssen, damit das erwartete Ergebnis dabei irgendwann herauskommt? Oder ist das eigentlich gar nicht möglich und wird daher auch potentiell zu einem dauerhaften Problem?
In anderen Märkten (sprich: bei uns) kommen dann noch weitere Fragen dazu, wie z. B. „Wenn es denn wirklich eine algorithmische Lösung gibt (was aktuell noch nicht zwingend von jedem geglaubt wird, da man die Auswirkungen des Updates problemlos auch mit „manueller Korrektur“ des Index erreichen kann)… funktioniert diese dann auch in anderen Sprachen ebenso gut?“
Dem beunruhigten Webmaster deutschsprachiger Inhalte bleibt daher neben dem Prinzip Hoffnung* eigentlich nur, sich selbst kritisch mit den Fragen zu befassen, die nicht nur Rater, sondern auch „der Algo“ bei Google beantworten kann. Diese sind unter dem hochoptimierten Link http://googlewebmastercentral-de.blogspot.com/2011/05/weitere-tipps-zur-erstellung-qualitativ.html im Blog der Google Webmaster-Zentrale nachzulesen.
Wer anschließend das Gefühl hat, auf der sicheren Seite zu sein, sollte sich trotzdem die Mühe machen, noch einmal einige Dinge genauer zu kontrollieren… denn nur, weil man selbst nicht wissentlich für Probleme gesorgt hat, muss das nicht unbedingt bedeuten, dass es keine gibt. Abgesehen von Problemen, die wirklich nur auf der Ebene einzelner Seiten genau kontrolliert werden können (wie z. B. die korrekte Rechtschreibung) und den Aspekten, die man als Webmaster auch ohne genaue Kontrolle überblicken sollte (wie z. B. die Anzahl und Platzierung von Werbeblöcken) sind das vor allem Dinge, die sich mit dem dritten Punkt befassen: „Weist die Website doppelte, sich überschneidende oder redundante Artikel zu denselben oder ähnlichen Themen auf, deren Keywords leicht variieren?“.
„Taktische Doubletten“ als Zeitbombe
Wer z. B. für verschiedene Keywordvarianten irgendwann einmal mit voller Absicht „Doubletten“ erstellt hat, die mehr oder weniger nur durch den Austausch von Variante A gegen Variante B („Schraubenzieher“ vs. „Schraubendreher“) entstanden sind – und damit bisher wirklich Traffic bekommen hat – sollte unbedingt einen genauen Blick auf die Überschneidungen werfen. Stellt sich dabei das Gefühl ein, der Text sei ja „ganz anders“ und der Inhalt „nur“ hinsichtlich der Bedeutung gleich, steht zwar nicht mit einem Bein im Panda-Filter, muss sich aber offenbar nun noch klarer als zuvor bewusst sein, dass es irgendwann vielleicht nicht mehr des Besuchs eines menschlichen Raters von Google bedarf, um unangenehme Konsequenzen zu spüren. Je nachdem, wo also bisher die persönliche Grenze für saubere Optimierung gelegen hat, ist Umdenken gefragt.
Ein paar Leichen aus dem Keller zu holen und / oder sich vorab mit der eigenen Arbeit (oder der des Vorgängers) überall dort vertraut zu machen, wo man nicht ohnehin ständig arbeitet und den Content genau kennt, lohnt sich aber durchaus; vor allem bei älteren und größeren (und damit für den einzelnen „unübersichtlichen“) Websites. Um sich auf die richtigen Bereiche zu konzentrieren, helfen neben den Webmastertools gern auch die Webanalyse („Welche Bereiche bekommen Traffic, ohne dass man genau weiß ,welcher Content dafür verantwortlich ist, da er nicht zu den Hauptkeywords gehört?“). Abschließend lohnt es sich auch, zumindest für seine wichtigsten Seiten (gemessen sowohl nach Traffic, Umsatz und auch Struktur der Site) gezielt nach Doubletten zu suchen, die außerhalb der eigenen Domain zu finden sind, indem z. B. nach längeren Passagen des Seiteninhalts gegoogelt wird oder Tools wie Copyscape u. a. eingesetzt werden.
„Bei mir sind alle 23 Antworten ein Problem.“ Was tun?
Umdenken und Aufräumen ist möglicherweise auch erst in einem neuen Projekt sinnvoll. Denn wer schon heute sicher sein kann, dass er allein schon aufgrund des Geschäftsmodells (und nicht nur einzelner Seiten) ein sicherer „Panda-Kandidat“ ist, muss sich nicht mehr die Mühe machen, sondern kann ganz unentspannt erwarten, was mit der bestehenden Domain passiert. Statt Energie in bestenfalls kurzfristig wirkende Rettungsversuche zu investieren, sollte nach einem kurzen und verträumten Blick zurück auf das mit einem (oft mit einem Minimum) Erreichte langfristig nach vorn gedacht werden. Und das bedeutet dann mitunter auch, nicht nur ggf. eine neue Domain und „sauberere“ Methoden zum Neustart zu verwenden, sondern im Einzelfall auch, den Charakter der Site wesentlich umzuformen und / oder andere Monetarisierungswege zu suchen. Denn ob Panda nun manuell oder automatisch funktioniert und wie lange es auch dauern mag, das gesteckte Ziel zu erreichen… Google wird hier nicht mehr großartig zurückrudern und die „guten alten Zeiten“ (wenn man diese Perspektive denn einnehmen will) sind ebenso Geschichte wie Metatag-Spam oder versteckter Text. Geht nicht mehr und war aus Besuchersicht auch noch nie wirklich hilfreich.
*) … oder der fundierten Sicherheit, dass seine Seiten voller selbstgeschriebenen (und von niemandem kopierten) relevanten Inhalten, die werbefrei und mit ebenso sparsamen sowie passenden Titeln, eindeutigen URLs und dank schlanken Quellcode und optimiertem Server schnell von jedem erreichbar sind, der auf einen der rein natürlich gewachsenen zahlreichen Links auf themenverwandten Websites oder den mit Likes gespickten Social-Media-Plattformen geklickt hat… 😉