Tipps zur Suchmaschinenoptimierung - Kapitel "Grundlagen-Keywords"

Stolperfallen bei der Keyworddichte

Im Idealfall schreibt man einen Beitrag in einem Blog oder den Inhalt einer neuen Seite im CMS der eigenen Website mit einem bestimmten Begriff – oder einer Kombination – im Hinterkopf und versucht, den Begriff an wichtigen Stellen wie Titel, Überschriften etc. unterzubringen. Auch im eigentlichen Text sollte der Begriff bekanntermaßen in einer gewissen Häufigkeit vorkommen. Dass diese Häufigkeit seine Grenzen hat und die Keyworddichte nicht nur messbar „niedrig genug“, sondern vor allem für einen Leser erträglich im Rahmen gehalten werden muss, ist dabei nicht die einzige Einschränkung, der man sich dabei unterwerfen sollte. Was – auf was soll man denn bitte noch achten, wenn man einen Text online stellt? Ist es nicht schon schlimm genug, dass man an allen Ecken kürzen, umstellen und im Bild-Stil überschreiben muss? Doch, aber…

Es ist ebenso unangenehm, dass man OnPage in den meisten Fällen ohnehin nur einen kleinen Teil der gewünschten Strecke nach oben im Ranking schaffen kann… Anzeichen von Unnatürlichkeit lauern offenbar an allen Ecken und scheinen übermäßige SEO-Bemühungen mit aller Härte von Filtern und anderen Strafen zu treffen. Man könnte den Eindruck bekommen, dass Suchmaschinen aber auch wirklich alles, was man zur Optimierung einer Seite getan werden kann, todsicher entlarvt und bestraft. Ist die Wirklichkeit aber tatsächlich so? Sicher nicht. Die Fälle, in denen ein übereifriges Experiment auf einer Seite die ganze Domain in den Ruin gestürzt hat, sind weitaus seltener als Domains, auf denen über längere Zeit „Nebenprojekte“ betrieben werden, die klar nicht im Sinn der Suchmaschinen sind und dennoch keinen negativen Einfluss auf die Domain im Ganzen zu haben scheinen. Das liegt nicht zuletzt sicher auch daran, dass es mit der stetig wachsenden Datenmenge, die es zu verwalten und in Zusammenhang zu bringen gilt, immer schwieriger wird, „Verfehlungen“ (die diesen Namen freilich oft nur aus Sicht der Suchmaschinen verdient haben) automatisiert aufzudecken. Dennoch sollte man einige Dinge im Hinterkopf behalten, die vor allem dann in´s Gewicht fallen, wenn sich daraus unnatürliche Muster bilden, die über längere Zeit oder viele Seiten / Beiträge erkennbar sind. Genau wie ein natürlicher (oder als Kunst der Linkbuilder: natürlich wirkender) Linkaufbau notwendig ist, um nicht in die Fall zu tappen, sollte auch die Herstellung einer gewissen Keyworddichte möglichst „natürlich“ wirken. Folgende Dinge verdienen bei der Generierung, Messung und „Wartung“ von Keywords und deren Dichte auf einer Seite zusätzliche Beachtung:

  • „Immer schön auf fünf Prozent“: Jeder kennt und verwendet andere Zahlen, aber überall existiert ein im Kopf hängengebliebener „Grenzwert“ für die Keyworddichte. Und obschon manchmal auch eine Keyworddichte unter einem Prozent im Longtail schon ausreichen kann, darf es für viele „immer auch etwas mehr sein“. Wer das auf die Spitze treibt und jeden seiner Blogbeiträge auf klar erkennbare Keywords auslegt, die dann in einer fast immer gleichen Dichte in den Blogposts enthalten sind, erstellt auf die Dauer keinen natürlich und primär für den Besucher generierten Content, was auch einer Suchmaschine nicht entgehen kann…
  • „Von Null auf Hundert in einem Schritt“: Gerade bei der Überarbeitung bestehender Seiten sollte man nicht dem Drang nachgeben, bisher „total falsch gewählte Keywords“ massenhaft durch neue Begriffe zu ersetzen. Auch die bei der Überarbeitung bestehender Texte gern gewählten Umformulierungen, die dazu dienen, die Schreibweise eines Keywords zu vereinheitlichen, lesen sich oft nicht nur holpriger als die Vorgängerversion des Textes, sondern verringern automatisch auch die Keyworddichte für die dabei „eliminierten“ anderen Schreibweisen oder Synonyme. Diese können nun ihrerseits vielleicht keine Besucher mehr bringen und zahlen auch nicht mehr über den (auch automatisiert) erkennbaren semantischen oder thematischen Zusammenhang auf das Ursprungskeyword und die „Gehaltsfülle“ des Textes ein. Mäßigung ist also auch hier keine schlechte Idee und jede Umstellung sollte genau abgewägt werden.
  • Isoliert betrachtet OK, aber….„: Jede Seite kann sinnvoll nur für wenige Keywords optimiert werden… soviel ist bekannt. Was aber, wenn aus dieser Erkenntnis „zu viele“ Seiten entstehen, die alle zwar mit einzigartigem und exklusiv geschriebenem Content ausgestattet werden, um Duplicated Content-Probleme zu vermeiden, aber in der Gesamtheit ein relativ klares Signal aussenden, dass möglichst viel Traffic zu diesem Begriff und seinen Varianten erzwungen werden soll? Driftet dieser Punkt schon in den Bereich der paranioden Ängste vor Google-Filtern ab oder hat er eine reale Basis? Zumindest auf einer Liste der Dinge, die an Keyworddichte und -platzierung unnatürlich wirklen können, sollte er vielleicht nicht fehlen. Nur so zur Sicherheit 😉
  • Kein passender Kontext: Viel realer ist die Gefahr, Keywords in einen unpassenden Zusammenhang  einzustreuen. In einer Zeit, in der Suchmaschinen bestrebt sind zu erkennen, ob es sich bei einer Seite um menschen- oder maschinenproduzierten Content handelt, entscheidet oft der Kontext eines in nennenswerter Menge vorkommenden Keywords darüber, ob die Seite für „potentiell wertvoll“ erachtet wird oder nicht. Umso wichtiger also, nicht einfach Keywords in einen bestehenden Text einzustreuen, nur weil diese  viel Traffic versprechen. Davon abgesehen bleiben die so generierten Besucher nur so lange, bis sie (relativ schnell) erkennen, dass der Text keine brauchbaren Informationen zum eigentlichen Thema bietet.
  • Immer an der gleichen Stelle (gähn): Wenn SEO – Anforderungen für einen Autoren langsam zur Routine werden und Texte stets mit bestimmten und bewusst gewählten Keywords versehen werden, kommt die Gefahr hinzu, dass Keywords immer an den Stellen platziert werden, an denen sie offenbar gut funktionieren. Wird jeder Text immer nach dem gleichem Muster geschrieben und beinhaltet die Keywords stets am Anfang des Titels, der Überschrift und der ersten Absätze, während es danach zu Gunsten von Synonymen und anderen Details langsam in den Hintergrund rückt, dann ist das zwar vorbildlich und auch für Suchmaschinen meistens kein Problem (ganz im Gegenteil)… die Inhalte wirken dann aber für den regelmäßigen Besucher irgendwann möglicherweise sehr eintönig, weil das „Strickmuster“ dahinter erkennbar ist. Auf diese Weise kann SEO zumindest für die Besuchertreue negative Folgen haben.
  • Web 2.0 vs. SEO: Eine „fertige“ Seite kann besonders dann dauerhaft in den Suchergebnissen funktionieren, wenn sie regelmäßig aktualisiert oder „korrigiert“ wird. Manuelle Pflege ist hierzu aber gar nicht immer erforderlich, denn Bewertungs-/Empfehlungsfunktionen, Kommentare in Blogs und andere Möglichkeiten für den Besucher, den eigenen Content zu bereichern, sorgen in vielen Fällen bereits ohne das Zutun des Webmasters dafür, dass sich der Inhalt im stetigen Fluss befindet. Dies hat aber auch seine Kehrseite: Wenn ein Beitrag in einem Blog ein abgestimmtes Verhältnis bzgl. der Keyworddichte bietet und anschließend ein Vielfaches des ursprünglichen Contents in Form von Kommentaren hinzukommt, muss das zwangsläufig auch die Keyworddichte beeinflussen. In einem besonders viel kommentierten Beitrag ist es daher mitunter sinnvoll, durch eigene Kommentare bzw. Antworten auf die Kommentare dafür zu sorgen, dass dieses Verhältnis wieder einigermaßen ausgeglichen wird.
  • Ständige Wiederholungen im Quelltext:  Auch über den reinen Textcontent hinaus kann man es mit der Platzierung der Keywords durchaus übertreiben. Wird bei allen Attributen aller Bilder auf einer Seite ständig das Keyword wiederholt und heißen die Bilder dann auch noch keyword1.jpg bis keyword234.jpg, wird das in der Regel nicht zum Erfolg führen – es ist einfach nicht subtil genug, um nicht sogar einem Bot direkt aufzufallen.

Nochmal: Keiner der obigen Punkte sollte allein ausreichen, um negative Konsequenzen zu provizieren. Und selbst bei Zusammenfallen aller Merkmale auf einer oder mehreren Seiten muss nicht zwangsweise etwas Schlimmes passieren. Aber da gerade der „Selbstmach-SEO“ – ob aus Interesse oder Zwang – gern dazu neigt, möglichst alle ihm bekannten Mittel zur Optimierung auf alle zu optimierenden Seiten anzuwenden, soll dieser Beitrag dazu anregen, die im Linkaufbau vielzitierte Natürlichkeit auch bei der Contentpflege (und den Nutzen für den Besucher) nicht aus den Augen zu verlieren, wenn man dem Bestreben nach besserer Platzierung und optimierter Inhalte nachgibt.

Diese Liste erhebt keinesfalls einen Anspruch auf Vollständigkeit. Sicher fehlen noch Punkte oder es kommen neue Anforderungen bzw. potentielle Problemindikatoren hinzu, wenn sich der „Kampf“ zwischen SEO und Suchmaschinen weiter fortsetzt. Wer Kommentare in Form von Ergänzungen dieser Liste hat, ist daher bei diesem Beitrag besonders dazu aufgerufen, weitere „Muster-Stolperfallen“ aufzuzählen und die Keyworddichte für den Begriff „Keyworddichte“ in diesem Beitrag damit weiter zu verwässern 😉