Tipps zur Suchmaschinenoptimierung - Kapitel "Grundlagen-Technologie"

Warum technische Prüfung (Validierung) Ihrer Webseiten wichtig sein kann

Ihr Design ist frei von Darstellungsfehlern in den gängigen Browsern, Sie benutzen wenig Grafik oder Flash und Ihre Inhalte bestehen aus suchmaschinenfreundlich gestalteten Texten. Wenn dennoch alle oder einzelne Suchmaschinen generell keine Treffer für alle oder einzelne Seiten anzeigen, selbst wenn Sie relativ lange Abschnitte aus dem Inhalt als Suchbegriff verwenden, kann das daran liegen, dass es der Suchmaschine gar nicht gelungen ist, den kompletten Inhalt zu erfassen…

Vorab bemerkt: der beschriebene Fall ist sicher eine Ausnahme von der Regel und in den meisten Fällen können die Suchmaschinen „mindestens“ so viel Inhalte wie ein Browser auswerten; manchmal sogar mehr als das. Dennoch können Fehler im Seitenquelltext, die ein Browser irgnoriert oder verzeiht und automatisch in Form der gewünschten Darstellung korrigiert, für eine Suchmaschine bedeuten, dass wesentliche Teile des Textinhalts als Script, Kommentar oder sonstwie „unbrauchbarer“ Inhalt missinterpretiert werden.

Um sicher zu stellen, dass dieses Risiko für Ihre Seiten möglicht gering ausfällt, sollten Sie unabhängig von der Fähigkeit der Spider, mit Fehlern umzugehen, darauf bedacht sein, möglichst fehlerfreie oder zumindest fehlerarme Seitenquellcodes zu liefern. Da ein Spider die Seiteninhalte „parsen“ muss, was der Auswertung nach einem fest stehenden Regelwerk gleichkommt, sollte eine Webseite also möglichst wenige Ausnahmen der Regeln beinhalten, um die Erfassung nicht zu verhindern oder falsche Interpretation der Inhalte zu begünstigen.

Dazu dient die Validierung des Seitenquellcodes anhand der verwendeten HTML-Variante, die zumeist im Kopf des Seitenquelltextes angegeben ist. Auch beim Fehlen dieser Angaben existiert ein „Standardregelwerk“ , nach dem eine Seite validiert – also überprüft – werden kann.

Die technische Ausführung einer einzelnen Internetseite (oder im Ausnahmefall auch der allgemeine Rahmen eines Webauftritts, so dass der Fehler auf jeder Seite vorhanden ist) darf sicher auch einige „geringere“ Fehler enthalten. Browser verzeihen dies heutzutage ohnehin gern, so dass viele Inhalte dennoch richtig angezeigt werden, obwohl der Quellcode fehlerhaft ist. Dabei wird sowohl ein Satz von zusätzlichen Ausnahmefällen berücksichtigt, als auch einzelne Reglen aufgeweicht (wie das ordnungsgemäße Schließen aller HTML-Tags; z. B. bei Tabellen) oder ein typischer menschlicher Fehler (Dreher in Tag-Bezeichnungen, fehlende Leerzeichen u. Ä.) automatisch korrigiert. Spider müssen mit den gleichen Problemen kämpfen und kennen daher zumeist ähnliche „Sonderregelungen“, die bei der Auswertung eines Seitenquelltextes für möglicht vollständige Erfassung des Inhalts sorgen sollen.

Wenn Sie aber sicher sein wollen, dass auch die Technologie der Suchmaschinen das „sieht“, was ein Browser anzeigen kann – zumindest mit den bereits in anderen Beiträgen genannten Einschränkungen der konkreten Formatierung oder „suchmaschinenunsichtbarer“ Inhalte -, sollten Sie überprüfen, ob neue oder geänderte Seiten Fehler enthalten, die ggf. zum Abbruch der Erfassung einer Seite durch eine Suchmaschine führen könnten. Dazu dienen zahlreiche Validatoren im Web, allen voran der Validator des W3C unter validator.w3.org. Hier finden Sie auch Verweise zu weiteren online nutzbaren Prüfprogrammen für das CSS-Design Ihrer Seite oder die Gültigkeit der ausgehenden und internen Links einzelner oder aller Seiten.