Tipps für die such­ma­schi­nen­ge­rech­te Ge­stal­tung von Web­si­tes - ohne faule Tricks

Home

1. Worum geht es?

2. Inhalte Ihrer Site

3. Technische Realisierung und HTML-Code

4. Meine Site ist fertig - kann ich sie jetzt für Suchmaschinen anmelden?

4.1 Alle Texte vollständig und korrekt? Keine Blindtexte oder Defaulttexte verblieben?

4.2 HTML-Validierung

4.3 Linküberprüfung

4.4 robots.txt

4.5 Groß- und Kleinschreibung bei Links beachtet?

5. Jetzt ist meine Site aber wirklich fertig. Was jetzt?

6. Meine Site ist suchmaschinenfreundlich und angemeldet - was nun?

7 Exkurse: Einige Gesichtspunkte, die nicht direkt die suchmaschinengerechte Gestaltung betreffen.

Schlüssel zu den Auszeichnungen im Text:

Negativbeispiele Beispiele Nützliche und weiterführende Websites

4. Meine Site ist fertig - kann ich sie jetzt für Such­ma­schi­nen an­mel­den?

4.1 Alle Texte vollständig und korrekt? Keine Blindtexte oder Defaulttexte verblieben?

Mit diese Google-Suche finden Sie eine große Anzahl von Seiten, die den beliebten Blindtext "lorem ipsum dolor sit amet..." im Titel führen.
Diese Suche zeigt Ihnen mehr als 50.000 deutschsprachige Websites, die mit dem Titel "Neue Seite" in der Suchmaschine erscheinen.
Es liegt auf der Hand, daß diese Nachlässigkeit die Benutzer von Suchmaschinen schwerlich positiv beeindrucken wird.

4.2 HTML-Validierung

Das zuverlässigste Onlineangebot zum Validieren von HTML-Seiten ist der W3C HTML Validation Service

4.3 Linküberprüfung

Xenu's Link Sleuth ist ein ausgezeichneter, kostenloser Linkchecker und läuft auf Windows 95/98/ME/NT/2000/XP. In der aktuellen version kann er sogar fehlerhafte Links zu Anchor-Tags innerhalb einer Seite finden, z.B. einen Link zu http://domain.com/seite.html#abschnitt, wenn zwar die Seite http://domain.com/seite.html existiert, aber nicht der Sprungziel-Tag <a name="abschnitt"> auf dieser Seite.
Der W3C Link Checker ist eine kostenlose Onlineanwendung. In der Onlineausführung kann er rekursiv nur 150 Dokumente überprüfen. Bei der Überprüfung großer Websites ist Xenu's Link Sleuth schneller.

4.4 robots.txt

robots.txt - Robots kontrollieren (SELFHTML)
Robots.txt Validator (Search Engine World) - überprüft robots.txt auf syntaktische Fehler.

4.5 Groß- und Kleinschreibung bei Links beachtet?

Die Groß- und Kleinschreibung von Dateinamen wird von Windows-Betriebssystemen einerseits und Unix-Bebetriebssystemen andererseits verschieden gehandhabt:

4.6 Hat jedes Verzeichnis eine Defaultseite?

Wenn Sie Webseiten in Verzeichnissen organisieren (z.B. einen Artikel als http://www.beispielsite.de/artikel/art030124.htm ablegen), dann müssen Sie damit rechnen, daß sowohl neugierige Websurfer als auch Suchmaschinenspider auf der suche nach neuem Futter für ihren Index versuchsweise die URL für das Verzeichnis aufrufen. Beispielsweise im obigen Beispiel die URL http://www.beispielsite.de/artikel/.

Je nachdem, ob Sie eine Indexseite für das Verzeichnis erzeugt haben und wie der Webserver konfiguriert ist, kann das u einemd er folgenden Ergebnisse führen:

Welche der oben genannten Möglichkeiten zutrifft, ersehen Sie indem Sie die Verzeichnis-URL aufrufen. Die erste der genannten Möglichkeiten (Indexseite) ist vorzuziehen, weil Sie dadurch die Navigation durch das Verzeichnis nach Ihren Vorstellungen steueren können.

Wenn der verwendete Webserver Apache ist, dann können Sie das Verhalten beim Aufruf der Verzeichnis-URL mit den Direktiven DirectoryIndex und Options Indexes steuern.

Seite zuletzt geändert 2003-04-18 durch Tomas Schild

Home