Technisches SEO und digitale Strategie

Archiv 10 / 2008

Die schönsten technischen SEO-Fehler

2008-10-14

Suchmaschinenoptimierung ist ein Allround-Thema. Marketing- und Design-Kenntnisse spielen ebenso eine Rolle wie das Wissen um technische Zusammenhänge. Mein Eindruck aus Beratungsprojekten der letzten Monate ist nun, dass sich die Bedeutung von SEO in Marketing- und sogar in Entscheiderkreisen weitgehend etabliert hat. Unter Technikern hingegen erscheint mir das Wissen um suchmaschinenfreundliche Technik immer noch recht rar zu sein. Daraus leitet sich die erste Regel für SEO-Consultants ab. Sie lautet:

Sei auf alles gefasst – und bereite dich darauf vor, trotzdem überrascht zu werden.

Als Anregung für alle Techies, deren SEO-Kenntnisse noch in den Kinderschuhen stecken, stelle ich hier ein paar der herausragendsten Fehler zusammen, die mir zuletzt in Beratungsprojekten untergekommen sind. Dabei geht es nicht darum, irgendwen bloß zu stellen. Die aufgeführten Lösungen funktionieren alle und sind aus rein technischer Sicht absolut in Ordnung. Suchmaschinen-Robots stellen allerdings hie und da andere Anforderungen.

  1. „Seite nicht gefunden“-Seiten zeigen Statuscode 200
    Auf klassischen HTML-Websites ohne Datenbank-Unterstützung war die Sache einfach. Konnte der Webserver eine Seite nicht finden, schickte er eine (eventuell zuvor passende gestaltete) Fehlerseite als Antwort und dazu den Statuscode 404. Dieser Code sagt dem Client, also dem Webbrowser oder dem Robot der Suchmaschine, dass die gewünschte Seite nicht auffindbar ist. Für die Suchmaschine heißt das also: Ich nehme diese Seite nicht auf bzw. lösche sie, falls vorhanden, aus meinem Index.
    Die heutigen Redaktionssysteme fangen solche Situationen meist ab; ein Request auf eine unbekannte URL dringt erst gar nicht bis zum Webserver durch. Denn ein CMS ist ja häufig so konzipiert, dass sich die URLs erst gar nicht als Datei auf dem Server befinden, sondern erst bei einer Anfrage aus der Datenbank generiert werden. Also ist das CMS für die Erstellung der Fehlerseiten zuständig – etwa dann, wenn ein Artikel aus der Datenbank gelöscht wurde.
    Kommt nun aber eine Anfrage nach einem solch gelöschten Artikel, sollte das CMS einen Statuscode 404 zurückliefern, damit die Suchmaschinenrobots wissen, dass der Artikel nicht mehr existiert. Ich habe aber mehr als nur einmal Kundenprojekte vorgefunden, die in einem solchen Fall einfach den Inhalt der Startseite mit dem Statuscode 200 (heißt so viel wie „alles okay“) zurückgeliefert haben.
    Das Ergebnis dieser Konfiguration: Das System läuft jahrelang wunderbar, auch Google hat nichts auszusetzen, denn 404-Fehler kommen selten vor. Eine Umstellung des URL-Schemas aber führt zu komplett neuen URLs mit der Konsequenz, dass die vielen externen Links auf Unterseiten zu 404-Fehlern führen. Das System sendet aber einen Statuscode 200 und Google nimmt somit unter den URLs des alten Schemas jeweils den Inhalt der Startseite auf. Irgendwann wird es Google zu viel und die Website wird wegen des so erzeugten Duplicate Contents abgestraft.
  2. Interne Fehler ergeben Statuscode 404
    Interessanterweise kommt auch der umgekehrte Fall in der Praxis vor. Dort wo ein Statuscode 500, der einen internen Fehler anzeigt, oder vielleicht Statuscode 408, der auf einen Timeout hinweist, angebracht wäre, wird ein Statuscode „404 – Seite nicht gefunden“ gesendet. Die Reaktion von Google darauf ist klar: Anstatt die Seite etwas später nochmals zu besuchen, wird die URL aus dem Index gelöscht. Da bei einem neuen Crawl die URL aber wieder über die interne Navigation auftaucht, wird Google die Seite künftig wieder aufnehmen – falls dann technisch alles in Ordnung ist. Deshalb fällt dieser Fehler selten unmittelbar auf. Wenn solche Fehler aber zusammen mit anderen Problemen auftreten, kann dies ein weiteres Mosaiksteinchen für erhebliche Google-Probleme sein.
    Auch dies ist ein Fehler, der gerne zusammen mit „geschickt“ programmierten Inhouse-Redaktionssystemen oder besonders innovativen Web-Frameworks auftritt.
  3. Wackelige Technik
    Spätestens mit Ruby on Rails wurden die MVC-Frameworks sehr beliebt. Und in der Tat erlauben es diese Frameworks, komplexe Websites in kürzester Zeit aufzusetzen. Doch kommt Bequemlichkeit selten umsonst: Um all die schicken Features zu ermöglichen, sind im Hintergrund viele Datenbankzugriffe nötig und werden allerhand Verrenkungen angestellt. Nicht selten ist das Ergebnis eine Website, die nicht wirklich stabil läuft. Zwar sind Nutzer wie Suchmaschinen-Robots in Web-2.0-Alles-ist-Beta-Zeiten temporären Aussetzern recht tolerant gegenüber; trotzdem ist eine instabile Plattform, nun ja halt eine instabile Plattform. Gelegentliche Nichterreichbarkeit ist für Google nicht sofort ein Killerkriterium, doch in Kombination mit anderen Problemen kann es der Auffindbarkeit der Website sehr wohl schaden. Deshalb gehört zu einer ordentlich Suchmaschinenoptimierung auch, das technische Fundament sauber zu legen.
  4. URL-basiertes Load Balancing
    Stellt euch vor, euch gehört eine uralte und höchst etablierte Website mit sehr viel eigenständigem Content. Irgendwann macht ihr sogar etwas SEO dafür und der sowieso schon ordentliche Traffic steigt weiter an. Nun ergibt sich die Notwendigkeit, für die Website ein Load Balancing einzuführen. Welche Art des Load Balancing solltet ihr auf keinen Fall einsetzen? Genau: Ein Load Balancing, das jeden Request auf www.example.com zufällig auf www1.example.com oder www2.example.com weiterleitet!
    Genau das hat ein Kunde (bevor er mein Kunde war *g*) aber gemacht, mit der schönen Konsequenz, dass Google die Website plötzlich ganz schlecht (Duplicate Content!) fand und der Suchmaschinentraffic entsprechend eingebrochen ist. Wieso jemand auf die Idee kommt, eine derartige Pseudo-Lösung einzusetzen? Nun ja, im konkreten Fall war das Load Balancing keine technische Notwendigkeit, sondern eher eine politische Vorgabe, weil zwei der Gesellschafter eigene Rechenzentren hatten und die Website sollte in beiden Rechenzentren gehostet werden.
  5. URLs werden ohne Not geändert
    Daraus lernen wir eine weitere Lektion für jeden Webmaster: Ändere nie die URLs, wenn es keine zwingenden Gründe dafür gibt. Und mit URL ist alles gemeint, angefangen vom http bis zum abschließenden .php. Wobei URLs mit der Endung .php sowieso eine ganz schlechte Idee sind. Will man diese Endung auch in fünf Jahren noch nutzen, wenn das System längst unter Ruby on Rails, Python on Paths oder Scheme on Streets läuft?
  6. Weiterleitungen zum Cookie-Setzen
    Ein Kunde hatte diese Aufgabenstellung: Kommt ein Nutzer auf die Website, muss sofort ein Cookie gesetzt werden, um eine Session zu starten. Denn schon auf der ersten Seite, egal ob Homepage oder Unterseite, muss eine Session-ID vorliegen, um AJAX-basierte Funktionalitäten nutzen zu können. Gelöst wurde diese Aufgabe zunächst dadurch, dass eine Weiterleitungsantwort (Statuscode 302) mit einem entsprechenden Set-Cookie-Header gesendet wurde. Die Weiterleitung erfolgte auf eine zweite Version der Seite, indem einfach ein Parameter angehängt wurde. Diese zweite Seitenversion konnte dann sofort erkennen, ob der aufrufende Client das gesetzte Cookie angenommen hat und entsprechend die Funktionalität bereitstellen.
    Google fand diese Lösung nicht so schick. Denn der Googlebot sah die verlinkten URLs (erste Version) als auch die Ziel-URLs (zweite Version). Da es sich um eine 302-Weiterleitung handelte, fing er zunächst an, beide URLs aufzunehmen. Dann aber strafte er die Seiten im Ranking ab, denn die massenhaften Weiterleitungen gefielen ihm gar nicht.
    Hierfür eine sinnvolle Lösung zu finden, ist gar nicht so einfach. Mein Vorschlag, das Cookie gleich im <head> der ersten (und damit einzigen) Version per JavaScript zu setzen, fand mein Kunde nicht so schick. Dafür setzten sie eine andere, gefährliche Lösung um: Die 302-Weiterleitung wird nur gesendet, wenn der Zugriff nicht von einem Googlebot stammt. Natürlich ist das Cloaking und natürlich habe ich auf die damit verbundenen Gefahren hingewiesen. Aber letztendlich ist der Kunde Herr der Umsetzung – und muss die eventuell eintretenden Konsequenzen tragen. Bisher klappt aber diese gefährliche Lösung. Noch.
  7. JavaScript Browserweiche
    JavaScript ist ein ewiger Quell spannender SEO-Probleme. Mein Lieblings-JavaScript-Fehler liegt nun schon etliche Jahre zurück, aber das soll nicht heißen, dass derartige Methoden heute nicht mehr eingesetzt würden.
    Die Website, auf der diese Lösung im Einsatz war, hatte wunderbaren Inhalt, der in dieser Qualität und Tiefe nirgendwo sonst im Web vorkam. Die Site war zudem bestens verlinkt, denn es handelte sich um einen kleinen, aber feinen Fernsehsender mit durchaus hohem Bekanntheitsgrad. An sich wunderbare Voraussetzungen für beste Platzierungen in Google. Doch das Problem zeigte sich sehr schnell: Von den etwa 4.000 Seiten mit tollem Content hatte Google nur zwei Seiten, darunter die Homepage, aufgenommen.
    Der Grund dafür war eine JavaScript-Browserweiche, die in einem noscript-Tag eine Meta-Refresh-Weiterleitung auf eine Hinweisseite enthielt. Auf dieser Hinweisseite war dann zu lesen, dass zur Nutzung der Website JavaScript benötigt würde und der Nutzer doch einen JavaScript-fähigen Browser installieren solle. Google folgte brav dieser Weiterleitung und nahm außer der Homepage nur diese Hinweisseite auf.
    Kaum war die alberne Browserweiche entfernt, nahm Google die Seiten auf, der Traffic stieg rapide und alle waren glücklich. Denn der eigentliche Clou dieser Geschichte ist, dass die Website auch ohne JavaScript problemlos zu nutzen war.

Permalink

Suchmaschinen-Konferenzen 2009 – Die Termine

2008-10-10

Das aktuelle Jahr neigt sich langsam dem Ende entgegen, der richtige Zeitpunkt, um nach vorne zu blicken und die Termine für die Suchmaschinen-Konferenzen 2009 zu sammeln.

Neue Termine oder Terminänderungen werden hier ergänzt. Diese Seite hat die Kurz-URL www.suchmaschinentricks.de/termine.

Update 03.06.2009
Die diesjährige SES ist nun festgelegt: Sie findet im November in Berlin statt.

Update 03.03.2009
Der Termin für den Kongress des SuMa e.V. steht nun fest.

Update 02.02.2009
Habe Internet Marketing Köln aufgenommen.

Update 08.01.2009
Ich habe den Termin für die SEMSEO und die PubCon eingefügt.

Update 17.12.2008
Die OMD 2009 wurde heute vom Veranstalter abgesagt.

Update 5.11.2008
Die Termine für den Affiliate NetworkxX und die Affiliate TacticX wurden ergänzt. (Mensch Markus, die sind ja wirklich kaum zu tippen diese Namen …)

März
7./8. März 2009
SEO CampixX, Berlin
Das erste SEO-Barcamp in Deutschland: Eine Konferenz mit ungewöhnlichen Vortragsmodalitäten und viel Zeit zum Kommunizieren.

26. März 2009
Affiliate NetworkxX, München
Der Networking-Event zum Thema Affiliate-Marketing von Affiliateboy Markus Kellermann.

April
22./23. April 2009
SMX, München
Nachdem die erste SMX in München ein großer Erfolg war, veranstaltet das Team um Mathew Finlay, das zuvor jahrelang die SES in Deutschland ausgerichtet hat, auch 2009 wieder eine SMX im ArabellaSheraton in München.

Mai
15. Mai 2009
SEMSEO, Hannover
Pub Konferenz, Hannover
Auch 2009 steigt wieder die SEMSEO-Konferenz von Abakus Internet Marketing in Hannover – und im Anschluss gibt es wieder die inzwischen legendäre Pub Konferenz mit viel Bier und noch mehr intensiven Gesprächen über Suchmaschinenoptimierung.

25. – 27. Mai 2009
Webinale, Berlin
Immerhin zum dritten Male wird die Webinale stattfinden, eine Konferenz, die versucht die Brücke zwischen Web-Technik und Web-Business zu schlagen. Nach Ludwigsburg und Karlsruhe findet die Konferenz, die dieses Mal einen eigenen SEO-Track haben wird, nun in Berlin statt.

Juni
2./3. Juni 2009
SMX Advanced, Seattle
Aus den vielen internationalen Konferenzen möchte ich die „SMX für Fortgeschrittene“ herausheben. Ziel der SMX Advanced ist es, Sessions auf einem Niveau anzubieten, das auch für „alte Hasen“ noch Neues bieten kann.

4. Juni 2009
Internet Marketing Köln (IMK), Köln
Zum dritten Mal veranstaltet Hitmeister in Köln den Internet Marketing Stammtisch, der nun kürzer und professioneller klingend „Internet Marketing Köln“ lautet. Bis zu 350 Teilnehmer können auf Kosten der Sponsoren Fingerfood und Kölsch konsumieren und ansonsten, unbehelligt von Vorträgen, fleißig networken. Die kostenlose Anmeldung ist ab dem 30. März möglich.

18. Juni 2009
Affiliate TactixX, München
Markus Kellermann wird auch 2009 wieder eine interessante Konferenz rund um Affiliate Marketing und Suchmaschinenoptimierung organisieren.

September
abgesagt!
Online Marketing Düsseldorf (OMD), Düsseldorf
Die für den 16./17. September 2009 angesetzte OMD wurde inzwischen abgesagt. Damit hat sich die neue, vom BVDW gestützte Messe dmexco durchgesetzt.

10. September 2009
SuMa-ev Kongress, Berlin
Der Kongress des SuMa e.V. beschäftigt sich schwerpunktmäßig mit gesellschaftlichen und politischen Fragen rund um die Rolle von Suchmaschinen. Dazu werden Auszeichnungen für neue Suchprojekte verliehen. (Ort: Landesvertretung Niedersachsen unweit des Potsdamer Platzes)

23./24. Septmeber 2009
dmexco (ursprünglich dmex genannt), Köln
Die Konkurrenz zur OMD, die nach Lesart der Kölner Veranstalter die OMD ablösen wird, findet eine Woche nach der Konkurrenz in Düsseldorf statt. Wer hier das Rennen machen wird, ist für mich noch nicht entschieden.

November
24./25. November
SES, Berlin
Nachdem die SES in Hamburg 2008 mit Anlaufschwierigkeiten zu kämpfen hatte, war es am Ende doch ein überraschender Erfolg. Nach langer Wartezeit haben die Veranstalter nun angekündigt, die SES nach Berlin zu verlegen. Ob die vielen Verschiebungen der Konferenz gut tun, ist noch abzuwarten.

Permalink