Individuelle Webentwicklung

Nicht immer ist eine Standardsoftware ausreichend um individuelle Anforderungen gerecht zu werden, wir schaffen Lösungen

Informationen
Bild: Individuelle Webentwicklung

Erstellen einer Google-freundlichen URL-Struktur

Erstellen einer Google-freundlichen URL-Struktur

Die URL-Struktur einer Website sollte so einfach wie möglich gehalten sein. Erwägen Sie, Ihren Content so zu organisieren, dass URLs logisch und für Nutzer sinnvoll konstruiert sind. Verwenden Sie aussagekräftige Wörter anstatt langer ID-Nummern, sofern möglich.

Wenn Sie zum Beispiel nach Informationen zur Luftfahrt suchen, hilft eine URL wie http://de.wikipedia.org/wiki/Luftfahrt dabei, zu entscheiden, ob Sie auf diesen Link klicken sollen. Eine URL wie http://www.example.com/index.php?id_sezione=360&sid=3a5ebc944f41daa6f849f730f spricht Nutzer viel weniger an.

Verwenden Sie nach Möglichkeit Interpunktionszeichen in Ihren URLs. Die URL http://www.example.com/gruen-kleid.html ist viel informativer als http://www.example.com/gruenkleid.html. Wir empfehlen die Verwendung von Bindestrichen (-) anstelle von Unterstrichen (_) in Ihren URLs.

komplexe URLs – insbesondere URLs mit zahlreichen Parametern – können Crawlern Schwierigkeiten bereiten, da sie eine unnötig große Anzahl von URLs verursachen, die allesamt auf identischen oder ähnlichen Content auf Ihrer Website verweisen. Dadurch kann Googlebot möglicherweise nicht den gesamten Inhalt Ihrer Website indizieren oder verbraucht erheblich mehr Bandbreite als nötig.

Die häufigsten Ursachen dieses Problems

Eine unnötig hohe Anzahl von URLs kann verschiedene Ursachen haben. Dazu gehören:

  • Kombiniertes Filtern einer Gruppe von Elementen: Viele Websites bieten verschiedene Ansichten derselben Gruppe von Elementen oder Suchergebnissen und ermöglichen dem Nutzer so, diese Gruppe mit definierten Kriterien zu filtern (Beispiel: Hotels am Strand anzeigen). Wenn Filter derart kombiniert werden können (z. B. Hotels am Strand und mit Fitnesscenter), steigt die Anzahl der URLs (Datenansichten) drastisch an. Das Erstellen einer großen Anzahl von etwas unterschiedlichen Listen mit Hotels ist überflüssig, da Googlebot nur eine kleine Anzahl von Listen sehen muss, über die der Zugriff auf die jeweilige Seite des Hotels erfolgen kann. Zum Beispiel:
  • Dynamische Erstellung von Dokumenten. Hier können geringfügige Änderungen aufgrund von Zählern, Zeitstempeln oder Werbeanzeigen entstehen.
  • Problematische Parameter in der URL. Sitzungs-IDs können beispielsweise ein erhebliches Maß an Duplizierungen und eine größere Anzahl von URLs hervorrufen.
  • Sortierparameter. Einige große Einkaufswebsites bieten mehrere Möglichkeiten zum Sortieren derselben Artikel an, was zu einer deutlich größeren Anzahl von URLs führt. Zum Beispiel:
    http://www.example.com/ergebnisse?search_type=search_videos&search_query=tpb&search_sort
    =relevance&search_category=25
  • * Irrelevante Parameter in der URL, z. B. Verweisparameter. Beispiel:
    http://www.example.com/ergebnisse?search_type=search_videos&search_query=tpb&search_sort
    =relevance&search_category=25
    http://www.example.com/suche/noheaders?click=6EE2BF1AF6A3D705D5561B7C3564D9C2&
    clickPage=OPD+Product+Page&cat=79
    http://www.example.com/forum/threadanzeigen.php?referrerid=249406&threadid=535913
    http://www.example.com/produkte/produkte.asp?N=200063&Ne=500955&ref=foo%2Cbar&
    Cn=Accessoires
  • Kalenderprobleme. Ein dynamisch erstellter Kalender könnte Links zu Terminen in der Zukunft oder der Vergangenheit ohne Einschränkungen der Anfangs- oder Endzeiten generieren. Zum Beispiel:
    http://www.example.com/kalender.php?d=13&m=8&y=2011
    http://www.example.com/kalender/cgi?2008&month=jan
  • Fehlerhafte relative Links. Fehlerhafte relative Links können häufig zu unendlichen Bereichen führen. Dieses Problem entsteht meist aufgrund wiederholter Pfadelemente. Zum Beispiel:
    http://www.example.com/index.shtml/forum/kategorie/schule/061121/html/interview/category/
    health/070223/html/category/business/070302/html/category/community/070413/html/FAQ.htm

Schritte zur Lösung dieses Problems

Zur Vermeidung potenzieller Probleme mit der URL-Struktur empfehlen wir Folgendes:

  • Verwenden Sie eine robots.txt-Datei, um den Zugriff von Googlebot auf problematische URLs zu blockieren. Blockieren Sie dynamische URLs, z. B. URLs, die Suchergebnisse generieren, oder URLs, die unendliche Bereiche generieren, wie beispielsweise Kalender. Reguläre Ausdrücke in Ihrer robots.txt-Datei ermöglichen Ihnen, eine große Zahl von URLs problemlos zu blockieren.
  • Vermeiden Sie nach Möglichkeit Sitzungs-IDs in URLs. Verwenden Sie stattdessen Cookies. In den
    Richtlinien für Webmaster erhalten Sie weitere Informationen.
  • Kürzen Sie URLs nach Möglichkeit, indem Sie nicht erforderliche Parameter weglassen.
  • Falls Ihre Website einen unendlichen Kalender hat, fügen Sie zu Links zu dynamisch erstellten zukünftigen Kalenderseiten ein "nofollow"-Attribut hinzu.
  • Überprüfen Sie Ihre Website auf fehlerhafte Links.

 

  • Quelle: Google Blog