Google ändert Richtlinien mit Auswirkung auf Rating.

Schon Ende Oktober wurde von google bekanntgegeben, dass ein Teil ihrer Richtlinien in einigen Punkten geändert wurde. In den google Webmastertools lassen sich Seiten nun so darstellen, wie google diese beim Crawling abruft. So kann man in den Tools unter: „Crawling“ – „Abruf wie durch google“ die Seite bzw. Startseite rendern lassen. Damit die Seite vom google-Bot korrekt ausgelesen werden kann, muss der Webmaster diesem zuerst Zugriff auf CSS, Java-Skript und Bilddateien gewähren.

Ausschlaggebend dafür ist die Robots.txt – Datei. Diese gestattet oder verbietet dem google-Bot den Zugriff auf bestimmte Seitenteile. Die Änderungen gehen wohl darauf hinaus zurück, dass google in Zukunft beim Rating mehr auf die Designaspekte einer Seite Wert legen möchte.

Da Design natürlich Geschmacksache ist, sollte sich in erster Linie daran gehalten werden, dass alle Inhalte der Seite übersichtlich und sinnvoll angeordnet sind. Der Besucher soll sich wohlfühlen und alle wichtigen Informationen auf einen Blick bekommen, ohne dabei von Informationen erschlagen zu werden.

Kurz nach der Bekanntgabe von google über ihre Änderungen, wurde bei vielen Webmastern Handlungsbedarf
geweckt. Die Robots.txt ist entscheidend dafür, dass die Seite beim google – Rating aufsteigt und ist wohl noch bei vielen
Seiten nicht korrekt konfiguriert.

Wir unterstützen Sie gerne darin, ihre Robots.txt – Datei den neuen Richtlinien entsprechend
anzupassen und auch darüber hinaus, ihre Webseite zu optimieren.
Unsere Dienstleisungen umfassen ein breites Spektrum – von der Seitenprogrammierung bis zum
grafischen Design der Benutzeroberfläche.

Quelle: