1&1: Netzwerk nicht erreichbar – für Google?

Mitarbeiter der englischsprachigen Supports vom Massenhoster 1&1 haben wohl einigen Kunden erklärt, dass auf den Shared Servern Anfragen vom Google-Spider unter bestimmten Umständen abgewiesen werden. Bei zu vielen Anfragen des Googlebots würde demnach eine Drosselung zu greifen, wodurch einige Anfragen mit einer Fehlermeldung quittiert werden. »Geblockt« würde der Googlebot indes nicht.
Unabhängig vom Wahrheitsgehalt wäre das eine Erklärung für die besonders häufig auftretenden Fehlermeldungen des Google-Spiders bei von 1&1 gehosteten Websites.

Auf mein Nachfragen erklärte mir ein freundlicher Hotliner glaubhaft überrascht, dass dies auf jeden Fall für deutsche Rechenzentren nicht zutreffen würde. Schließlich sei »1&1« (lies in diesem Fall »one and one«) ja fast ein ganz anderer Provider (!?). Geblockt oder gefiltert würde auf den Shared Servern bestenfalls der MySQL-Zugriff von aussen.

Aber die Symptome und verunsicherten User zeigen sich ganz eindeutig auch bei deutschen Servern. Mir war sogar selbst schon aufgefallen, dass Google Sitemaps bei einigen Websites besonders häufig den Fehler »Netzwerk nicht erreichbar« auswies. Nach einem kurzen Abgleich konnte ich unschwer feststellen: die betroffenen Sites werden allesamt bei 1&1 gehostet.

Natürlich ist es kein feiner Zug eines Technik-Monsters wie dem GoogleBot, Server regelrecht in Grund und Boden zu crawlen – dergleichen hört man ja von Zeit zu Zeit. Server-Probleme werden von 1&1 offiziell allerdings verneint, gleichwohl existieren die geschilderten Probleme nicht nur in der Einbildung von ein paar Webmastern oder SEOs.

Nicht undenkbar wäre auch eine weitere Möglichkeit: vielleicht erlaubt die Drosselung ganz einfach, mehr Websites auf einen einzelnen Server zu packen. Wenn sich so einige Euros sparen lassen, können die Kunden von 1&1 evtl. lange auf eine Lösung des Problems warten.

Siehe auch: Google Groups: »1&1 admits blocking Googlebot«

3 Reaktionen zu “1&1: Netzwerk nicht erreichbar – für Google?”

  1. Henning

    Ergänzung: nachdem Google seine »Bigdaddy«-Infrastruktur an den Start gebracht hat, scheinen sich die Probleme gelöst zu haben. Evtl. trägt dazu der neue Cache des Spiders bei.

  2. Markus

    Bei meiner Webseite hab ich das Problem dennoch. Da sind 8 Seiten betroffen die mir ein Netzwerk nicht erreichbar liefern bei den Sitemaps so aber funktionieren.

  3. Henning

    Moment – du bekommst ein »Netzwerk nicht erreichbar«, aber Sitemaps findet alles? Das wäre ja aus Sicht der Suchmaschinen kein Problem … 😉

Einen Kommentar schreiben