Zur Navigation

wo liegen die spiderbaren kB-Grenzen der bots ?

1 Mario

es ist hinlänglich bekannt, dass die bots der drei Grossen (G, msn, Y) nicht über 100 kB-Text spidern. Ist das ein Gerücht oder stimmt das wirklich? Ich erinnere mich schwach, dass diesbezüglich in den Google-Richtlinien was gestanden hat, aber auf Anhieb konnte ich es nicht mehr finden. Was aber viel interessanter ist als veraltete Richtlinien, sind aktuelle Tatsachen. So fand ich einen wirklich hilfreichen Test, der das 100kB-Märchen erstummen lässt.

hier der aktuelle Stand

Yahoo-Limit 210KB
Google-Limit 520KB;
MSN-Limit 1030KB.

danke Serge !

Mario

25.05.2006 12:42

2 Jörg Kruse

Ich erinnere mich schwach, dass diesbezüglich in den Google-Richtlinien was gestanden hat

In der Fassung von 2002 findet man nichts dergleichen, aber Google gab (schon) damals die Emfehlung, dass Sitemaps nicht größer als 100 Links sein sollten:

If the site map is larger than 100 or so links, you may want to break the site map into separate pages.

Daraus hat irgendeiner vielleicht 100 kb gelesen, und andere haben diese Fehlinterpretation weitergetragen

25.05.2006 13:45 | geändert: 25.05.2006 13:46

3 Mario

na wichtig ist, dass einer mal die Grenzen wirklich getestet hat und das noch nicht vor langer Zeit.

Mario

25.05.2006 13:48

4 Mario

da hat einer auf Ayom geschrieben:


Manche Fachleute raten dazu, nur maximal 100 Links pro Seite zu haben. Dies wird aber von keiner Suchmaschine bestätigt. Was jedoch Fakt ist, dass Google z.B. nur Seiten bis maximal 100kb spidert. D.h. ich würde die Sitemap in <100kb-Blöcke splitten. Besser sind ca 40Kb, das macht es auch für den User leserlicher.

Diese Aussage kommt nicht von ungefähr, aber trotzdem ist sie falsch !!!

Mario

25.05.2006 19:26

Beitrag schreiben (als Gast)

Die Antwort wird nach der Überprüfung durch einen Moderator freigeschaltet.





[BBCode-Hilfe]