Zur Navigation

CSS, Javascript und Google

1 Mario

wie lange dauert es noch bis Google CSS und Javascript nicvht nur liest sondern auch interpretieren kann? Ein paar Gedanken dazu findet man unter dem Titel:

Google arbeitet an verschärfter Spam-Abwehr

Ratschlag: Hände weg von CSS und JS-Spam !

LG von Mario

14.08.2006 15:16

2 Gustafsson

moin,

er beruft sich ja ganz schön oft in seinem blog auf das rechenschieber-forum (als hätten die dort das rad erfunden, dabei sind wir das doch hier ;-)

ich könnte meinen hintern darauf verwetten, das google css und javascript nicht nur liest sondern auch interpretiert und das schon eine ganze zeit lang.

gruß uwe

14.08.2006 16:06

3 Mario

Du sprichst vom Zählrahmen-Forum? Früher als "SEO" noch angewendet werden konnte, war es sicher im deutschsprachigen Raum eine interessante Plattform. Heute aber gibt es viel professionellere und interessantere Foren.

hmm... ich glaube nicht, dass Google CSS und JS schon interpretiert und anwendet.

LG von Mario

14.08.2006 16:42

4 Gustafsson

oh mario, das werden sie nicht gerne lesen, aber deine offenheit ist erfrischend ;-)

nun ja, ich denke schon das z.b. cloaking mittels javascript erkannt und abgestraft wird. ich bin mir auch sicher, das google sehr wohl böses bei denen vermutet, die bestimmte css files via robots.txt vor den bots sperren. warum sollte man denn das sonst tun?

gruß uwe

14.08.2006 18:07

5 Jörg Kruse

ich bin mir auch sicher, das google sehr wohl böses bei denen vermutet, die bestimmte css files via robots.txt vor den bots sperren. warum sollte man denn das sonst tun?

Gegenfrage: warum sperrt Google selbst in seiner robots.txt ein JavaScript-Verzeichnis:

Disallow: /extern_js/

... sowie etliche weitere Verzeichnisse und Dateien.

Eine Antwort könnte sein: um unnützen Traffic zu vermeiden.

14.08.2006 18:20

6 Gustafsson

nö jörg, ich meinte css files via robots.txt sperren. ich kann dir noch folgen, wenn google das macht um unnötigen traffic zu vermeiden, aber zw. google und einem halbwilden spambruder sind doch gewaltige unterschiede.

wie dem auch sei, es bleibt zu hoffen das google mal wieder die daumenschrauben fester anzieht und wie -> hier dazwischen haut, damit das spammerpack was zu jammern hat.

gruß uwe

14.08.2006 19:04

7 Jörg Kruse

ich meinte css files via robots.txt sperren

JS-Files sind nicht weniger potentiell böse wie CSS-Files, oder siehst du einen Grund, warum Google dort anders verfahren sollte? Ich habe dieses Alternativ-Beispiel angeführt, da Google mit seinem altbackenen HTML- und CSS-Output keine CSS-Files auslagert. Wenn du dir deren ausführliche robots.txt anschaust, kannst du dir aber an fünf Fingern abzählen, dass sie auch das Spidern eigener CSS-Dateien untersagen würden.

aber zw. google und einem halbwilden spambruder sind doch gewaltige unterschiede

Ja, und da beide potentiell böse Dateien vom Spidern ausschließen, taugt diese Verhaltensweise nicht als Unterscheidungskriterium zwischen einem Spambruder und einem Nicht-Spambruder; zumindest nicht in dem absoluten Sinne, wie das bei dir anklang, höchstens noch als eines unter mehreren Indizien

14.08.2006 19:40

Nur Mitglieder können in diesem Forum Antworten schreiben.

Login | Registrieren