Zur Navigation

Google Webmaster Tools: Fehlermeldungen

1 lava

Hallo,

die Google Webmaster Tools beschweren sich bei "Crawling-Fehler" under "Nicht gefunden", daß sie

/verzeichnis/function.implode

nicht gefunden hätten, diese seien verknüpft von

verzeichnis/meine-php-datei.php

De facto habe ich in meine-php-datei.php die PHP-Funktion implode aufgerufen

<?php

while (list($key, $val) = each($_POST)) {
	
	$para[] = $key."=".urlencode(stripslashes($val));
}
$param = implode("&",$para);
>

aber wieso veranlaßt das den Crawler, nach einer entsprechenden Datei zu SUCHEN und diese als NICHT GEFUNDEN zu bemängeln?

Und wie werde ich die "Fehlermeldung" los, wen es anscheinend gar keinen Fehler gibt?

24.06.2009 11:22

2 Jörg Kruse

Was gibt die Datei verzeichnis/meine-php-datei.php denn aus, wenn man sie im Browser aufruft - befindet sich dort ein Link zu /verzeichnis/function.implode?

24.06.2009 16:02

3 lava

Nein, implode kommt dort NUR im o.g. Code-Schnipsel vor...genau das fand ich ja so irritierend.

24.06.2009 16:17

4 Jörg Kruse

Ach, ich glaube, ich weiß, wie der Link zustande kam: zu der Zeit, als der Bot die Seite aufrief, hat das Script einen PHP-Fehler ausgegeben. In diesen Fehlerausgaben werden häufig auch die betreffenden Funktionen verlinkt, z.B. in der Form "function.implode". Normalerweise sollte der Link auf das PHP-Manual gehen - aber da fehlte PHP wohl der passende Pfad

Siehe auch URL des Manuals:

http://de3.php.net/function.implode

24.06.2009 16:27 | geändert: 24.06.2009 16:29

5 lava

Ja, das macht Sinn: wenn man die Seite nicht nach Abschicken eines Formulars mit Parameterübergabe aufruft, sondern ohne Parameter (wie es ein Bot wohl tut), dann bekommt auch die Funktion implode keinen Input und erzeugt dann einen Fehler....

soll ich Seiten, die nur mit Parameterübergabe funktionieren, für Bots am besten ganz sperren? Mit robots.txt und mit einem no-follow-link von der aufrufenden Seite und mit einem nobot-Metatag, oder ist das dann doppelt gemoppelt?

24.06.2009 16:34

6 Jörg Kruse

Den Fehler bekommst du vielleicht schon weg, wenn du $para initialisierst:

<?php

$para = array();

while (list($key, $val) = each($_POST)) {
	
	$para[] = $key."=".urlencode(stripslashes($val));
}
$param = implode("&",$para);
>

soll ich Seiten, die nur mit Parameterübergabe funktionieren, für Bots am besten ganz sperren? Mit robots.txt und mit einem no-follow-link von der aufrufenden Seite und mit einem nobot-Metatag, oder ist das dann doppelt gemoppelt?

robots.txt sollte schon reichen

24.06.2009 16:43

Beitrag schreiben (als Gast)

Die Antwort wird nach der Überprüfung durch einen Moderator freigeschaltet.





[BBCode-Hilfe]