Zur Navigation

Zu weit aus dem Fenster gelehnt? [2]

11 AskeT

Ich habe die htacces etwas gekürzt:

RewriteEngine On

RewriteCond %{HTTP_HOST} !^www\.par***emen\.de$ 
RewriteRule ^(.*)$ http://www.pa***men.de/$1 [L,R=301]

# disallow www.excite.co.jp hijacking through "duplicate content"
order deny,allow
deny from 210.150.160.78
--- gekürzt ---
deny from 210.150.161.21

# sperren unerwünschte
order deny,allow
deny from 213.239.215.181

#The next lines check for Robots and redirect them to a fake page 
deny from 64.71.144 
RewriteCond %{HTTP_USER_AGENT} ^Alexibot [OR] 
RewriteCond %{HTTP_USER_AGENT} ^asterias [OR] 
--- gekürzt ---
RewriteCond %{HTTP_USER_AGENT} ^Xenu's [OR] 
RewriteCond %{HTTP_USER_AGENT} ^Zeus 
RewriteRule .* - [F,L] 

11.03.2005 20:13 | geändert: 15.03.2005 11:16

12 Jörg Kruse

Die Zeile "order deny,allow" würde ich nur einmal anbringen, darunter dann alle "deny from ...) Anweisungen.

Die Weiterleitung könntest du auch ganz an den Schluss unterbringen, dann werden die unerwünschten Bots nicht erst weitergeleitet, bevor sie abgewiesen werden

order deny,allow
# disallow www.excite.co.jp hijacking through "duplicate content"
deny from 210.150.160.78
--- gekürzt ---
deny from 210.150.161.21
# sperren unerwünschte
deny from 213.239.215.181
deny from 64.71.144

RewriteEngine On

#The next lines check for Robots and redirect them to a fake page 
RewriteCond %{HTTP_USER_AGENT} ^Alexibot [OR] 
RewriteCond %{HTTP_USER_AGENT} ^asterias [OR] 
--- gekürzt ---
RewriteCond %{HTTP_USER_AGENT} ^Xenu's [OR] 
RewriteCond %{HTTP_USER_AGENT} ^Zeus 
RewriteRule .* - [F,L]

#für alle anderen:
RewriteCond %{HTTP_HOST} !^www\.par***emen\.de$ 
RewriteRule ^(.*)$ http://www.par***emen.de/$1 [L,R=301]

Das ganze auf jeden Fall am Ende nochmal nochmal testen: die Domain im Browser mit und ohne www aufrufen (beide Male solltest du auf der www Variante landen)

Hiermit kann man auch gut testen:

WannaBrowser

zeigt vor sdem Quelltext den http-Header an - und man kann unter "HTTP User Agent" die Kennung eines Bots eingeben, den man gesperrt hat

Leider ist die Seite zeitweise schlecht erreichbar..

11.03.2005 20:41

13 AskeT

Danke schön, Jörg! :-)

So weit funzt es jetzt. Nun muß ich diese Änderungen nur noch für alle Domains machen.

AskeT

11.03.2005 21:04

14 Robots (Gast)

Hallo zusammen,

bitte die Seite http://www.eurip.com/service/?l=de&p=deny_url komplett lesen, dann tauchen solche Missverständnisse auch nicht auf.

Das Thema "Aussperren per robots.txt-Datei" wird auf der Seite auch behandelt.

MfG

14.03.2005 09:39

15 AskeT

Hallo Jörg, bitte schaue doch mal kurz in Dein Postfach bei Abakus

Gruß
AskeT

EDIT:Danke, Jörg!

15.03.2005 11:17 | geändert: 15.03.2005 11:53

Beitrag schreiben (als Gast)

Die Antwort wird nach der Überprüfung durch einen Moderator freigeschaltet.





[BBCode-Hilfe]