Zur Navigation

Forum suchmaschinensicher machen

1 Christian

Salve
Könnt Ihr mir helfen?? Ich habe das Forum von Jörg endlich installiert (ging ja fix!), nun möchte ich gerne alle Spider & Co. ausschliessen. Wiederspricht sich etwas, da Jörg sich so viel Mühe mit dem Forum gegeben hat, aber..... Muss im Moment leider sein.

---- nix Signatur

03.11.2006 16:26

2 Jörg

Hallo Christian,

in der robots.txt kannst du das Verzeichnis, in dem das Forum installiert ist, vorm Spidern sperren:

User-agent: *
Disallow: /forum/

... oder wenn es im Root installiert ist:

User-agent: *
Disallow: /

Daran halten sich allerdings nur die guten Bots, die bösen müsstest du über die .htacess sperren.

Wer darf denn noch auf das Forum drauf - alle Browser? Eventuell könnte man dann auch eine White List von User Agents erstellen. Oder nur ein begrenzter Personenkreis? In dem Fall wäre vielleicht ein Passwortschutz die geeignete Maßnahme

03.11.2006 16:44 | geändert: 03.11.2006 16:46

3 Christian

Salve

PW-Schutz habe ich versucht, aber das scheint die vordefinierte .htacces von Dir zu stören.


Im Prinzip möchten wir, dass vorerst kein Inhalt rausgeht. Für die Registration der Mitglieder habe ich das gelöst, in dem ich alle Foren nur für Mod's sichtbar mache. Aber bei den Spidern stehe ich am Berg....

---- nix Signatur

03.11.2006 17:04

4 Jörg

Wenn du den Foren den Status "lesen und schreiben: Mitglieder" oder "lesen und schreiben: Moderatoren" gibst, können die Bots und andere nichtregistrierte Gäste nicht mehr mitlesen

03.11.2006 17:20

5 Christian

wunderbar, das habe ich gemacht. den rest meiner Frage habe ich ins Supportforum geschrieben, wos hingehört!

Gruss und Danke
Christian

---- nix Signatur

03.11.2006 17:38

Beitrag schreiben (als Gast)





[BBCode-Hilfe]