Zur Navigation

phpbb duplicate content vermeiden

1 fligor

Die Site-Abfrage meines Kino und Dvd Forums ergibt viel doppelten Content, obwohl ich die posting.php ausgesperrt habe (per robots.txt) Wie kann das? Die letzten beiden Zeilen habe ich grade noch der robots.txt hinzugefügt. Ich habe gehört, dass es auch anders geht. Hat einer eine Ahnung wie?


User-agent: *
Disallow: /logs/
User-agent: *
Disallow: /forum/admin/
Disallow: /forum/db/
Disallow: /forum/images/
Disallow: /forum/includes/
Disallow: /forum/language/
Disallow: /forum/templates/
Disallow: /forum/config.php
Disallow: /forum/profile.php
Disallow: /forum/groupcp.php
Disallow: /forum/memberlist.php 
Disallow: /forum/modcp.php
Disallow: /forum/posting.php
Disallow: /forum/privmsg.php
Disallow: /forum/viewonline.php
Disallow: /forum/ptopic*.html$
Disallow: /forum/ntopic*.html$

MFG FLo

09.06.2005 13:56

2 Jörg

Hallo FLo,

das sind die bloßen URLs, richig indiziert hat Google die Seiten nicht, ist auch nirgends ein Cache Link oder ein Snippet oder der Title dabei. Die URLs sind ja durch die Links bekannt, und dadurch, dass Google sie aufführt, entsteht oftmals der Eindruck, Google hält sich nicht an die robots.txt. Das ist auch bei anderen optimierten phpBB Foren so: Beispiel. Und auch von meinem Forum führt Google URLs von Seiten auf, die ich in der robots.txt gesperrt habe. Duplicate Content ist das wohl nicht, denn der ist Google ja nicht bekannt

09.06.2005 14:25

4 Jörg

Ja, das ist natürlich noch besser, dann kennt Google auch die URLs nicht mehr

09.06.2005 14:30

Beitrag schreiben (als Gast)

Beim Verfassen des Beitrages bitte die Forenregeln beachten.





[BBCode-Hilfe]