Um gute und böse (omg, schwarz-weiß-denken ^^) Bots unterscheiden zu können, habe ich die Falle nun ebenfalls ausgelegt. Aber so auffällig mache ich es nicht :) Ich habe eine
robots.txt angelegt (meine erste übrigens), in der ich das Impressum, Kontaktformular und Gästebuch vom Index ausschließe, auf der Willkommen-Seite habe ich einen Link dorthin eingeflechtet. Im
botviewer kann man nach dem Login die Seiten als 'noindex' markieren, indem man die Häkchen bei den jeweiligen Checkboxen entfernt - sie werden dann in der Seitenliste gelb. Sobald ein unbekannter UA in die Seiten eindringt, wird der Visit-Eintrag der Tabelle rot.
Eine Schwachstelle hat das Ganze: Ein Bot könnte mit einer von normalen Browsern nicht zu unterscheidenden Kennung daherkommen und wird nicht erfasst. Das würde ich jedenfalls machen, wollte ich nur content abgrasen oder Spamflächen suchen. Na ja, die Dummen triffts zuerst. Für mich ist ja vor allem interessant, wie die Bots bei der Indizierung vorgehen - schwarze Schafe wird es immer geben.