Dieser Spam-Bot aus Bulgarien war hier aber schon die Ausnahme
Noch.
sein brachiales Vorgehen war ja irgendwo auch ohne Sinn und Verstand.
Nicht unbedingt, siehe z.B.
Spam 2.0 (Seite 1-5).
Du meinst, dass Bandbreite wegen der Botnets für die Spammer immer weniger ein Problem ist? Das ist schon richtig. Dennoch ist es denke ich auch aus Sicht eines Spammers nicht sinnvoll, die Zugriffe derart massiv auf einzelne Hosts zu konzentrieren, wie es dieser Bot getan hat, d.h. mehrere Zugriffe pro Sekunde. Die Scripte können dann u.U. gar nicht so viele Posts auf einmal verarbeiten, vielmehr droht eine schnellere Entdeckung, wenn die Performance der betreffenden Scripte dann leidet - ich hatte hier deswegen auch Ausfälle auf dem gesamten Webspace. "Sinnvoller" aus Sicht eines Spammers wäre es wohl, die Posts auf möglichst viele Hosts zu verteilen und damit unterm Radar zu bleiben und aller Wahrscheinlichkeit nach dadurch auch wesentlich mehr Posts absetzen zu können.
Der Artikel enthält auch den Gedanken, sich beim Programmieren der Spamfilter künftig vielleicht besser noch mehr auf die Erkennung der sauberen Postings statt auf die des Spam zu konzentrieren.
Naja, ich würde sagen, es kommt darauf an, die Unterschiede zwischen Spam und Nicht-Spam herauszuarbeiten, dazu muss man natürlich beide miteinander vergleichen.
Falls man über die .htaccess mal nicht mehr weiterkommt, kann ich mir vorstellen, dass neben einem leistungsfähigen Filter vorläufig folgendes auch noch ganz gut helfen könnte:
1. Regelmäßiges Umbenennen der Dateinamen von Formularen bzw. des Skripts, welches die Formulardaten absendet.
Ja, v.a. bei Standardsoftware kann dies sinnvoll sein, da die standardisierten Dateinamen von Formularen in solchen Fällen automatisiert über Suchmaschinen gesucht werden
1.1. ggf. zusätzlich öfter wechselnde Abfragen einbauen. Wobei das nicht so einfach ist, zu entscheiden, was wirklich jeder beantworten kann, auf meine Frage Wie heißt die deutsche Hauptstadt kam jedenfalls prompt die Antwort: Bonn. Letztes Jahr, versteht sich.
Das ist das grundsätzliche Problem bei Captchas und solchen Question Mods, dass man manchmal auch menschliche Benutzer damit ausschließt. Letztens hatte ich an die 10 mal einen Captcha-Code eingeben müssen, der so verbogen war, dass nicht nur die Bots damit ihre Mühe haben ;) Und manche Spammer lassen solche Abfragen inzwischen auch indirekt über andere Webseiten lösen, wo menschliche User den Code z.B. eingegeben müssen, um Zugang zu einer Pornoseite zu erhalten. Das Script der Pornoseite schickt das Ergebnis dann wieder zurück an das eigentliche Spam-Script, welches damit dann seinen Eintrag tätigen kann. Aber einen Großteil der Bots kann man mithilfe von Captchas wohl noch am Sapmmen hindern
2. Die Site auf ein möglichst niedriges Google PageRank bringen: Wo ich nur 2 oder weniger habe, ist bisher kaum Spam festzustellen (BTW ohne dass es irgendeinen erkennbaren Einfluss auf die SERP hat).
Wenn es sich um eine reine Formularseite handelt, oder ohne Inhalt der indiziert werden soll, würde ich grundsätzlich sogar die Meta-Angabe "noindex" empfehlen. Dann wird das Formular nur selten von einem Bot gefunden.