Link Spam Dedection Based on Mass Estimation basiert auf der Erkenntnis, dass anerkannte Webseiten selten auf minderwertige Seiten verweisen. Relativ wenige, handverlesene Webseites genügen bereits, um aus einer Basis vertrauenswürdiger Sites andere vertrauenswürdige Sites zu erkennen und reichlich Spam auszuschliessen...
ein
interessanter Artikel dazu in Deutsch
oder :
in Englisch (pdf)
Mario
Ein wichtiger Punkt ist dabei, dass die Auswahl der handverlesenen Webseiten geheim bleibt. Ob dieses System dadurch wirklich aber sicher ist gegen Manipulationen - wie in dem PDF behauptet? Zumindest könnte es aber wohl (bzw. kann es bereits) das Spammen erschweren
ob da jeweils die eigenen Verzeichnisse herhalten müssen um die Selektion der "Vertrauenswürdigen" zu treffen?
Ich sehe das Prinzip als eine Art Zwiebelschalen-Prinzip. Im Kern ist die Spamsicherheit hoch, nach aussen nimmt sie ab.
Der Kern der Zwiebel könnte eine eigene, interne White List sein. Und die darin befindlichen Seiten werden wohl auch überwacht werden müssen; die Vertrauenswürdigkeit kann sich ja auch ändern, sei es, dass die Betreiber nicht mehr die Zeit finden die Seiten ordentlich zu warten, mit der Folge dass interaktive Seiten nun izugespammt werden, sei es dass die Domain den Besitzer wechselt, der den Inhalt profitversprechend umgestaltet (da gibt es ja Domaingrabber, die darauf spezialisiert sind), oder der vertrauenswürdige Betreiber kommt erst jetzt auf die Idee, Links auf seiner Seite zu verkaufen
ja der Linktausch würde dann vermehrt dem Link-Kauf/Verkauf weichen. Nicht auszudenken, wenn eine Super-Trust Domain ausfällt oder auf Null abgestuft würde. Ganz so einfach wie das die Erdenker der Idee vorgeben, dürfte es auch nicht sein.
.
@-Mario:
(Ich hoffe, Du bist der Mario, den ich kenne.)
Mario,
ich teile Deine Meinung, und Deine Meinung bezüglich "Linkvergabe" teile ich ebenfalls, denn ich praktiziere es ebenso.
Ich meinte schon immer, sich in Massenlinks zu tummeln, ist Zeitvergeudung und eher schädlich.
Ich habe jetzt so einen Fall, wo eine für mich unbedeutende Page PR5 bekommen hat, ohne mein Zutun.
Die wurde vor Jahren einmal von einer ebenfalls PR5 verlinkt.
Ich glaube, Alter und Beständigkeit spielt dabei auch eine Rolle.
Es grüßt Dich Andreas - "Pagemaker"
("Grüß Gott" JÖRG, ich bin der "Neue")
.
Hallo Andreas
ja ich bin der den Du kennst ;)
Begrüsse Dich ganz herzlich als "noch Gast" in diesem etwas anderen (Erwachsenen-)Forum. Ich weiss nicht wie lange Du hier vielleicht schon mitliest, aber hier geht es nicht um die Verwirklichung von SEO-Jugendträumen (trickreich schnell für einen Monat 100 € zu verdienen) sondern um möglichst guten brauchbaren Informationsaustausch. Also wenn Du gute Fragen hast rund um Suchmaschinen oder Programmierung, wirst Du hier sicher nicht erst angeschrien und blossgestellt, sondern seriös bedient. Ich weiss ja, Deine Seiten sind gestandene "ältere" Domains, die auch alle Wogen überstanden haben. Das ist wichtiig um jeweils Vergleiche anstellen zu können. Wenigstens in diesem Bereich geht Alter über alles :)
Also lass es Dir wohl sein bei uns...
Liebe Grüsse nach Bayern
Hallo Pagemaker,
von mir auch ein Willkommen :)
Ich glaube, Alter und Beständigkeit spielt dabei auch eine Rolle.
Suchmaschinen können die Beständigkeit von Links als zusätzliches Kriterium gewichten (und tun sie möglicherweise bereits auch). Allerdings hat dieses Kriterium auch seine Grenzen, die auch in dem von Mario verlinkten PDF angesprochen werden - die Spammer besorgen sich alte Links durch Domaingrabbing:
The spammer purchases domain names that recently expired but had previously been reputable and popular. This way he/she can profit of the old links that are still out there.
Und da hilft der Algorithmus zur Spamerkennung auch nicht weiter:
Note that because most of the PageRank of such spam hosts is
contributed by good hosts, our algorithm is not expected to detect them.
Daraus könnte man aber vielleicht schlussfolgern, dass für das Prädikat "vertrauenswürdig" zusätzlich maßgeblich ist, in welchen Abständen die betreffende Quelle alte Links überprüft und gegebenenfalls aktualisiert / löscht etc.
.
@-Jörg:
Jörg,
ich danke Dir für den Willkommensgruß!
Ja, aber "Domaingrabbing" ist doch sicher nicht die Lösung, oder?
Merken die nicht, wenn es zum Domaininhaberwechsel gekommen ist?
Und dann:
Nehmen wir an, eine Domain mit PR5 kommt mir abhanden, warum auch immer, so hatte doch die Page PR5 und so 50 Unterseiten PR 4 auf Grund des Inhaltes und Pagestruktur.
"Dat" geht schon los, daß die INDEX ebenso eine "htm" haben sollte, wenn die vorher so bestand, und nicht "html".
So hätte ich eine gute Domain mit PR aus meiner Branche erwerben können, die zum Verkauf anstand und gut gelistet war.
Ich schaute mir den Inhalt an (Struktur), und habe bei denen nicht durchgeblickt - Chaos.
Denn ich überlegte, ob ich mir den PR abkassieren kann, wenn ich meinen Inhalt auf deren Seitenstruktur lege.
Eine mörderische Arbeit wäre das gewesen, und alles mit unbekannten Ausgang.
Also reicht es nicht einmal, daß der neue Domaininhaber die ganze Page im Originalzustand bekommt, und ohne Original, ist wahrscheinlich der PR futsch, oder?
Der PR ist doch für die "Qualität" des Inhaltes, oder?
Ich meine, die ganze Trickserei und Fummelei ist sinnlose Zeitvergeudung, die man nützlicher mit Contenterschaffung verwenden sollte.
Gruß v. Andreas - "Pagemaker"
.
@PM
nein PR hat nichts mit Inhalt zu tun. Es gibt nur 2 Variablen und eine Konstante. Das sind inbound und outbound Links und die Dämpfung die google früher mal festlegte. Nur indirekt geben Dir mehr oder weniger unbekannte Seiten Links, weil Dein Inhalt gut ist. Dann natürlich wirkt sich das auf den PR aus, aber alles führt immer nur über den Linkzuwachs oder Schwund.
Wie PR genau reagiert kannst Du hier wunderbar ausprobieren, auch ohne Text :)
PR-Calculator
Damit solltest Du mal einwenig spielen, es ist interessant auch wenn der angezeigte PR-Balken nur noch wenig mit der früheren Bedeutung zu tun hat. Aber intern, wer weiss was Google da weiterentwickelt hat?