Hallo Jörg,
soweit mir bekannt, soll "hijacking" nur möglich sein, wenn der Katalog-Betreiber, sei es aus Unwissenheit oder mit Absicht, das Weiterleitungs-Skript in seiner robots.txt nicht für Suchmaschinen gesperrt hat.
Frage: Wie kann man feststellen, ob das Verzeichnis mit dem Weiterleitungs-Skript in der Datei robots.txt des Katalog-Betreibers gesperrt ist, ohne daß man sich die robots.txt ansieht?
Gruß, Käptn Blaubär
Möchtest du die Sperrung aus dem Browser heraus feststellen? In der Firefox Erweiterung Search Status gibt es die Option "Show robots.txt" - ansehen musst du sie dir die Datei aber auch diesem Fall - du sparst dir nur die umständliche Eingabe in die Adresszeile des Browsers
wurde jetzt das hijacking bug bei google & co behoben oder muss man für seine webseite gewisse maßnahmen ergreifen?
wenn ja welche?
beste grüße
Hallo DelaMor,
vor zwei Jahren soll Google ja das Problem angegangen sein - siehe Beitrag 8. Inweiweit dies vollständig gelang, kann ich nicht sagen - man hört zwischendurch mal von angeblichen Hijacks, meist aber ohne diese Fälle nachprüfen zu können. In den Vordergrund ist seitdem mehr die Gefahr durch Duplicate Conten getreten
Ich achte aber weiterhin darauf, dass ich eigene Webseiten nicht über Redirects verlinken lasse.
Hi Jörg,
danke für die schnelle Antwort!
"Ich achte aber weiterhin darauf, dass ich eigene Webseiten nicht über Redirects verlinken lasse."
Wäre schon wenn Du es beschreiben könntest, wie du das verhinderst bzw. kontrollierts, dass deine Webseiten nicht über Redirects verlinkt werden.
Vielen Dank,
beste Grüße
DelaMor
Indem ich Seiten z.B. nicht in Webverzeichnisse eintrage, die die gelisteten Seiten nicht direkt (http://example.org/) sondern über solche indirekten URLs (über ein Redirect-Script) verlinken:
outbound.cgi?target=http://example.org/