1
Hallo,
bei einer Website habe ich den Fall, dass zahlreiche Seiten im Google-Index sind, die in Verzeichnissen liegen, welche nicht mehr existieren. Da waren mal Seiten drinnen, welche sich inzwischen auf neuen Domains befinden. Ein Antrag auf Entfernung habe ich bereits in den Webmastertools eingereicht, allerdings ist das abgelehnt worden (wahrscheinlich irgendwo verlinkt). Ich will die URLs aber nicht mehr im Index haben. So möchte ich sie per robots.txt ausschließen und das ganze Verzeichnis umleiten, um die Links nicht komplett zu brechen. Ich dachte da an so was:
robots.txt:
.htaccess
Da tut sich mir die Frage auf: verfolgt G den 301, auch wenn das Verzeichnis per robots.txt ausgeschlossen ist?
Gibt es einen weiteren Weg, die Reste aus dem Index zu säubern oder ist das wie ich denke per robots.txt die einzige Methode?
Edit:
Hier in der Google-Hilfe steht, die per robots.txt ausgeschlossenen URLs scheinen doch noch auf, wenn andere Seiten hierhin verlinken, nur der Content wird nicht angezeigt. Um sie vom Index zu entfernen, soll ich den meta-robots "noindex" verwenden. Verlangt G da von mir, ich soll alle gelöschten, insgesamt etwas über hundert Seiten in den Verzeichnissen, neu erstellen und noindex reinsetzen, damit ich die los werde? Das kann doch nicht wahr sein, das macht in der Praxis ja niemand?
bei einer Website habe ich den Fall, dass zahlreiche Seiten im Google-Index sind, die in Verzeichnissen liegen, welche nicht mehr existieren. Da waren mal Seiten drinnen, welche sich inzwischen auf neuen Domains befinden. Ein Antrag auf Entfernung habe ich bereits in den Webmastertools eingereicht, allerdings ist das abgelehnt worden (wahrscheinlich irgendwo verlinkt). Ich will die URLs aber nicht mehr im Index haben. So möchte ich sie per robots.txt ausschließen und das ganze Verzeichnis umleiten, um die Links nicht komplett zu brechen. Ich dachte da an so was:
robots.txt:
User-Agent: *
Disallow: /verzeichnis/
User-Agent: Googlebot
Disallow: /verzeichnis/
.htaccess
RewriteEngine On
RewriteRule ^verzeichnis http://neuedomain.tld [L,R=301]
Da tut sich mir die Frage auf: verfolgt G den 301, auch wenn das Verzeichnis per robots.txt ausgeschlossen ist?
Gibt es einen weiteren Weg, die Reste aus dem Index zu säubern oder ist das wie ich denke per robots.txt die einzige Methode?
Edit:
Hier in der Google-Hilfe steht, die per robots.txt ausgeschlossenen URLs scheinen doch noch auf, wenn andere Seiten hierhin verlinken, nur der Content wird nicht angezeigt. Um sie vom Index zu entfernen, soll ich den meta-robots "noindex" verwenden. Verlangt G da von mir, ich soll alle gelöschten, insgesamt etwas über hundert Seiten in den Verzeichnissen, neu erstellen und noindex reinsetzen, damit ich die los werde? Das kann doch nicht wahr sein, das macht in der Praxis ja niemand?