1
Guten Tag,
im root liegt die Seite (Domain) http://www.sky-abo-angebot.de. Mit Wordpress generiert. Zu diesem Projekt gehören 3 Domains.
Im root habe ich nun auch einen Unterordner erstellt und mein neues Projekt reingepackt. Wieder Wordpress. http://www.arthrose-finger.de. Zu diesem Projekt gehören 2 Domains.
Das Problem ist das Google die Seite Arthrose-Finger.de nicht indexiert und ich nicht weiss warum
Webmastertools meckert bei Arthrose-Finger.de wegen keinem Zugriff auf die robots.txt.
Weiterhin folgende URL Fehlermeldung.
Der Googlebot konnte nicht auf Ihre URL zugreifen, weil die zulässige Zeit für die Anfrage überschritten wurde oder weil Ihre Website Google den Zugriff verweigert. Möglicherweise dauert das Laden dynamischer Seiten zu lang oder Ihre Website blockiert den Googlebot.
Ich habe im root Verzeichnis eine robots.txt und im UnterOrdner dieselbe robots.txt mit foilgendem Inhalt.
User-agent: *
Allow: /
Die htaccess Dateien sehen so aus:
htaccess im root sieht so aus:
# BEGIN WordPress
RewriteEngine On
RewriteBase /
RewriteRule ^index\.php$ - [L]
RewriteCond %{REQUEST_FILENAME} !-f
RewriteCond %{REQUEST_FILENAME} !-d
RewriteRule . /index.php [L]
# END WordPress
htaccess im Unterordner sieht so aus:
# BEGIN WordPress
RewriteEngine On
RewriteBase /
RewriteRule ^index\.php$ - [L]
RewriteCond %{REQUEST_FILENAME} !-f
RewriteCond %{REQUEST_FILENAME} !-d
RewriteRule . /index.php [L]
# END WordPress
Kann es an den Einstellungen in htacsess oder robots.txt liegen? Ich verstehe das Problem nicht und weiss nicht was Google genau will.
Bitte um Hilfe
im root liegt die Seite (Domain) http://www.sky-abo-angebot.de. Mit Wordpress generiert. Zu diesem Projekt gehören 3 Domains.
Im root habe ich nun auch einen Unterordner erstellt und mein neues Projekt reingepackt. Wieder Wordpress. http://www.arthrose-finger.de. Zu diesem Projekt gehören 2 Domains.
Das Problem ist das Google die Seite Arthrose-Finger.de nicht indexiert und ich nicht weiss warum
Webmastertools meckert bei Arthrose-Finger.de wegen keinem Zugriff auf die robots.txt.
Weiterhin folgende URL Fehlermeldung.
Der Googlebot konnte nicht auf Ihre URL zugreifen, weil die zulässige Zeit für die Anfrage überschritten wurde oder weil Ihre Website Google den Zugriff verweigert. Möglicherweise dauert das Laden dynamischer Seiten zu lang oder Ihre Website blockiert den Googlebot.
Ich habe im root Verzeichnis eine robots.txt und im UnterOrdner dieselbe robots.txt mit foilgendem Inhalt.
User-agent: *
Allow: /
Die htaccess Dateien sehen so aus:
htaccess im root sieht so aus:
# BEGIN WordPress
RewriteEngine On
RewriteBase /
RewriteRule ^index\.php$ - [L]
RewriteCond %{REQUEST_FILENAME} !-f
RewriteCond %{REQUEST_FILENAME} !-d
RewriteRule . /index.php [L]
# END WordPress
htaccess im Unterordner sieht so aus:
# BEGIN WordPress
RewriteEngine On
RewriteBase /
RewriteRule ^index\.php$ - [L]
RewriteCond %{REQUEST_FILENAME} !-f
RewriteCond %{REQUEST_FILENAME} !-d
RewriteRule . /index.php [L]
# END WordPress
Kann es an den Einstellungen in htacsess oder robots.txt liegen? Ich verstehe das Problem nicht und weiss nicht was Google genau will.
Bitte um Hilfe