1
Hallo, in der Admin-Oberfläche für den Webserver kann man URL-Catchall aktivieren bzw. deaktivieren:
URL-Catchall aktiv
Bei Aktivierung des URL-Catchalls können auch nicht existierende (Sub-)Domains der Domain aufgerufen werden, es erfolgt dann eine automatische Weiterleitung zur eigentlichen Domain oder zur jeweils übergeordneten Domain.
URL-Catchall aus
Bei Deaktivierung des URL-Catchalls können Domains und eingerichtete (Sub-)Domains nur unter den tatsächlich bestehenden Namen aufgerufen werden. Aufrufe nicht existierender (Sub-)Domains werden nicht an die jeweils übergeordnete Domain weitergeleitet, sondern es erfolgt die Ausgabe einer entsprechenden Fehlermeldung.
Wenn das URL-Catchall aktiv ist, kann man www.domain.tld auch unter irgendwas.domain.tld erreichen -> ich wäre der Ansicht, man müßte dann verbieten, daß außer den wirklich gezielt angelegten Subdomains, die ich explizit durchsucht haben möchte vom Crawler, irgendwelche derartigen beliebigen Pfade durchsucht werden, oder? D.h. dann müßte ich in der robots.txt alles verbieten außer bevorzugte-subdomain.domain.tld , oder? Wie schreibe ich das "verbieten außer" ?
URL-Catchall aktiv
Bei Aktivierung des URL-Catchalls können auch nicht existierende (Sub-)Domains der Domain aufgerufen werden, es erfolgt dann eine automatische Weiterleitung zur eigentlichen Domain oder zur jeweils übergeordneten Domain.
URL-Catchall aus
Bei Deaktivierung des URL-Catchalls können Domains und eingerichtete (Sub-)Domains nur unter den tatsächlich bestehenden Namen aufgerufen werden. Aufrufe nicht existierender (Sub-)Domains werden nicht an die jeweils übergeordnete Domain weitergeleitet, sondern es erfolgt die Ausgabe einer entsprechenden Fehlermeldung.
Wenn das URL-Catchall aktiv ist, kann man www.domain.tld auch unter irgendwas.domain.tld erreichen -> ich wäre der Ansicht, man müßte dann verbieten, daß außer den wirklich gezielt angelegten Subdomains, die ich explizit durchsucht haben möchte vom Crawler, irgendwelche derartigen beliebigen Pfade durchsucht werden, oder? D.h. dann müßte ich in der robots.txt alles verbieten außer bevorzugte-subdomain.domain.tld , oder? Wie schreibe ich das "verbieten außer" ?