Hallo Leute,
ich würde gerne mit Hilfe der htaccess datei ein paar suchmaschinen crawler/bots von meiner site blockieren.
Dafür habe ich folgende htaccess datei erstellt:
RewriteEngine On RewriteCond %{HTTP_USER_AGENT} ^Googlebot* [OR] RewriteCond %{HTTP_USER_AGENT} ^bingbot* [OR] RewriteCond %{HTTP_USER_AGENT} ^msnbot* [OR] RewriteCond %{HTTP_USER_AGENT} ^NetSeer* [OR] RewriteCond %{HTTP_USER_AGENT} ^aiHitBot* [OR] RewriteRule ^.* - [F] diese habe ich direkt in das root verzeichniss meiner webseite gepackt, sprich var/www/html
wenn ich jetzt meine ip addresse im browser aufrufe, bekomme ich die apache2 test page angezeigt und wenn ich z.B. "meineIP/index.html" aufrufe bekomme ich eine "403 forbiden" page angezeigt, diese sollte aber doch normalerweise jetzt nur kommen, wenn mein eigener UserAgent z.B. auf den von Googlebot etc. geändert wäre.
Was funktioniert da nicht richtig?
PS: bin in sachen htaccess ein total noob und mich würde mal interessieren für was die zeichen:
^.*
in der htaccess datei genau stehen?
lg
fluffybunny