6 reguł .htaccess przydatnych każdemu pozycjonerowi

W pracy pozycjonera bardzo często zachodzi konieczność modyfikacji pliku .htaccess odpowiadającego za konfigurację serwera. Plik ten daje nam bardzo duże możliwości i pozwala wyeliminować często spotykane problemy, związane na przykład z duplikacją treści. W tym artykule opiszę kilka przydatnych reguł .htaccess, które są szeroko wykorzystywane w SEO.

1. Przyjazne adresy URL

Jak powszechnie wiadomo, adresy zawierające parametry nie są optymalne z perspektywy pozycjonowania. Za pomocą odpowiedniej reguły w pliku .htaccess, zamiast stosować takie adresy:

/produkty.php?kategoria=zabawki

możemy wymusić na przykład następującą strukturę:

/produkty/zabawki/

Appache identyfikuje i zarządza plikami na podstawie ich rozszerzenia. Poniższa reguła pozwala na stosowanie plików php pozbawionych rozszerzenia:

<Files magic>

ForceType application/x-httpd-php5

</Files>

2. Dyrektywy robots

Za pomocą pliku robots.txt możemy wykluczyć konkretne podstrony lub foldery z indeksowania przez wyszukiwarkę. W praktyce jednak, jeżeli do danej podstrony prowadzą linki i była ona już wcześniej zaindeksowana, Google nie wyindeksuje takiej strony a jedynie wyświetli komunikat: Opis tego wyniku jest niedostępny z powodu robots.txt. Możemy przypisać dyrektywy robots dla wszystkich plików w danym folderze poprzez stworzenie w nim pliku .htaccess zawierającego poniższą regułę:

Header set X-Robots-Tag „noindex, noarchive, nosnippet”

3. Różne rodzaje przekierowań

przekierowanie pojedynczej podstrony:

Redirect 301 /stary-adres-url /nowy-adres-url

przekierowanie „z www” na „bez www”:

RewriteCond %{HTTP_HOST} ^domena.pl$
RewriteRule ^(.*)$ http://www.domena.pl/ [R=301,L]

przekierowanie z „bez www” na „www”:

RewriteCond %{HTTP_HOST} ^www.domena.pl$
RewriteRule ^(.*)$ http://domena.pl/ [R=301,L]

używaj protokołu HTTPS:

RewriteCond %{HTTPS} !on

RewriteRule (.*) https://%{HTTP_HOST}%{REQUEST_URI} [L,R=301]

przekierowanie na nową domenę:

RewriteCond %{HTTP_HOST} ^http://www.staradomena.pl [NC]

RewriteRule ^(.*)$ http://www.nowadomena.pl/ [R=301,L]

4. Indywidualna strona błędu 404

Warto przygotować indywidualną stronę błędu 404 dla naszej witryny. Aby było możliwe jej zastosowanie dodajemy stosowną regułę w pliku .htaccess:

ErrorDocument 404 /404.html

analogicznie możemy skonfigurować pozostałe strony błędów, na przykład:

ErrorDocument 500 /500.html

5. Blokowanie listowania zawartości folderów

Ze względów bezpieczeństwa warto wyłączyć opcję listowania zawartości folderów na serwerze. Służy do tego poniższa reguła:

Options All -Indexes

6. Blokowanie dostępu dla konkretnych adresów IP

Blokowanie adresów IP przydaje się w walce z różnymi spam botami, bądź ze skryptami parsującymi treści z naszej witryny. Aby zablokować konkretne adresy IP należy dodać następującą regułę:

Order Allow,Deny
Allow from all
Deny from xx.xxx.xxx.xxx
Deny from xx.xxx.xxx.xxx

xx.xxx.xxx.xxx zamieniamy oczywiście na konkretny adres IP, któremu chcemy zablokować dostęp do naszej witryny.

Przedstawione w tym artykule przykłady należą do najczęściej wykorzystywanych w SEO, niemniej jednak należy pamiętać, że możliwości konfiguracyjne pliku .htaccess są zdecydowanie większe…

Data: piątek, Grudzień 28th, 2012, 10:01
Kategoria: Hyde Park.