W pracy pozycjonera bardzo często zachodzi konieczność modyfikacji pliku .htaccess odpowiadającego za konfigurację serwera. Plik ten daje nam bardzo duże możliwości i pozwala wyeliminować często spotykane problemy, związane na przykład z duplikacją treści. W tym artykule opiszę kilka przydatnych reguł .htaccess, które są szeroko wykorzystywane w SEO. 1. Przyjazne adresy URL Jak powszechnie wiadomo, adresy zawierające parametry nie są optymalne z perspektywy pozycjonowania. Za pomocą odpowiedniej reguły w pliku .htaccess, zamiast stosować takie adresy: /produkty.php?kategoria=zabawki możemy wymusić na przykład następującą strukturę: /produkty/zabawki/ Appache identyfikuje i zarządza plikami na podstawie ich rozszerzenia. Poniższa reguła pozwala na stosowanie plików php pozbawionych rozszerzenia: ForceType application/x-httpd-php5 2. Dyrektywy robots Za pomocą pliku robots.txt możemy wykluczyć konkretne podstrony lub foldery z indeksowania przez wyszukiwarkę.

W praktyce jednak, jeżeli do danej podstrony prowadzą linki i była ona już wcześniej zaindeksowana, Google nie wyindeksuje takiej strony a jedynie wyświetli komunikat: Opis tego wyniku jest niedostępny z powodu robots.txt. Możemy przypisać dyrektywy robots dla wszystkich plików w danym folderze poprzez stworzenie w nim pliku .htaccess zawierającego poniższą regułę: Header set X-Robots-Tag „noindex, noarchive, nosnippet” 3. Różne rodzaje przekierowań przekierowanie pojedynczej podstrony: Redirect 301 /stary-adres-url /nowy-adres-url przekierowanie „z www” na „bez www”: RewriteCond %{HTTP_HOST} ^domena.pl$ RewriteRule ^(.*)$ http://www.domena.pl/ [R=301,L] przekierowanie z „bez www” na „www”: RewriteCond %{HTTP_HOST} ^www.domena.pl$ RewriteRule ^(.*)$ http://domena.pl/ [R=301,L] używaj protokołu HTTPS: RewriteCond %{HTTPS} !on RewriteRule (.

*) https://%{HTTP_HOST}%{REQUEST_URI} [L,R=301] przekierowanie na nową domenę: RewriteCond %{HTTP_HOST} ^http://www.staradomena.pl [NC] RewriteRule ^(.*)$ http://www.nowadomena.pl/ [R=301,L] 4. Indywidualna strona błędu 404 Warto przygotować indywidualną stronę błędu 404 dla naszej witryny. Aby było możliwe jej zastosowanie dodajemy stosowną regułę w pliku .htaccess: ErrorDocument 404 /404.html analogicznie możemy skonfigurować pozostałe strony błędów, na przykład: ErrorDocument 500 /500.html 5. Blokowanie listowania zawartości folderów Ze względów bezpieczeństwa warto wyłączyć opcję listowania zawartości folderów na serwerze. Służy do tego poniższa reguła: Options All -Indexes 6.

Blokowanie dostępu dla konkretnych adresów IP Blokowanie adresów IP przydaje się w walce z różnymi spam botami, bądź ze skryptami parsującymi treści z naszej witryny. Aby zablokować konkretne adresy IP należy dodać następującą regułę: Order Allow,Deny Allow from all Deny from xx.xxx.xxx.xxx Deny from xx.xxx.xxx.xxx xx.xxx.xxx.xxx zamieniamy oczywiście na konkretny adres IP, któremu chcemy zablokować dostęp do naszej witryny. Przedstawione w tym artykule przykłady należą do najczęściej wykorzystywanych w SEO, niemniej jednak należy pamiętać, że możliwości konfiguracyjne pliku .htaccess są zdecydowanie większe.