Każda treść, która pojawia się w sieci musi być jedyna w swoim rodzaju. Oczywistym jest zakaz kopiowania wpisów, jednak czasem zdarza się, że niektóre elementy strony powielają się samoistnie, bez wiedzy ich autora. Nosi to miano tzw. duplicate content.

Wyeliminowanie go ze swojej witryny jest niezbędne, by strona była widoczna w Google, bo tylko zaakceptowana (czyt. unikalna) treść jest wyświetlana w wynikach wyszukiwania. Poniżej przedstawiamy 3 sposoby radzenia sobie z tym zjawiskiem.

Zdjęcie royalty free z Fotolia

1. Przekierowanie 301

To sposób na stałe przekierowanie zarówno użytkowników jak i wyszukiwarki na inny od pierwotnie zadanego adres URL. Powinniśmy je stosować w przypadkach, gdy mamy kilka domen wskazujących na tę samą stronę, a w wynikach wyszukiwania, każda z nich wykazywana jest osobno.

Powoduje to rozproszenie siły linków na poszczególne strony. Dokładną charakterystyką tego typu przekierowania jest fakt, iż przekazuje on od 90 do nawet 99% link juice (ranking power) na stronę docelową. Liczba 301 odnosi się do kodu odpowiedzi HTTP dla tego typu przekierowania.

Jak to działa?

Sprawdź wskaźnik Page Authority by stwierdzić, dla której ze stron jest on najwyższy. Następnie ustaw przekierowanie 301 ze strony zduplikowanej na oryginalną. W ten sposób zyskamy pewność, że te strony nie będą już ze sobą konkurowały w rankingach wyszukiwarek.

2. Tag rel=canonical

Powyższy tag przekazuje właściwie taką samą ranking power jak przekierowanie 301. Ponadto przynosi dodatkową korzyść – częściej jest o wiele szybszy do wdrożenia i oszczędza pracy informatykom. Sama “kanonikalizacja” jest dość trudnym pojęciem, ale jej zrozumienie jest niezbędne do sprawnej optymalizacji strony internetowej. Rel=canonical jest narzędziem służącym głównie do rozwiązywania problemu z powieloną treścią, występującą na tej samej bądź na kilku różnych stronach internetowych. Może być to ten sam fragment tekstu użyty wielokrotnie lub też przypadek, gdy cała zawartość strony została zdublowana.

Warto pamiętać, że duplikaty treści to także odrębne wersje strony „do druku”, czy osobna mobilna wersja strony. Taka sytuacja jest nie lada zagwozdką dla wyszukiwarek internetowych – bo którą ze stron potraktować jako oryginał i umieścić wyżej na liście wyszukiwania? Google ma na uwadze doświadczenia swoich użytkowników. Z tego względu niechętnie wykazuje w swoim indeksie tę samą treść. W przypadku jej powielenia wyszukiwarki muszą, więc zadecydować się, która strona to oryginał i jest najbardziej odpowiednia do wyświetlenia.

W SEO “kanonikalizacja” odnosi się do konkretnych stron internetowych, które mogą być ładowane z wielu URL’ów. Może to generować problemy, ponieważ w sytuacji, gdy wiele stron ma tę samą zawartość, ale różne URL, linki mające prowadzić do tej samej strony są dzielona na różne URLe. Co za tym idzie także popularity score (wskaźnik popularności) zostaje podzielony.

Jak to działa?

Dodaj rel=canonical do sekcji head kodu HTML strony. Dzięki temu wyszukiwarka będzie wiedziała, że jest ona kopią oryginału. Kod powinien wyglądać następująco:

<head> <link rel="canonical" href="http://przykład.com.pl/strona/" /> </head>

Stosując opisywany powyżej tag, mówimy wyszukiwarce, że dana podstrona ma być traktowana jako kopia strony znajdującej się pod http://przykład.com.pl/strona/. Tym samym cały potencjał (wartość treści + wartość jej linków) powinien być przekazany na podany URL.

3. Wartość: noindex, follow tagu meta robots

Tag meta robots służy do sterowania zachowaniem robotów wyszukiwarek internetowych wobec podstrony, w której kody zostały wpisane. Wszystkie większe wyszukiwarki interpretują tag meta robots i postępują zgodnie z jego wskazaniami. Dla nas najważniejsze będą wartości index/noindex oraz follow/nofollow. Index/noindex mówi wyszukiwarce, aby indeksowała lub nie indeksowała strony. Jako że domyślną opcją przy braku użycia tego tagu jest indeksowanie, warto używać tylko jego zaprzeczającej opcji. Druga z wartości (follow/nofollow) wydaje wyszukiwarce polecenie podążania (lub nie) za linkami znajdującymi się na stronie.

Przy naszej walce ze zduplikowaną treścią użyjemy metatagu robots o wartości noindex, follow. Mówi on wyszukiwarkom, aby nie ujmowały tej strony w swoich wynikach wyszukiwania, ale skorzystały z linków na niej umieszczonych. Działa to szczególnie dobrze w przypadku stron o podzielonej treści lub też w przypadku, gdy poszczególne wpisy są odpowiednio pokategoryzowane (jak na przykład w blogach). Kod powinien wyglądać następująco:

<head> <meta name="robots" content="noindex, follow" /> </head>

Inną opcją na sterowanie robotami wyszukiwarek jest użycie pliku robots.txt. Umieszczony w głównym katalogu witryny będzie instrukcją, czego robotowi wyszukiwarki wolno, a czego nie. W pliku można zawrzeć wskazówki, co do indeksowania, określić szybkość przeszukiwania strony lub wskazać jej mapę.

Niestety w przeciwieństwie do opisanego powyżej meta tagu, nie wszystkie wyszukiwarki „słuchają” robots.txt. Ponadto dane z tego pliku mogą zostać wykorzystane przy tworzeniu robotów wyszukujących dane o charakterze prywatnym. Dlatego zalecanym jest sterowanie robotami wyszukiwarek z poziomu meta tagów. Wskazane powyżej rozwiązania pozwolą zapanować nad zjawiskiem duplicate content. W ten sposób poprawisz pozycję swojej domeny w wynikach wyszukiwania, a potencjał witryny nie będzie rozproszony z powodu złej interpretacji i niekorzystnego indeksowania przez roboty wyszukiwarek.

Adam Trześniowski

Content Manager w firmie Seoway

Zaangażowany w rozwój projektu WPDASH.

Komentarze (0)