Zarejestruj się do bezpłatnej platformy e-learningowej.
Zarejestruj się bezpłatnieSpis Treści
Jedną z przyczyn wewnętrznej duplikacji treści jest istnienie strony głównej pod różnymi adresami URL, np.:
Wyszukiwarka każdy z tych adresów traktuje jako osobną stronę internetową; jedna z wersji zostanie uznana za oryginalną, a pozostałe staną się w oczach Google kopiami. Aby nie dopuścić do takiej sytuacji, możemy:
Najczęściej najprostszym rozwiązaniem są przekierowania 301. Niekiedy za generowanie różnych adresów URL dla tej samej podstrony odpowiedzialny jest system CMS lub konkretna templatka (motyw/szablon strony).
Wdrażając certyfikat SSL, należy pamiętać o przekierowaniu strony z http na https. Jeśli nie zastosujemy 301, dla wyszukiwarki będą istniały dwie witryny o takiej samej treści, co spowoduje duplikację, narażając serwis z HTTPS na spadki pozycji w wynikach wyszukiwania.
Ważne! Podczas implementacji certyfikatu SSL zadbaj również o to, aby w narzędziu Search Console założyć nową usługę dla domeny z HTTPS, co pozwoli na monitorowanie stanu właściwej witryny.
Podczas odświeżania lub zmiany wyglądu strony internetowej bardzo często webdeveloperzy tworzą tzw. deweloperską (lub produkcyjną) wersję serwisu, która dostępna jest tylko dla wybranej grupy użytkowników. Dzięki temu obecna wersja witryny funkcjonuje w sieci, a nową można spokojnie udoskonalać. Najczęściej strona deweloperska zostaje zablokowana przed indeksacją, co pozwala uniknąć kopii treści.
Jak zablokować stronę przed jej indeksowaniem? Należy skorzystać z tagu meta name=”robots”, wdrażając w deweloperskiej wersji serwisu w sekcji <HEAD> następującą linijkę kodu:
<meta name=”robots” content=”noindex, nofollow”>.
Można także posłużyć się plikiem robots.txt, blokując dostęp do serwisu dla wszystkich robotów indeksujących:
User-agent: * Disallow: /
Z kolei przed opublikowaniem nowej wersji serwisu sprawdź, czy komendy zabraniające indeksowania zostały usunięte. Jeśli nie, witryna wypadnie z indeksu wyszukiwarki, tym samym tracąc zajmowane dotychczas pozycje w wynikach wyszukiwania.
Kopie treści dotyczą wszystkich elementów witryny, również znaczników Title i meta tagów Description. Każdy tytuł oraz opis strony musi być unikalny, aby była ona dobrze postrzegana przez roboty wyszukiwarki. Jeśli serwis posiada rozbudowaną strukturę i składa się z kilkudziesięciu, a nawet kilkuset podstron warto posłużyć się regułami, które automatycznie stworzą unikalne znaczniki, np. dla e-sklepu schemat Title może wyglądać następująco:
{nazwa produktu} – {nazwa kategorii} – {element brandowy}
Z kolei Description, który ma mniejsze znaczenie dla pozycji strony w wyszukiwarce, może stanowić fragment tekstu zaciągany z treści opublikowanej w serwisie. Dla kluczowych produktów warto znaczniki i meta tagi ustawiać ręcznie, aby przemycić ważne słowa kluczowe, wspomagając tym samym proces pozycjonowania.
Duplikaty w meta tagach odkryjemy dzięki Google Search Console. W sekcji Wygląd w wyszukiwarce – Udoskonalenia HTML sprawdzimy, czy występują zduplikowane opisy lub tytuły strony albo inne błędy związane z wdrożonymi w <HEAD> znacznikami.
Oczywistą formą wewnętrznej duplikacji treści jest umieszczenie takich samych tekstów na różnych podstronach serwisu, np.
Najczęściej z duplikacją treści na kartach produktów zmagają się sklepy internetowe. Bardzo często tworzone są osobne podstrony dla poszczególnych wersji asortymentu, by trafić do osób poszukujących określonych artykułów (np. nike airmax thea rozmiar 27 lub nike airmax thea rozmiar 38,5). W takim przypadku można skorzystać z dwóch najpopularniejszych rozwiązań:
Wszystkie parametry techniczne, jeśli są wspólne dla grupy asortymentu, warto prezentować w postaci tabeli przygotowanej jako plik graficzny. W ten sposób unikniemy także wewnętrznej duplikacji treści. Z kolei dla informacji typu rozmiarówka, cennik dostawy, formy płatności należy przygotować osobne podstrony i odsyłać do nich użytkowników z poziomu karty produktów.
Stronicowanie to dzielenie treści na części i umieszczanie jej na kolejnych podstronach. Rozwiązanie jest stosowane, by ułatwić użytkownikom przeglądanie stron oraz wspomóc ich indeksowanie. Niestety paginacja niesie ryzyko zjawiska duplicate content, które występuje, gdy taki sam tekst, same produkty, znaczniki description oraz title będą znajdowały się na różnych podstronach.
Aby stronicowanie nie powodowało wewnętrznych kopii treści, można zastosować jedno z 3 rozwiązań:
Wybór danego rozwiązania zależy od rodzaju podstrony, na której zastosowano paginację.
Sortowanie stosowane w sklepach internetowych, parametry pojawiające się w adresach URL lub linki afiliacyjne tworzone np. przez aplikacje służące do mailingu są najczęściej indeksowane przez wyszukiwarki. W takim przypadku konieczne jest wdrożenie przekierowania kanonicznego na główną wersję podstrony, by zapobiec duplikacji treści w serwisie.
Tagowanie jest wprowadzane jako jedno z rozwiązań linkowania wewnętrznego. Ułatwiają robotom wyszukiwarki indeksowanie witryny. Jednak ich zastosowanie powoduje także duplikację treści, ponieważ każdy tag to nowa, zbiorcza podstrona zawierająca np. zajawki do konkretnej grupy artykułów z bloga. Co można w tym przypadku zrobić?
Dla każdego tagu warto dodać indywidualny opis, który zróżnicuje nieco treść na podstronie. Należy także pamiętać, aby dany artykuł oznaczać jedynie 2-3 tagami, by w ten sposób ograniczyć duplicate content. Tagi teoretycznie można by było zablokować przed indeksacją, ale w ten sposób tracimy zasadność ich wdrożenia w celu poprawy linkowania wewnętrznego.
Wyszukiwarka to bardzo przydatna funkcjonalność strony internetowej. Jeśli działa poprawnie, dzięki niej internauta może bardzo szybko dotrzeć do interesujących go treści lub artykułów. Jednak ona także jest odpowiedzialna za duplicate content. By temu zaradzić, wystarczy zablokować dostęp dla robotów Google do linków tworzonych przez wewnętrzną wyszukiwarkę za pomocą pliku robots.txt.
Duplicate content jest jedynym z czynników, który negatywnie wpływa na pozycje strony w wynikach wyszukiwania. Choć wewnętrzne kopie treści są mniej groźne niż zewnętrzna duplikacja, zawsze warto starać się je wyeliminowywać. Wyszukiwarka doceni unikalne teksty, dzięki czemu widoczność serwisu wzrośnie w organicznych wynikach wyszukiwania.