Jak skrócić czas oczekiwania na neutralizację niechcianych linków?

Jak skrócić czas oczekiwania na neutralizację niechcianych linków?Od czasu powstania Disavow Tool, stało się ono popularnym i chętnie wykorzystywanym narzędziem do zrzekania się niechcianych linków. Jednak wiele osób jest niezadowolonych z czasu, jaki należy czekać na efekty.

 

Zasada działania jest prosta: ustalamy adresy URL i/lub domeny, z których pochodzą linki, tworzymy listę (instrukcja) a następnie przesyłamy ją do Google. Problem polega na tym, że odnośniki przychodzące zostaną zneutralizowane dopiero, gdy robot odwiedzi i przeanalizuje daną stronę. Może to oznaczać wielomiesięczny okres czekania na efekty. W przypadku wcześniejszego nałożenia kary (filtr, ban), wysyłamy prośbę o ponowne rozpatrzenie. Natomiast co zrobić, gdy nie otrzymaliśmy kary, a zależy nam na czasie?

 

Otóż musimy zmusić Googlebota do ponownego odwiedzenia strony. Najprostszym sposobem jest masowe powiadomienie odpowiednich serwisów o zmianach, jakie zaszły na stronie, która do nas linkuje – pingowanie konkretnych adresów URL. Teoretycznie, robot sieciowy otrzymując taki sygnał, zapisuje adres w swojej bazie danych i powinien go w najbliższym czasie odwiedzić. Kiedy to jednak zrobi, w dużej mierze zależy od wartości samej strony, czyli jeżeli dana domena posiada wysoki autorytet, PageRank lub jest licznie podlinkowana, czas ten ulega znacznemu skróceniu. W skrajnych przypadkach, przejrzenie kilku tysięcy adresów URL zajmuje Google kilka dni, a nie miesięcy.

 

 

Pingowanie adresów z listy disavow tool

 

 

Jak w przypadku każdej metody zmuszenia Google do wykonania pożądanej przez nas czynności, nie mamy pewności czy w 100% zadziała. Jednak z przeprowadzonego testu na 500 linkach (adresach URL), czas odwiedzenia wszystkich po pingowaniu wyniósł 9 godzin. Czyli w tym czasie zanotowano odwiedziny Googlebota na każdej podstronie umieszczonej na liście przesłanej narzędziem do usuwania niechcianych linków.

 

Warto dodać, że czas odwiedzenia wszystkich adresów, zależał w dużej mierze od liczby zgłoszonych podstron na domenie. Tzn. im więcej do przejrzenia podstron na jednej domenie miał Googlebot, tym więcej czasu mu to zajmowało.

 

Może Ci się spodoba...

6 komentarzy

  1. Łukasz pisze:

    Google znowu próbowało zreperować świat, a wyszło jak zwykle 😉 Dobry sposób, warty wypróbowania

  2. Afroman pisze:

    Ciekawy pomysł, nie spotkałem się jak dotąd z taką metodą, na pewno wypróbuję 🙂

  3. Otóż to pasowałoby z niego skorzystać faktycznie. Ciekawe jakby się to miało do strony.

  4. Warto też sprawdzić linki SEO Odkurzaczem – i zrobić plik disavow

  5. Krzysztof pisze:

    Ciekawe i pomocne 🙂

  6. Michał pisze:

    Moim zdaniem Disavow jest jednak pomocnym narzedziem. Można powyciągać sporo stron, które straciły na pozycjonowaniu automatami.

Skomentuj Krzysztof Anuluj pisanie odpowiedzi

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *