Jak Google zaniża jakość internetu i stron www?

Jeszcze 15 lat temu praktycznie nikt nie wiedział co to jest optymalizacja strony dla wyszukiwarek, czy tworzenie złożonego zaplecza tylko i wyłącznie po to, by zyskać kilka oczek w wynikach wyszukiwania. 15 lat temu strony nie były może tak efektywne a szata graficzna nie była aż tak starannie dopracowana ze względu na przepustowość ówczesnych łączy internetowych. Strona musiała być „lekka” i zawierać wyłącznie istotne informacje. Jakikolwiek nadmiar treści, znacznie opóźniał jej załadowanie, co bardzo często skutkowało opuszczeniem jej jeszcze przed wgraniem. Strony były tworzone wyłącznie dla ludzi.

 

Nikt tak obsesyjnie nie myślał o tym, czy umieścić słowo kluczowe pierwsze w tytule strony, czy lepiej poprzedzić je jakimś przymiotnikiem i jaki będzie to miało wpływ na pozycję strony oraz CTR (klikalność). Ani tym bardziej jaka jest szerokość i liczba znaków w tytule, i czy zmieści się on w 512 pikselach ramki wyników…? Jeżeli braliśmy udział w dyskusji na jakimś forum i chcieliśmy pochwalić się naszą witryną, umieszczane były zazwyczaj słowa „moja strona”, „zobacz”, „tutaj” czy po prostu adres strony. Nie zakładano setek sztucznych tematów na dziesiątkach for, tylko po to, by za wszelką cenę zostawić odnośnik z dokładnie pasującym tekstem zakotwiczenia.

 

Z czasem (i aktualizacjami wyszukiwarek) poprzeczka była coraz bardziej „wykrzywiana”. Skrzywienie jakości stron jest wynikiem z jednej strony popularności i dostępności internetu, z drugiej – chęci zysku i rosnącej konkurencji. By uzyskać wyższą pozycję w wynikach wyszukiwania, wymyślane są coraz to bardziej interesujące metody pozycjonowania, których efekty uboczne noszą znaną nazwę – spam. Wszystko to, by skorzystać na niedoskonałości maszyny, która ocenia strony kierując się wypracowanymi szablonami.

 

 

Jak Google zaniża jakość internetu i stron www?

 

 

I tak za jedną z przełomowych dat w historii internetu, jak i również spamu, można chyba przyjąć rok 1998 oraz powstanie algorytmu BackRub. Wraz z jego dalszym rozwojem, zaczęto obficie testować, manipulować i wykorzystywać niedoskonałości algorytmicznej oceny stron internetowych tworząc coraz to bardziej wyrafinowane strategie i metody sztucznego podwyższania pozycji.

 

Do czego zmierza obecnie Google? Jako firma, która jak na razie zależy w dużej mierze od ilości wyświetlanych reklam, by utrzymać obecnych i przyciągnąć nowych użytkowników, musi zadbać o jakość swoich usług, z których flagowym produktem jest wyszukiwarka. Na czym polegać będzie podniesienie jakości usług, m.in. na walce z mało wartościowymi stronami w wynikach wyszukiwania, które powstają jako wypadkowa samej walki. Taki paradoks…

 

Obecnie, nie ważne jakbyśmy się starali, nie poświęcimy 100% czasu na stworzenie strony wyłącznie dla użytkownika, gdyż nigdy on na nią nie trafi…Tworząc stronę nie tylko, ale i dla wyszukiwarki, siłą rzeczy zaniżamy jej jakość.

 

Firma, która głośno i efektywnie walczy z „nieetycznymi” technikami sztucznego podnoszenia pozycji stron w wyszukiwarce (m.in. spamem) jest w rzeczywistości w dużej mierze odpowiedzialna za ich powstawanie. Dlatego byłe i nadchodzące zmiany algorytmu, oczywiście w udoskonalonej wersji, będą wyżej oceniać witryny tworzone i promowane metodami sprzed powstania Google.

 

 

Może Ci się spodoba...

1 Response

  1. W czuły punkt 🙂 Bardzo mądry artykuł – nic dodać nic ująć.

Dodaj komentarz

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *