SEO dla developerów. Jak działają Google i co możemy z tym zrobić?

3/4/2018

Chcesz być wysoko w wynikach wyszukiwania i zastanawiasz się jak zoptymalizować swój projekt pod kątem SEO? Dzisiaj analiza działania wyszukiwarki Google i próba zrozumienia co możesz zrobić jako developer aby poprawić swoje rezultaty.

Czego się dzisiaj dowiesz?

W tym wpisie znajdziesz informacje na temat sposobu działania wyszukiwarki Google i co możesz zrobić jako developer aby poprawić wyniki wyszukiwania. Nie będzie to kolejny poradnik w stylu popraw nagłówki, twórz unikalny kontent itp. Skupię się bardziej na rozpoznaniu zagadnienia i zrozumieniu gdzie można coś poprawić. Pod kątem SEO oczywiście 🙂 Potraktuj to jako wstęp do całego zagadnienia.

Seria SEO

Seria SEO to kolejna seria wpisów na blogu Bedekodzic.pl w której będę starał się wytłumaczyć różne kwestie związane z wyszukiwarkami i to jak z tym wszystkim radzić sobie jako Web Developer. Wiedza stosunkowo nie najtrudniejsza a bardzo przydatna 🙂

Czym jest SEO?

SEO to skrót od angielskiego Search Engine Optimization czyli w dosłownym tłumaczeniu Optymalizacja Pod Kątem Silnika Wyszukiwania 🙂 Chodzi po prostu o to jak być wyżej w wynikach wyszukiwania w wyszukiwarkach internetowych. Czym są wyszukiwarki? To serwisy internetowe bazujące na wyrafinowanych algorytmach poszukujące dla nas danych informacji w sieci. Najpopularniejszą wyszukiwarką (przynajmniej w Polsce) jest bez wątpienia Google ale mamy też inne jak np. Yahoo czy Bing. Pamiętam też czasy kiedy w temacie rządził nasz polski Onet 🙂

Po co być wysoko w wynikach wyszukiwania? Aby potencjalny odbiorca łatwo mógł znaleść treści które do niego kierujemy. No to po raz kolejny, gdzie najczęściej szukamy? W Google’ach. Więc właśnie tą wyszukiwarkę wezmę na tapetę i spróbujemy lepiej zrozumieć jej sposób działania.

Google

Zanim zagłębimy się w szczegóły nieco historii.

Google- geneza

A więc dwóch kolegów ze studiów otworzyło tą firmę w 1998 roku w USA. W tym roku obchodzą 20 rocznicę powstania 🙂 W tym stosunkowo krótkim czasie zostali jak to nazywa wiele osób “Bogami internetu”. Dlaczego? Ich aplikacje to majstersztyk. Posiadają najprawdopodobniej najlepszą wyszukiwarkę, system map używany przez setki milionów osób czy chociażby Youtube. Nie będę wypisywał listy ich zasług bo jest długa i mogę przy tym jakąś gafę strzelić.

W Polsce mają trzy biura w Krakowie, Wrocławiu i Warszawie. Praca tam to niekwestionowany prestiż 🙂

Biuro Google we Wrocławiu

Wyszukiwarka Google

Powoli przechodzę do sedna artykułu. Spróbujmy zrozumieć jak działa ich wyszukiwarka.

Przeszukiwanie internetu czyli roboty w akcji

Zasoby internetu są przeszukiwane przez odpowiednio do tego stworzone roboty czy boty zwane też crawlerami. Są to specjalne algorytmy które za pomocą ustalonych kryteriów indeksują strony w wynikach wyszukiwania. W opisie używam liczby mnogiej a robię to dlatego, iż tych robotów jest kilka. Główny robot nazywa się np. Googlebot. Każdy robot odpowiada za inny rodzaj wyszukiwania i jeśli chcesz sprawdzić pełną listę robotów możesz sprawdzić TEN link.

No dobra to mamy mglistą wizję czym są crawlery Google i automatycznie nasuwa się pytanie w jaki sposób przeszukują one internet? Nie trudno się domyślić, że roboty mają do wykonania iście syzyfową pracę bo stron w internecie są miliardy. Mają do dyspozycji potężne komputery o imponującej mocy obliczeniowej aby im w tym pomóc. To jak w zasadzie sobie z tym radzą?

Indeksowanie stron

Dokładny algorytm działania robota jest ściśle strzeżoną tajemnicą firmy i nie idzie za bardzo znaleść takich rzeczy w internecie ale można powiedzieć, że roboty są podobne do ciężarówek które za pomocą sieci dróg i autostrad docierają do rozmaitych miejsc w kraju i za granicą. A czym są te drogi? To LINKI czyli adresy www lub odnośniki prowadzące z i do innych stron internetowych. Zarówno wewnętrzne jak i zewnętrzne. To w takim razie w jaki sposób te strony są przeszukiwane i dlaczego zajmują taką a nie inną pozycję w wyszukiwaniach?

To w jaki sposób strony są indeksowane jest po raz kolejny tajemnicą firmy ale omówię tą kwestię nieco później w tym wpisie. Jeśli chodzi o samo przeszukiwanie to zaczyna się ono od słowa lub frazy kluczowej. Zazwyczaj ludzie szukają powtarzalnych fraz kluczowych więc bazą do każdego wyszukiwania są wyniki z poprzedniego wyszukiwania wykonanego gdzieś indziej. Boty przeszukują w pierwszej kolejności już znane strony a potem szukają linków nowych i je katalogują.

Ta prosta analogia daje już nam wskazówkę jak ważne jest umieszczanie na stronach różnego rodzaju linków. Zwłaszcza do lub z stron które już zdążyły wyrobić sobie wysoką pozycję w wynikach. Pamiętajcie jednak, że umieszczanie linków do stron uznanych za niebezpieczne Wam nie pomoże… No ale ta wiedza jest banalna. Może czas na coś ciekawszego?

Plik robots.txt

Zakładając, że dany robot już znalazł naszą stronę możemy mu ułatwić przeszukiwanie samej strony lub całej witryny. Możemy mu też powiedzieć, czy strona jest interesująca dla innych robotów i czy warto je do nas zaprosić.

Plik robots.txt jest plikiem który możemy stworzyć jako deweloperzy by zdefiniować pracę robotów na stronie. Umieszcza się go w np. katalogu głównym obok pliku index.html. Ważnym jest aby stworzyć go w najprostszym edytorze tekstowym bo nie doda on jakiejś dodatkowej formatki która może popsuć działanie pliku.

Oczywiście wspomniane przeze mnie informacje są pobieżne dlatego odsyłam was do oficjalnej dokumentacji jak i nieco uproszczonej polskiej wersji. Tam można poznać więcej szczegółów na temat tego zagadnienia i dowiedzieć się jak zastosować ten plik w swoim projekcie. Jeśli się uda to stworzę osobny wpis na ten temat w przyszłości. Napiszcie w komentarzach czy ten temat jest dla Was ciekawy.

Blokada dostępu dla robotów

No ale możemy też chcieć zablokować dostęp robotów do naszej strony. Z różnych powodów. Jak to zrobić? Opiszę dwa proste sposoby.

Blokada w robots.txt

Możemy po prostu dodać odpowiednią linijkę kodu w pliku. Jest to bardzo proste:

User-agent: Googlebot
Disallow: /nogooglebot/
User-agent: *
Allow: /

O co chodzi w tym zapisie? Robot o nazwie Googlebot (czyli główny) nie ma dostępu do podkatalogu nogooglebot natomiast wszystkie boty mają dostęp do katalogu głównego witryny.

Blokada przez metatag

Drugą metodą jest blokada w pliku .html poprzez dodanie odpowiedniego metatagu w headzie. Jak to zrobić?

<meta name="AdsBot-Google" content="noindex" />

Analogicznie definiujemy nazwę bota i mówimy mu żeby nie indeksował 🙂

Plik sitemap.xml

Kolejnym sposobem na pomoc w pracy botom jest umieszczenie na serwerze pliku sitemap.xml. Jest to mapa strony mówiąca o co w ogóle tam chodzi.

Oficjalna dokumentacja po polsku jest bardzo fajnie napisana więc odsyłam Was tam. Tak będzie najlepiej 🙂

Po co to wszystko?

Pliki robots.txt i sitemap.xml nie są konieczne aby znaleść nas w Google jednak jako deweloperzy powinniśmy mieć świadomość ich istnienia i wiedzieć, że wyszukiwarka ceni sobie takie rzeczy.

Algortymy indeksowania

Kiedy już robotom udało się zebrać odpowiednią ilość danych specjalne algorytmy analizują je pod kontem zawartości i na tej podstawie indeksują wyniki wyszukiwania. Po raz kolejny mamy do czynienia ze ścisłą tajemnicą firmy nie mniej jednak są dostępne pewne podstawowe informacje na ich temat.

Główny silnik wyszukiwarki jest ciągle rozwijany i na przestrzeni lat był udoskonalany o poprawki algorytmiczne. Z czasem te poprawki zaczęły się rozbudowywać i ewoluować dlatego też specjaliści zdecydowali o nadaniu im osobnych nazw i wyróżnieniu od całości. Poniżej opiszę te najpopularniejsze update’y.

Google Panda

Ta poprawka została wypuszczona w lutym 2011 a jej głównym zadaniem było obniżenie rankingu stron z zawartością o niskiej jakości tzn. krótkie teksty czy skopiowana zawartość. Jeśli więc słyszysz, że należy pisać unikalne teksty o odpowiedniej długości to na straży tej zasady stoi Panda. Więcej informacji można znaleść np. TUTAJ

Google Penguin

Pingwin wypuszczony w kwietniu 2012 i pilnuje aby strony szły w jakość a nie ilość tzn. ktoś nawrzuca na stronie tysiąc linków a połowa z nich kieruje pod ten sam adres… Z Pingwinem to nie przejdzie… Dbaj o swoich czytelników 🙂 Proste jak to 🙂 Więcej info TUTAJ.

Google Hummingbird

Ten Koliber narodził się w sierpniu 2013 a odpowiada za odpowiednią interpretację słów kluczowych np. jak wpiszesz ‘może ‘ to nie wyskoczy Ci seria zdjęć znad Bałtyku. Poczytaj więcej TU

Google Fred

Ta poprawka wydana w marcu 2017 ma na celu obniżenie rankingu stron które są nastawione czysto komercyjnie. O co chodzi? Jeśli masz na stronie dużo reklam, treści są mizernej jakości a tytuły to klasyczne clickbait’y to Fred Ci tego nie wybaczy 🙂 Więcej o Fredzie można znaleść np. TUTAJ

Co więcej?

Silnik Google to o wiele więcej niż wspomniane wyżej poprawki. Można pogrzebać np. w… Googlach 🙂 Ale jeśli ktoś chce dwa szybkie linki na temat poprawek algorytmicznych do Google to niech sprawdzi TU lub TUTAJ.

Jak poprawić SEO w swoim projekcie?

No to mamy już mglistą wizję jak Google przeszukuje internet i co wpływa na indeksowanie stron. Następnym pytaniem jest co my możemy z tym zrobić?

Typy SEO

Zanim przejdę dalej chciałbym postawić granicę między (conajmniej) dwoma rodzajami działań mającymi na celu poprawę SEO.

SEO związane z treścią

Lub z tzw. kontentem. Jest to zbiór dobrych zasad co do tworzenia treści pojawiających się w serwisach np. długość paragrafów, ilość nagłówków, podpisy pod obrazkami, słowa kluczowe itp. Generalnie temat rzeka ale nie będę się na tym skupiał w tym wpisie bo to jest praca osoby tworzącej treści więc jako deweloper nie masz na to bezpośredniego wpływu. Możesz co najwyżej napisać do tego poprawny HTML. To też jest bardzo ważne 🙂

Techniczne SEO

Czyli kwestie czysto techniczne dzięki którym Twoje strony będą lepsze. Zaraz to przeanalizujemy…

Co wpływa na pozycję w wyszukiwarce?

Za bazę do tej analizy użyłem artykułu napisanego pod koniec 2016 który wymienia TOP200 czynników które wpływają na SEO. Artykuł uważam za ciągle aktualny. Dlaczego? O tym później 🙂

Wypiszę wszystkie punkty z listy które uważam za typowo techniczne:

Rozmiar i szybkość ładowania pliku .html

To chyba jasne.

Szybkość ładowania całej strony

Jak jest ciężka a skrypty mulące to będzie nisko. Można łatwo zbadać szybkość stronny w Speed Teście od Google 

Optymalizacja grafik

To jest jasne.

Semantyka HTML i zachowanie standardów W3C

To jak tworzymy markup (kod HTML) jest bardzo ważne. Należy stosować dobre praktyki (link na końcu wpisu) a potem sprawdzić czy kod jest zgodny ze standardami W3C.

SSL

Jeśli posiadamy certyfikat strona jest bardziej zaufana jest więc wyżej.

Używanie metatagów

Samo ich używanie jest oczywiste ale ważne aby nie spamować zawartości i ich nie powtarzać. To obniża ranking.

RWD

Strony responsywne są notowane wyżej. Dzisiaj to już w zasadzie standard.

Używanie Google Analytics i Google Webmaster Tools 

Czyli narzędzia od Google 🙂 Tu nie ma zaskoczenia chyba.

Lokalizacja serwera

Jeśli celujesz w odbiorców z danego kraju umieść stronę na tamtejszym serwerze.

Co jeszcze?

Hmmm… Powyższa lista jest subiektywna i ktoś mógłby znaleść więcej czynników które można by podciągnąć pod techniczne no ale… Może jeszcze jakieś sugestie? Co można by dodać do tej listy?

Zmiany w algorytmach

W poprzednim akapicie stwierdziłem, że lista sprzed 1,5 roku jest ciągle aktualna. Dlaczego? Otóż Google co jakiś czas wypuszcza poprawki do swoich algorytmów. Generalnie jest to tajemnicą więc nikt do końca nie wie co się zmieniło. Informacje są zazwyczaj częściowe. Czasem update jest oficjalny a czasem nie…

Istnieje cała rzesza ludzi analizujących zmiany w algorytmach. Istnieje lista czynników które są ważne przy SEO ale każda poprawka może przynieść zmianę wagi poszczególnego czynnika. Dlatego uważam, że omawiana lista może być uzupełniana ale generalnie jest poprawna.

Jeśli chcesz śledzić zmiany w aktualizacjach możesz śledzić np. TEN serwis.

Praca speca od SEO

Jak już wspomniałem SEO to nie tylko sprawy techniczne ale też sposób tworzenia i publikowania treści. Specjaliści w tej dziedzinie śledzą na bierząco zmiany w algorytmach, prowadzą mniej lub bardziej udane analizy, wszystko w celu dotarcia do jak największej liczby odbiorców.

Skąd brać ogólne informację na temat trendów SEO? Najlepiej śledzić poczynania najlepszych. Jednym z guru w temacie jest Neil Patel i można po prostu śledzić jego bloga.

Informacje techniczne

Rozpisałem się dzisiaj na temat ogólnych informacji związanych z SEO. Gdzie jednak szukać konkretów?

Jeśli chodzi o materiały po angielsku TEN tutorial wydaje się interesujący.

Z polskich autorów bardzo interesujący WPIS stworzył w swoim czasie Comandeer. Dotyczy on semantycznego HTML’a.

Podsumowanie

SEO to wręcz osobna dziedzina wiedzy niemniej jako programista warto wiedzieć jak to funkcjonuje. Mam nadzieję, że doczytałeś ten rozwleczony wpis do końca i był on choć częściowo ciekawy.

W tej serii będę starał się przybliżać aspekty związane z SEO. Jeśli jest coś co szczególnie Cię interesuje a nie znalazłeś na ten temat ciekawych informacji to napisz w komentarzu. Postaram się z czasem o tym napisać.

Please follow and like us:
0

Piszę dla was tego bloga bo lubię aplikacje internetowe. Mogę je projektować, kodować a potem o nich pisać czując dreszczyk ekscytacji za każdym razem gdy trafię na coś nowego. Bo uczymy się całe życie. Prawda?

WARTO
Social media & sharing icons powered by UltimatelySocial