" />

KAKO DELUJEJO ISKALNIKI – ISKANJE, INDEKSIRANJE IN RAZVRŠČANJE

Kot smo že omenili v prvem poglavju, so iskalniki osredotočeni na zagotavljanje najboljše vsebine uporabnikom na spletu. Namenjeni so odkrivanju, razumevanju in organiziranju spletnih vsebin ter ponujanju najbolj primernih rezultatov za iskalne nize.

Da bi vaša spletna stran bila med rezultati iskanja, mora biti najprej vidna iskalnikom. To predstavlja verjetno najpomembnejši del optimizacije spletnih strani (SEO). Če vaše spletne strani ni mogoče najti v brskalniku, se ne bo pojavila niti med rezultati iskanja (SERP).

Kako delujejo iskalniki?

Iskalniki delujejo prek treh osnovnih funkcij:

  1. Crawling (iskanje po spletu): Iskanje vsebin po internetu in pregled kode (vsebine) za vsak URL, ki ga najdejo.
  2. Indeksiranje: Shranjevanje in organiziranje vsebine, ki jo odkrijejo med postopkom “crawlinga”. Ko je stran v indeksu, se lahko prikaže kot rezultat ustreznih iskalnih poizvedb.
  3. Uvrščanje: Razvrščanje vsebine, ki najbolje ustreza iskalčevi poizvedbi. Rezultati so razvrščeni od najbolj ustreznih do najmanj ustreznih.

Kaj pravzaprav je crawling?

Crawling je postopek odkrivanja, pri katerem iskalniki pošljejo skupino robotov (imenovanih tudi pajki ali “web crawlerji”), da iščejo novo in posodobljeno vsebino na spletu. Ne glede na vrsto vsebine (spletna stran, slika, videoposnetek, PDF itd.), jo pajki odkrijejo preko povezav.

Search engine robots, also called spiders, crawl from page to page to find new and updated content.

Googlebot začne s svojim delom tako, da sledi povezavam na spletnih straneh in išče nove URL-je. S premikanjem po poti povezav lahko pajek odkrije novo vsebino in jo doda v svoj indeks – to je ogromna zbirka podatkov odkritih URL-jev. Indeks predstavlja nekakšno bazo vseh vsebin. Ko uporabnik išče informacije, iskalnik preko svojega indeksa izbere najbolj primerno vsebino za iskano ključno besedo.

Kaj je indeks iskalnika?

Indeks je baza podatkov, ki vsebuje informacije o vsebinah, ki so jih iskalniki odkrili s procesom crawlanja. Vsebina se obdeluje in shrani v indeks, da jo je mogoče prikazati kot odgovor na iskalčevo poizvedbo. Indeks vsebuje informacije o ključnih besedah, naslovih, opisih in drugih elementih spletne strani, ki jih iskalniki uporabljajo za razvrščanje in prikazovanje rezultatov iskanja. Indeks je ključen za SEO, saj spletna stran ne more biti prikazana v rezultatih iskanja, če ni vključena v indeks.

Razvrščanje v iskalnikih

Ko nekdo izvede iskanje, iskalniki preiščejo svoj indeks in nato prikažejo vsebino v upanju, da bodo rešili iskalčevo poizvedbo. Ponujanje rezultatov iskanja glede na ustreznost je znano kot razvrščanje. Na splošno velja pravilo prednosti boljši vsebini. Višje, kot je spletna stran uvrščena, tem bolj je iskalnik prepričan, da je ta vsebina dobra za vpisano poizvedbo.

Možno je blokirati pajke delu strani ali celotni spletni strani ali naročiti iskalnikom, naj se izogibajo shranjevanju določenih strani v njihov indeks. Če želite, da vašo vsebino najdejo iskalci, se morate najprej prepričati, da je dostopna pajkom in jo je mogoče indeksirati.

 

Iskalniki med seboj niso enaki!

 

Ko govorimo o optimizaciji spletnih strani za iskalnike, se mnogi začetniki sprašujejo o relativnem pomenu določenih iskalnikov. Čeprav obstaja več kot 30 večjih spletnih iskalnikov, se SEO skupnost posveča pozornost le Google-u. To ni presenetljivo, saj ima Google izredno velik tržni delež na področju spletnega iskanja. Google Slike, Google Zemljevidi in YouTube prav tako prispevajo k temu, da se več kot 90 % spletnih iskanj zgodi na Googlu, kar je skoraj 20-krat več kot Bing in Yahoo skupaj. Zato je razumljivo, da se večina optimizacije spletnih strani osredotoča na Google.

Iskanje po vsebini: Ali lahko iskalniki najdejo vaše strani?

Kot smo pravkar poudarili, je predpogoj za prikaz vaše spletne strani v iskalnih rezultatih (SERP) zagotovitev, da se vaše spletno mesto preišče in indeksira. Če že imate spletno stran, bi bilo dobro preveriti, koliko vaših strani je indeksiranih, saj nam ta podatek pove, ali Google išče po vaši vsebini in najde vse strani, ki jih imate.

Eden od načinov za preverjanje indeksiranih strani je uporaba operaterja “site:yourdomain.com” za napredno iskanje. Na Googlu v iskalno vrstico vnesite “site:yourdomain.com”. Prikazali se bodo rezultati, ki jih ima Google v svojem indeksu za vašo spletno stran.

A screenshot of a site:moz.com search in Google, showing the number of results below the search box.

Število rezultatov, ki jih prikaže Google (glejte »Približno XX rezultatov« zgoraj), ni natančno, vendar vam daje dobro predstavo o tem, katere strani so indeksirane na vašem spletnem mestu in kako so trenutno prikazane v rezultatih iskanja.

Za natančnejše rezultate spremljajte in uporabite poročilo Pokritost indeksa v storitvi Google Search Console. Lahko se registrirate tudi v Google Search Console. S tem orodjem oddate zemljevide spletnih mest za svoje spletno stran in med drugim spremljate, koliko poslanih strani je bilo dejansko dodanih v Googlov indeks.

Moja spletna stran se ne prikaže med rezultati iskanja? Tukaj navajamo nekaj možnih razlogov, zakaj:

  • Vaša spletna stran je popolnoma nova in še ni bila preiskana.
  • Vaša spletna stran ni povezana z nobenim zunanjim spletnim mestom.
  • Navigacija po vašem spletnem mestu robotu otežuje njegovo učinkovito “pajkanje”.
  • Vaša spletna stran vsebuje kodo, ki blokira indeksiranje.
  • Google je vaše spletno mesto kaznoval.

Sporočite iskalnikom, kako naj preiščejo vaše spletno mesto

Če ste uporabili Google Search Console ali napredno iskanje “site:domain.com” in ugotovili, da manjkajo nekatere pomembne strani v indeksu, ali pa so bile nekatere nepomembne strani pomotoma indeksirane, obstajajo načini, kako lahko usmerite Googlebot pri indeksiranju vaše spletne vsebine. S tem, ko iskalnikom poveste, kako naj iščejo po vaši spletni strani, lahko bolj nadzirate, kaj se nahaja v indeksu.

Večina ljudi preprosto pozabi, da obstajajo strani, ki bi bile bolje, da jih Google ne vključi v svoj indeks. To so lahko na primer stari URL-je s “slabo” vsebino, podvojeni URL-je (ki se pojavljajo v spletnih trgovinah), posebne strani s promocijskimi kodami, testne strani in podobno. Če želite usmeriti Google, lahko uporabite robots.txt.

Robots.txt

Datoteke Robots.txt se nahajajo v korenskem imeniku spletnih mest (npr. domena.si/robots.txt) in nakazujejo, katere dele vaše spletne strani bi iskalniki morali in katere ne bi smeli indeksirati.

Kako Googlebot obravnava datoteke robots.txt?

Datoteka robots.txt je pomembna za nadzor nad tem, katere strani na vašem spletnem mestu naj se indeksirajo in katere ne. Če datoteke robots.txt ni, bo Googlebot nadaljeval s pajkanjem po celotni spletni strani. Če pa najde datoteko robots.txt, bo običajno upošteval navodila v njej in se izognil pajkanju določenih strani ali map na spletnem mestu. V primeru, da med dostopom do datoteke robots.txt pride do napake in Googlebot ne more ugotoviti, ali datoteka obstaja ali ne, bo prekinil pajkanje spletnega mesta, da bi se izognil indeksiranju strani, ki bi lahko bile označene kot prepovedane.

 

Crawl budget!

 

Crawl budget se nanaša na povprečno število URL-jev, ki jih bo Googlebot preiskal na vaši spletni strani, preden jo bo zapustil. Če želite optimizirati crawl budget, morate poskrbeti, da Googlebot ne izgublja časa z iskanjem po nepomembnih straneh, saj s tem tvegate, da bo prezrl vaše pomembne strani. Crawl budget je še posebej pomemben na zelo velikih spletnih straneh z več deset tisoč URL-ji. Hkrati je treba paziti, da ne preprečite dostopa do vsebine, ki je za vas pomembna, saj lahko s tem negativno vplivate na vašo prisotnost v iskalniku. Zato je pomembno, da pazljivo uporabljate robots.txt in meta oznake, ter se posvetujete s strokovnjaki za optimizacijo spletnih strani, da zagotovite, da se vaše strani indeksirajo na najboljši možen način. Prav tako je priporočljivo redno spremljati indeksiranje vaše spletne strani s pomočjo orodij, kot je Google Search Console.

Definiranje parametrov URL-ja v GSC

Nekatere spletne strani (najpogosteje spletne trgovine) prikazujejo enako vsebino na več različnih URL-jih. Ko nakupujete na spletu, verjetno iščete želeni izdelek s pomočjo filtrov. Na Amazonu lahko na primer iščete z iskalnim nizom »čevlji« in nato filtrirate iskanje po velikosti, barvi, znamki, itd. Vsakič, ko dodate ali odstranite filter, se URL nekoliko spremeni. Podobno lahko to storite na spletni strani https://www.evino.si/. Vina iščete s pomočjo uporabe filtrov.

Primer:

  • https://www.evino.si/vina
  • https://www.evino.si/vina?ow_barva_vina=42

 

Google uporablja različne metode za določanje reprezentativnega URL-ja, ki ga naj prikaže iskalcem. Poleg tega lahko uporabite funkcijo parametrov URL-ja v Google Search Console, da natančno poveste, kako želite, da Google obravnava vaše strani. Vendar morate biti previdni, saj lahko s to funkcijo zahtevate, da Googlebot ne pajka po URL-jih s parametrom ____ in posledično skrijete vsebino pred Googlebotom, kar lahko povzroči odstranitev teh strani iz rezultatov iskanja. To je dobro, če parametri ustvarjajo podvojene strani, vendar ni idealno, če želite, da se te strani indeksirajo.

Ali lahko pajki (crawlers) najdejo vso vašo pomembno vsebino?

Zdaj, ko poznate nekatere taktike premikanja pajkov po strani, si oglejmo, kako lahko Googlebotu pomagamo najti pomembne strani.

Da bi zagotovili, da iskalniki najdejo vso pomembno vsebino, moramo preveriti, ali so vse strani ali odseki vaše spletne strani dostopni za pajkanje.

Vprašajte se:

Ali lahko bot plazi po vaši spletni strani?

Ali je za ogled vsebine potrebna prijava?

Če od uporabnikov zahtevate, da se pred dostopom do določene vsebine prijavijo, izpolnijo obrazce ali odgovorijo na anketo, iskalniki ne bodo videli teh zaščitenih strani. Pajek se zagotovo ne bo prijavil.

 

Imate na vaši spletni strani iskalno okno?

Roboti ne morejo uporabljati iskalnikov na spletni strani.

 

Ali je besedilo skrito v ne-besedilni vsebini?

Slike, videoposnetke, GIF-e itd. se ne sme uporabljati za prikaz besedila, ki ga želite indeksirati. Medtem ko so iskalniki vse boljši pri prepoznavanju slik, še vedno ni zagotovila, da bodo lahko prebrali in razumeli besedilo, ki se nahaja na sliki. Zato je vedno najbolje dodati besedilo znotraj HTML oznake vaše spletne strani.

 

Ali lahko iskalniki sledijo navigaciji vašega spletnega mesta?

Da, iskalniki lahko sledijo navigaciji vašega spletnega mesta, vendar pa morajo biti zgrajene t.i. notranje povezave. Te morajo biti na vaši spletni strani strukturirane na načine, ki iskalnikom omogočajo  sledenje povezavam od strani do strani, saj na ta način odkrivajo vsebino, ki jo želite indeksirati. Če imate stran, za katero želite, da jo iskalniki najdejo, vendar pa ta ni povezana z nobeno drugo stranjo, bo ostala nevidna. Zato je pomembno, da spletno mesto strukturirate na način, ki ne ovira iskalnika pri vključitvi na seznam rezultatov iskanja.

 

Nasveti za izboljšanje navigacije na spletni strani:

  • Krmarjenje po mobilnem omrežju lahko prikaže drugačne rezultate kot navigacija po namizju, kar lahko vpliva na vidnost spletnega mesta v iskalnikih.
  • Navigacija z omogočenim JavaScriptom lahko ovira sposobnost iskalnikov, da razumejo in indeksirajo spletno stran. Zagotovitev, da so elementi menija v HTML-ju, je zanesljiv način za izboljšanje vidnosti spletne strani.
  • Prilagajanje ali prikaz enolične navigacije samo določeni vrsti obiskovalcev lahko zmanjša vidnost spletnega mesta v iskalnikih.
  • Ne pozabite na povezavo do primarne strani prek navigacije. Povezave so poti, po katerih sledijo iskalniki novim stranem. Zato je pomembno, da ima spletno mesto jasno navigacijo in strukture URL-ja.

 

Kaj je informacijska arhitektura in kaj je značilno za dobro informacijsko arhitekturo?

Informacijska arhitektura je praksa organiziranja in označevanja vsebin na spletni strani za izboljšanje učinkovitosti in vidnosti uporabnikom. Značilnost dobre informacijske arhitekture je njena intuitivnost, ki omogoča uporabnikom lahek dostop do vsebin na spletni strani brez zapletenega razmišljanja o navigaciji ali iskanju potrebnih informacij.

 

Ali uporabljate zemljevide spletnega mesta?

Zemljevid spletnega mesta je seznam URL-jev na vašem spletnem mestu, ki jih lahko pajki uporabijo za odkrivanje in indeksiranje vaše vsebine. Ena najlažjih načinov za zagotovitev, da Google najde vaše najpomembnejše strani, je ustvariti datoteko, ki ustreza Googlovim standardom, in jo poslati prek orodja Google Search Console. Čeprav pošiljanje zemljevida spletnega mesta ne nadomesti potrebe po dobri navigaciji po spletnem mestu, lahko zagotovo pomaga pajkom slediti poti do vseh vaših pomembnih strani.

Prepričajte se, da ste v zemljevid spletnega mesta vključili samo URL-je, za katere želite, da jih iskalnik indeksira, in zagotovite, da pajki dobijo dosledna navodila. Na primer, v zemljevid spletnega mesta ne vključujte URL-ja , ki je blokiran prek robots.txt, ne vnašajte tudi URL-jev, ki so podvojeni namesto prednostne kanonične različice (več informacij o kanoničnosti sledi v poglavju 5!).

Če na vaše spletno mesto ne kaže nobena druga spletna stran, ga še vedno lahko vključite v indeks tako, da v orodju Google Search Console predložite vaš XML zemljevid spletnega mesta. Ni zagotovila, da bodo predložen URL vključili v njihov indeks, vendar pa je poskus vsekakor vreden truda!

 

Ali pajki naletijo na napake, ko poskušajo dostopati do vaših URL-jev?

Med obdelavo URL-jev vašega spletnega mesta lahko pajki naletijo na napake. S poročilom “Napake pri obiskovanju” v orodju Google Search Console lahko najdete URL-je, na katerih se te napake pojavljajo. Poročilo vam bo prikazalo napake strežnika in tiste napake, ki jih “ni mogoče najti”. Podatke o napakah lahko najdete tudi v dnevnikih strežnika, kjer boste našli tudi informacije o pogostosti obiskov, vendar pa je dostop in analiza teh dnevnikov bolj napredna taktika, zato je v tem vodiču ne bomo podrobno obravnavali. Več o tej temi si lahko preberete tukaj.

 

Preden boste lahko smiselno uporabljali poročilo o napakah pri obdelavi URL-jev, morate razumeti, kaj so napake strežnika in kaj pomenijo tiste napake, ki jih “ni mogoče najti”. Oglejmo si nekaj primerov napak.

 

4xx Kode: Kadar iskalniki ne morejo dostopati do vsebine zaradi napake uporabnika

Napake 4xx so napake uporabnika, kar pomeni, da zahtevani URL vsebuje napačno sintakso ali ni izpopolnjen. Ena najpogostejših napak 4xx je napaka “404 – stran ne obstaja”. Do teh napak lahko pride zaradi tipkarskih napak pri URL-ju, izbrisane strani ali ko ni ustvarjenih preusmeritev. Ko se iskalniki srečajo z napako 404, ne morejo dostopati do URL-ja. Napaka 404 prav tako odvrne uporabnika.

 

5xx Kode: Kadar pajki zaradi napake strežnika ne morejo dostopati do vaše vsebine

Napake 5xx se pojavijo, kadar strežnik, na katerem se nahaja vaša spletna stran, ne more izpolniti zahteve uporabnika ali iskalnega stroja za dostop do strani. V orodju Google Search Console lahko v poročilu “Napake pri krmarjenju” preverite te napake, ki se običajno pojavijo zaradi prekinitve zahteve za URL. Če imate težave s povezljivostjo strežnika, si lahko ogledate dokumentacijo Google-a, kjer boste našli več informacij o reševanju teh težav.

Svetujemo vam, da za sporočanje o premaknjeni vsebini uporabite preusmeritev 301 (trajna preusmeritev). Tako boste obiskovalcem vaše strani kot tudi iskalnim strojem sporočili, da se je vaša stran premaknila in bo preusmerjena na novo mesto.

 

Izognite se stranem 404!

 

Stranem 404 se izognite tako, da dodate preusmeritev s strani, ki ne obstaja, na želeno podstrani na vaši strani. Tako boste preprečili, da bi obiskovalci zapustili vašo spletno stran, ko bi naleteli na napako 404.

Recimo, da premaknemo stran iz example.com/young-dogs/  v  example.com/puppies/. Iskalniki in uporabniki potrebujejo povezavo za prehod iz neobstoječega (starega) URL-ja na novega. Povezava za preusmerjanje je 301.

 

Ko izvedete preusmeritev 301:Ko ne izvedete preusmeritve 301:
Ustreznost povezaveSe prenese vsebina na povezavi s stare lokacije strani na nov URL.Brez preusmeritve se vsebina iz prejšnjega URL-ja ne prenese na nov URL.
IndeksiranjePomaga Googlu najti in indeksirati novo različico strani.Sam obstoj 404 napak na vašem spletnem mestu ne vpliva na uspešnosti iskanja, vendar pa lahko obstoj strani 404 povzroči, da te padejo iz indeksa in posledično ni več dobre uvrstitve strani
Uporabniška izkušnjaUporabnikom zagotavlja, da najdejo stran, ki jo iščejo.Če obiskovalcem (potencialnim strankam) omogočite, da kliknejo na stran, ki ne obstaja, tvegate, da bodo stran zapustili in odšli h “konkurenci”.

Preusmeritev 301 sama po sebi pomeni, da se je stran trajno preselila na novo lokacijo. Izogibajte se preusmerjanju URL-jev na strani z drugo vsebino, ki je v resnici uporabnik ne išče. Če stran dosega dobro uvrstitvev za določeno ključno besedo in jo preusmerite s 301 preusmeritvijo na URL z drugačno vsebino, se lahko uvrstitev poslabša, saj ta stran ne ponuja več relevantne vsebine za določen iskalni niz. Preusmeritve tipa 301 so sicer učinkovite, a jih je potrebno dosledno graditi.

Obstaja tudi preusmeritev strani 302, vendar lahko to izkoristite le v primerih, ko prenos povezave ni tako pomemben. Koda 302 je podobna obvoznici na cesti, ko je le začasno usmerjen promet po določeni cesti.

 

Previdni bodite pri verižnih preusmeritvah!

 

Googlebot težko doseže vašo spletno stran, če mora premagati več preusmeritev. Google to imenuje “verižne preusmeritve” in priporoča, da jih omejite, kolikor je mogoče. Če preusmerite example.com/1 na example.com/2 in se kasneje odločite, da ga preusmerite na example.com/3, je najbolje, da izločite posrednika in preprosto preusmerite example.com/1 na example.com/3.

 

Ko je poskrbljeno, da je vaša spletna stran optimizirana za pregled s strani robotov, je potrebno poskrbeti, da se lahko spletna stran indeksira.

 

Indeksiranje: Kako iskalniki interpretirajo in shranjujejo vaše strani?

 

Ko ste poskrbeli, da je vaša spletna stran optimizirana za indeksiranje, je naslednja naloga, da se prepričate, da jo je sploh mogoče indeksirati. Prav ste prebrali – to, da lahko iskalnik odkrije in obišče vašo spletno stran, še ne pomeni, da bo shranjena v njihovem indeksu. V prejšnjem razdelku o indeksiranju smo razpravljali o tem, kako iskalniki odkrijejo vaše spletne strani. Indeks je kraj, kjer so shranjene vaše odkrite strani. Ko pajek najde stran, jo iskalnik prikaže enako kot brskalnik. Pri tem postopku iskalnik analizira vsebino strani in vse informacije shranjuje v svojem indeksu.

 

Preberite več o tem, da se naučite, kako deluje indeksiranje in kako lahko poskrbite, da se vaša spletna stran znajde v tej zelo pomembni bazi podatkov.

 

Ali lahko vidim, kako Googlebot vidi moje strani?

 

Da, shranjena verzija (cached) vaše strani odraža trenutno stanje zadnjega pregleda strani s strani Googlebota.

Google obiskuje in shranjuje kopije spletnih strani v različnih intervalih. Bolj uveljavljene in dobro znane spletne strani z veliko objavami, kot je na primer https://www.nytimes.com/, bodo obiskane pogosteje kot manj znane spletne strani kot je http://www.rogerlovescupcakes….

Kopijo vaše shranjene strani lahko vidite tako, da kliknete na padajočo puščico poleg URL-ja v SERP in izberete “Cached” (shranjeno):

Da bi ugotovili, ali je pomembna vsebina na vaši spletni strani pogosto obiskana in se shranjuje v predpomnilniku iskalnikov, si lahko ogledate tudi različico spletnega mesta samo v obliki besedila.

 

Ali se lahko strani kdaj odstranijo iz indeksa?

 

Da, strani se lahko odstranijo iz indeksa! Nekateri glavni razlogi, zakaj se lahko URL-ji odstranijo, so:

  • URL vrača napako “stran ne obstaja” (4XX) ali napako strežnika (5XX) – To je lahko po naključju (stran je bila premaknjena in preusmeritve 301 ni bilo nastavljene) ali namerno (stran je bila izbrisana in odstranjena iz indeksa).
  • URL-ju je bila dodana noindex meta oznaka – Lastniki spletnih mest lahko to oznako dodajo in s tem spletnemu iskalniku naročijo, da to stran izpusti iz svojega indeksa.
  • URL je bil ročno izbrisan iz indeksa, ker je kršil smernice.
  • URL je zaščiten z geslom, ki ga morajo uporabniki vpisati preden lahko dostopajo do strani.

Če menite, da se podstran na vaši spletni strani, ki je bila prej v Googlovem indeksu, ne prikazuje več, lahko uporabite orodje za pregled URL-jev, da ugotovite status strani ali uporabite možnost “Zahtevaj indeksiranje” v orodju Fetch as Google, da posamezne URL-je pošljete v indeks. (Dodatno: orodje “Fetch” v GSC-ju ima tudi možnost “prikaza”, s katerim lahko preverite, ali obstajajo težave pri indeksiranju vaše strani).

 

Povejte iskalnikom, kako naj indeksirajo vašo spletno stran

 

Meta oznake

Meta oznake so navodila, ki jih lahko podate iskalnikom glede tega, kako želite, da se vaša spletna stran obravnava.

Iskalnikom lahko poveste stvari, kot so “ne indeksirajte te strani v rezultatih iskanja” ali “ne prenašajte nobene povezave na strani”. Ta navodila se najpogosteje izvajajo preko robotskih meta oznak v <head> vaših HTML strani  ali preko X-Robots-Tag v HTTP glavi.

Robotska meta oznaka

Robots meta oznaka se lahko uporablja v <head> HTML-ja na vaši spletni strani. Omogoča izključitev vseh ali določenih iskalnikov. Spodaj so navedeni najpogostejši meta ukazi skupaj z okoliščinami, v katerih bi jih uporabili.

Index/noindex sporoča iskalnikom, ali naj stran obiščejo in shranijo v indeks za prikaz v iskalnih rezultatih. Če se odločite za uporabo “noindex”, sporočate iskalnikom, da želite stran izključiti iz iskalnih rezultatov. Iskalniki privzeto predpostavljajo, da lahko indeksirajo vse strani, zato je uporaba vrednosti “index” nepotrebna.

  • Kdaj ta ukaz uporabiti? Stran bi označili kot “noindex”, če želite iz indeksa Googla izključiti nekatere podstrani na vaši spletni strani (npr. strani z uporabniškimi profili), vendar jih še vedno želite prikazati obiskovalcem.

 

Follow/nofollow sporoča iskalnikom, ali naj sledijo povezavam na strani, ali ne. “Sledi” pomeni, da iskalni roboti sledijo povezavam na vaši strani in prenesejo povezovalno moč na te URL-je. Če pa izberete “ne sledi”, iskalniki ne bodo sledili povezavam na strani ali prenašali povezovalne moči na povezave. Iskalniki privzeto predpostavljajo, da imajo vse strani nastavljen atribut “sledi”.

  • Kdaj ta ukaz uporabiti? “Nofollow” se pogosto uporablja skupaj z “noindex” takrat, ko poskušate preprečiti, da bi se stran indeksirala, hkrati pa želite iskalniku preprečiti sledenje povezavam na strani.

 

Noarchive se uporablja za omejevanje iskalnikov pri shranjevanju predpomnjene kopije strani. Privzeto iskalniki ohranjajo vidne kopije vseh indeksiranih strani, dostopne iskalcem preko povezave predpomnjene kopije v rezultatih iskanja.

  • Kdaj ta ukaz uporabiti?Če urejate spletno trgovino in se cene redno spreminjajo, bi lahko uporabili oznako noarchive, da bi preprečili iskalcem, da vidijo zastarele cene.

 

Tukaj je primer robots meta taga z oznakami noindex in nofollow:

<! DOCTYPE html><html><head><meta name=”roboti” content=”noindex, nofollow” /></head><body>… </telo></html>

 

Ta primer preprečuje vsem iskalnikom, da indeksirajo stran in sledijo katerim koli povezavam na strani. Če želite izključiti več spletnih pajkov, na primer googlebot in bing, lahko uporabite več oznak izključitve robotov.

 

Meta direktive vplivajo na indeksiranje, ne pa na plazenje

Googlebot in drugi iskalni roboti morajo najprej dostopati do vaše spletne strani, da lahko preberejo njene meta direktive. Če jim poskušate preprečiti dostop do določenih strani, meta direktive niso pravi način. V tem primeru boste morali uporabiti druge tehnike blokiranja dostopa do spletnih strani. Pomembno je zavedanje, da morajo biti oznake pravilno definirane v vaši HTML kodi, da jih lahko iskalni roboti spoštujejo.

 

X-Robots-Tag

X-Robots-Tag je uporabljen znotraj HTTP glave vašega URL-ja in zagotavlja večjo prilagodljivost in funkcionalnost kot meta oznake. Če želite blokirati iskalnike v večjem obsegu, lahko uporabljate redne izraze, blokirate “non-HTML” datoteke in uporabljate “noindex” oznake za celotno spletno mesto.

 

Na primer, lahko preprosto izključite celotne mape ali vrste datotek (na primer moz.com/no-bake/old-recipes-to-noindex):

<Files ~ “\/?no\-bake\/.*”> Header set X-Robots-Tag “noindex, nofollow”</Files>

Ali določene vrste datotek (kot pdf):

<Files ~ “\.pdf$”> Header set X-Robots-Tag “noindex, nofollow”</Files>

Če želite več informacij o Meta Robot Tags, raziščite Google Robots Meta Tag Specifikacije.

 

Nasvet za WordPress:

Na nadzorni plošči > Nastavitve > Branje, preverite, da polje “Search Engine Visibility”« ni obkljukano. To blokira iskalnike, ki prihajajo na vašo spletno stran prek vaše datoteke robots.txt.

Razumevanje različnih načinov, s katerimi lahko vplivate na plazenje in indeksiranje, vam bo pomagalo premagati pasti, ki lahko preprečijo prikazovanje vaših pomembnih strani.

 

Razvrščanje: Kako iskalniki razvrstijo URL-je?

Kako iskalniki zagotovijo, da se uporabniku ob vnosu poizvedbe v iskalno vrstico prikažejo ustrezni rezultati? Ta postopek je znan kot rangiranje ali razvrščanje rezultatov iskanja od najbolj do najmanj relevantnih glede na določeno poizvedbo.

Za določanje relevantnosti uporabljajo iskalniki algoritme, postopke, s katerimi se shranjene informacije pridobijo in razvrstijo na smiselne načine. Ti algoritmi so skozi leta doživeli številne spremembe, da bi izboljšali kakovost iskalnih rezultatov. Na primer, Google vsak dan prilagaja algoritme – nekatere posodobitve so manjše kakovostne izboljšave, druge pa so srednje/široke posodobitve algoritma, namenjene reševanju določenih težav, kot je na primer Pingvin za reševanje neželenih povezav. Naša Google zgodovina sprememb algoritmov vsebuje seznam tako potrjenih kot nepotrjenih posodobitev Googla od leta 2000 naprej.

Zakaj se algoritem tako pogosto spreminja? Čeprav Google ne razkriva vedno natančnih razlogov za svoja dejanja, vemo, da je cilj Googla pri spreminjanju algoritmov izboljšati splošno kakovost iskanja. Zato bo Google na vprašanja o posodobitvah algoritmov odgovoril nekako takole: “Nenehno izvajamo izboljšave kakovosti”. To pomeni, da če je vaša spletna stran utrpela posledice po prilagoditvi algoritma, jo lahko primerjate z Googlovimi Smernicami kakovosti ali Smernicami za ocenjevalce kakovosti iskanja, ki so zelo odkrite glede tega, kaj si želijo iskalniki.

 

Kaj pravzaprav želijo iskalniki?

Iskalniki so si vedno želeli enako: zagotoviti uporabne odgovore na vprašanja iskalca v najbolj koristni obliki. Če je to res, zakaj se zdi, da je SEO danes drugačen kot v preteklih letih?

Postavite se v vlogo nekoga, ki se uči novega jezika

Sprva je njegovo razumevanje jezika zelo ohlapno, površno. Skozi čas se razumevanje začne širiti in spoznava semantiko – pomen besed in izrazov ter razmerje med njimi. Sčasoma, z dovolj vaje, zna učenec jezik dovolj dobro, da razume celo nianse in lahko odgovori tudi na nejasna ali nepopolna vprašanja.

Ko so se iskalniki šele začeli učiti, je bilo veliko lažje izkoristiti sistem s triki in taktikami, ki dejansko kršijo smernice kakovosti. Vzemimo za primer gostoto ključnih besed. Če bi želeli doseči visoko uvrstitev za ključno besedo “smešne šale”, bi na svojo stran morda dodali besedo “smešne šale” večkrat, in jo poudarili z odebeljenim besedilom, v upanju, da bomo povečali svojo uvrstitev za to ključno besedo:

Dobrodošli na strani smešnih šal! Tu so najbolj smešne šale na svetu. Smešne šale so  zabavne in nore. Tvoja smešna šala  čaka. Usedite se in berite smešne šale,  ker smešne šale vas lahko osrečijo. Nekaj smešnih najljubših smešnih šal.

Ta taktika je ustvarila grozno uporabniško izkušnjo in namesto smeha ob smešnih šalah, so ljudje naleteli na nadležno, težko berljivo besedilo. Morda je v preteklosti delovalo, a to nikoli ni bilo tisto, kar so iskalniki želeli.

 

Vloga povezav v SEO

Ko govorimo o povezavah, lahko mislimo na dve stvari. Backlinks or “inbound links” so povezave z drugih spletnih mest, ki peljejo na vaše spletno mesto, medtem ko so notranje povezave povezave na vašem lastnem spletnem mestu, ki vodijo na druge strani (na istem spletnem mestu).

Skozi zgodovino so imele povezave veliko vlogo pri optimizaciji. Na začetku so iskalniki potrebovali pomoč pri ugotavljanju, kateri URL-ji so bolj relevantni kot drugi, in kako naj se rezultati iskanja razvrstijo po pomembnosti. Štetje števila povezav, ki kažejo na določeno spletno mesto, jim je pri tem pomagalo.

Backlinks delujejo zelo podobno kot priporočila v resničnem življenju. Vzemimo za primer hipotetično kavarno Jenny’s Coffee:

  • Priporočila drugih = dober znak avtentičnosti
    • Primer: Veliko ljudi vam je povedalo, da je Jenny’s Coffee najboljša v mestu
  • Lastna priporočila = pristranska, to ni dober znak avtentičnosti
    • Primer: Jenny trdi, da je Jenny’s Coffee najboljša v mestu
  • Priporočila neprimernih ali nizkokakovostnih virov = ni dober znak avtentičnosti in vas lahko celo označijo kot neželeno pošto.
    • Primer: Jenny je plačala, da ljudje, ki nikoli niso obiskali njene kavarne, povejo drugim, kako odlična je.
  • Brez priporočil = nejasna avtentičnost
    • Primer: Jenny’s Coffee je morda dobra kavarna, vendar ni nikogar, ki bi to potrdil, zato nisi prepričan.

PageRank je bil ustvarjen zato, da bi se rešil ta problem. Gre za algoritem za analizo povezav, ki ga je poimenoval po enem od ustanoviteljev Googla, Larryju Pageu. PageRank ocenjuje avtentičnost spletnih strani z merjenjem kakovosti in količine povezav, ki kažejo nanjo. Predpostavka je, da bolj ko je spletna stran relevantna, pomembna in zaupanja vredna, več povezav bo pridobila.

Več, kot je naravnih povratnih povezav iz spletnih mest z visoko avtoriteto (avtentičnostjo), večje so vaše možnosti za višje uvrstitve v iskalnih rezultatih.

 

Vloga vsebine v SEO

Povezave bi bile nesmiselne, če ne bi usmerjale uporabnika na neko drugo stran. Na drugo stran, z drugo vsebino! Vsebina je več, kot samo besede; gre za karkoli, kar je namenjeno uporabnikom – obstajajo videoposnetki, slikovni material in seveda besedilo. Če so iskalniki stroji za odgovarjanje na vprašanja, je vsebina sredstvo, s katerim stroji dostavljajo ta odgovor.

Kadarkoli nekdo brska po spletu, se lahko pojavi na tisoče možnih rezultatov. Kako torej iskalnik določi, katera stran bo za uporabnika koristna? Velik vpliv na razvrstitev vaše strani za neko poizvedbo je, kako dobro se vsebina na vaši strani ujema z iskalnim nizom. Z drugimi besedami, ali se vaša ujema z iskanim nizom in je iskalcu v pomoč?

Zaradi poudarka na zadovoljstvu uporabnikov in izpolnjevanju nalog ni strogih meril glede dolžine vaše vsebine, števila ključnih besed ali v oznakah. Vse našteto sicer lahko vpliva na to, kako dobro se stran uvrsti v iskanju, toda poudarek je na uporabniški izkušnji.

Kljub velikemu številu kriterijev za uvrščanje vaše spletne strani, so trije najpomembnejši: povezave do vaše spletne strani (ki služijo kot signal tretje osebe za verodostojnost), vsebina na strani (kakovostna vsebina, ki izpolnjuje namen iskanja) in t.i. RankBrain.

 

Kaj je RankBrain?

RankBrain je komponenta strojnega učenja za Google algoritem. Strojno učenje je računalniški program, ki na podlagi opažanj in sprejemanja podatkov nenehno izboljšuje svoje znanje. Z drugimi besedami, Google se vedno uči, zaradi česar bi morali biti rezultati iskanja nenehno boljši.

Na primer: Če RankBrain opazi URL, ki se uvršča nižje, vendar uporabnikom zagotavlja boljši rezultat kot URL-ji z višjim rangiranjem, bo RankBrain prilagodil te rezultate, tako da bo bolj relevanten rezultat premaknil višje in znižal rangiranje manj relevantnih strani.

Kot za večino stvari pri iskalniku, ne vemo točno, kaj sestavlja RankBrain, vendar očitno tega ne vedo niti ljudje pri Googlu.

 

Kaj to pomeni za optimizacijo spletnih strani (SEO)?

Ker bo Google še naprej izkoriščal RankBrain, da bi visoko uvrščal najbolj relevantne in uporabne vsebine, se moramo bolj, kot kdaj koli prej, osredotočiti na izpolnjevanje namena iskalne poizvedbe. Če zagotovite najboljše možne informacije in izkušnje za uporabnike, ki bodo morda prišli na vašo spletno stran, ste naredili velik korak k uspehu v svetu RankBrain.

 

Najpomembnejši kriteriji za razvrščanje v Googlu

Ko govorimo o kriterijih razvrščanja, mislimo na indikatorje, ki kažejo na stopnjo korelacije uporabnikov z vašim spletiščem. Sem spadajo:

  • Kliki (obiski iz iskanja)
  • Čas na strani (čas, ki ga je obiskovalec porabil na strani preden jo zapusti)
  • Bounce rate (odstotek vseh obiskanj spletnega mesta, kjer so si uporabniki ogledali samo eno stran)
  • Pogo-sticking (klik na organski rezultat in nato hitra vrnitev v SERP za izbiro drugega iskalnega rezultata)

 

Razvoj rezultatov iskanja

Pred časom, ko iskalniki še niso imeli tako dobro razvitih algoritmov, kot jih imajo danes, je bil izraz “10 modrih povezav” uporabljen za opis strukture razvrščanja iskalnih rezultatov (Search Engine Results Page – stran z rezultati iskanja). Za vsako iskanje z določeno ključno besedo je Google vrnil stran z 10 organskimi rezultati, ki so bili vedno isti.

Prav zaradi tega je bilo v pretklosti še kako pomembno, da je bila vaša spletna stran uvrščena na 1. pozicijo med isklanimi rezultati. Sčasoma pa se je to malo spremenilo, saj je Google začel na strani z rezultati iskanja dodajati nove formate rezultatov, imenovane “SERP features”. Nekatere od teh so:

  • Plačani oglasi
  • Izbrani odstavki (Featured snippets)
  • Polja “People Also Ask”
  • Lokalni (zemljevid)
  • Znanstveni panel (Knowledge panel)
  • Sitelinks

Google nenehno dodaja nove vrste SERP-funkcij. Eksperimentirali so celo z “zero-result SERPs”, kjer je na strani iskalnih zadetkov prikazan le en rezultat, brez drugih rezultatov pod njim, razen možnosti “Prikaži več rezultatov”.

Dodajanje teh funkcij je iz dveh glavnih razlogov povzročilo nekaj začetne panike. Po eni strani so mnoge od teh funkcij pripeljale do tega, da so se organski rezultati uvrščali nižje na strani rezultatov. Po drugi strani pa je manj uporabnikov kliknilo na organske rezultate, saj je bilo na strani SERP že podanih dovolj informacij o poizvedbi.

Zakaj je Google to storil? Uporabniške izkušnje kažejo, da je za nekatere iskalne nize bolj primerna oblika iskalnih rezultatov v različnih formatih vsebine. Tabela prikazuje, kako se različne vrste SERP-funkcij ujemajo z različnimi vrstami iskalnih poizvedb.

Namen poizvedbeMožna aktivirana funkcija SERP
InformativnoIzbrani odstavki
Informativno z enim odgovoromTakojšen odgovor
LokalniPrikaz na zemljevidu
PoizvedbeniNakupovanje

Več o namenu iskanja bomo govorili v 3. poglavju, a za zdaj je pomembno vedeti, da je mogoče odgovore iskalcem prikazati v različnih oblikah, zato lahko struktura vsebine na vaši spletni strani, vpliva na obliko, v kateri se pojavi uporabniku.

 

Lokalno iskanje

Google iskalnik ima svoj lasten nabor seznamov lokalnih podjetij, iz katerega ustvarja lokalne rezultate iskanja.

Če za neko podjetje s poslovalnico v določenem kraju (npr. frizer) izvajate lokalni SEO, ali pa SEO izvajate za podjetje, ki svoje storitve opravlja na domu (npr. vodovodar), poskrbite, da bodo imeli urejen brezplačen profil Google My Business Listing.

Pri lokalnih rezultatih iskanja, Google sledi trem ključnim točkam za določitev uvrstitve:

  1. Ustreznost
  2. Razdalja
  3. Prepoznavnost

Ustreznost

Ustreznost se nanaša na to, kako dobro se lokalno podjetje ujema s tem, kar uporabnik išče. Da bi zagotovili, da podjetje kar se da izpolnjuje pričakovanja obiskovalcev, je dobro, da so informacije o podjetju pravilno in natančno navedeni (npr. delovni čas, delovni čas med prazniki, točna lokacija, cene storitev, …).

Razdalja

Google uporablja vašo geo-lokacijo, da bi vam lažje ponudil lokalne rezultate. Lokalni rezultati iskanja so izjemno občutljivi na razdaljo, ki se nanaša na lokacijo uporabnika in/ali lokacijo, določeno v poizvedbi (če jo je iskalec vnesel).

Organski rezultati iskanja so vezani na lokacijo uporabnika, vendar ne tako izrazito kot lokalni rezultati v lokalnih zbirkah.

Pomembnost

Google poskuša nagraditi priznana podjetja. Poleg splošne prepoznavnosti podjetja, Google upošteva tudi nekatere spletne dejavnike za določanje lokalnega rangiranja, kot so:

Ocene

Število Google ocen, ki jih prejme lokalno podjetje, in kakovost teh, imajo opazen vpliv na rangiranje spletne strani v lokalnih rezultatih.

Navedbe

“Naziv podjetja” ali “seznam podjetij” je spletna navedba lokalnega podjetja “NAP” (ime, naslov, telefonska številka) na lokalni platformi (Yelp, Acxiom, YP, Infogroup, Localeze, itd.).

Na lokalno razvrstitev iskalnih zadetkov vpliva število navedb. Google pridobiva podatke iz številnih virov za sestavljanje zbirke lokalnih podjetij. Ko Google najde več realnih sklicev na ime, lokacijo in telefonsko številko podjetja, se okrepi “zaupanje” Googla v veljavnost teh podatkov. To Googleu omogoča, da z določeno stopnjo zaupanja med iskalnimi zadetki prikaže vaše podjetje. Google uporablja tudi informacije iz drugih virov na spletu, kot so povezave in članki.

Organska razvrstitev

Najboljše prakse iz splošnega SEO se uporabljajo tudi za lokalni SEO, saj Google upošteva tudi položaj spletne strani v organskih rezultatih iskanja pri določanju lokalne uvrstitve.

V naslednjem poglavju boste spoznali najboljše prakse, ki bodo pomagale Googleu in uporabnikom razumeti vašo vsebino.

 

[Bonus!] Lokalna prepoznavnost

Čeprav je Google ne navaja kot dejavnik rangiranja, je njena vloga izrednega pomena. Google lokalne rezultate obogati s podatki iz resničnega sveta, kot so priljubljen časi obiska in povprečna dolžina obiska, …

… in uporabnikom celo ponudi možnost, da postavljajo poslovna vprašanja!

Na lokalne rezultate nedvomno bolj kot kdajkoli prej vplivajo podatki iz realnega sveta.

Ker želi Google uporabnikom zagotoviti najboljša, najbolj priznana in uveljavljena lokalna podjetja, je smiselno, da za določitev kakovosti in ustreznosti uporabi podatke iz realnega sveta

Do sedaj smo spoznali, kako iskalnik najde, interpretira, shranjuje in uvršča vsebino. Oboroženi s tem znanjem, se v 3. poglavju naučimo, kako izbrati ključne besede za vašo vsebino.

KONTAKT