SEO interneta veikalam: Tehniskā optimizācija (#2)

Autors Mikelis Kalnins March 25, 2021
raksta tehniskā optimizācija interneta veikalam galvenais attēls

Kaut arī visām mājaslapā ir svarīgi, lai tās būtu labā tehniskā stāvokli, īpaši svarīgi tas ir interneta veikaliem, kuriem mājaslapā esošo lapu skaits ir krietni lielāks, nekā vienkāršai mājaslapai. Līdz ar to arī uzsvars uz tehnisko SEO optimizāciju ir daudz lielāks.

Jo pirms vispār uzsākt cīņu par labāku vietu rezultātos ir vispirms jāparūpējas par atrašanos meklētājsistēmu rezultātos.

Domājot par tehnisko optimizāciju, mūs interesē, lai Google un citu meklētājsistēmu roboti tiek iekšā mūsu mājaslapā, spēj to pareizi nolasīt, lasa tikai mums svarīgās lapas un, protams, indeksē tās.

Mājaslapai jābūt atvērtai meklētājsistēmu robotiem

Lai tiktu iekšā, pietiek ar to, ka mājaslapa ir atvērta meklētājsistēmām. Pārliecinies, ka tājā nav nejauši atstāts “noindex” tags, vai, piemēram, iekš robots.txt faila norādīts, ka konkrēti atsevišķu meklētājsistēmu roboti nav atļauti mājaslapā. Dari visu, lai meklētājsistēmu roboti mājaslapā esošajai informācijai brīvi piekļūtu.

mājaslapa kas iezīmēta ar noindex tagu

Šķiet elementāri? Jūs neticēsiet, cik daudzi interneta veikali paklūp jau uz šī pirmā grābekļa!

Vienkāršs veids, kā pārbaudīt, vai Google piekļūst mājaslapai un redz tās saturu ir veikt Google Mobile Friendly testu. Ja Google spēj veikt testu,  tad viss ir kārtībā, ja nespēj – tad mums ir problēma.

pozitīvs rezultāts google mobile friendly testā

Kad mājaslapa ir atrasta, pārliecinies, vai roboti spēj to pareizi nolasīt.

Robotiem jāspēj pareizi nolasīt mājaslapu

PWA jeb Progressive Web Applications sistēmām paliekot populārākām, SEO ikdienā populārāka arī kļūst problēma, kas nāk ar tām kopā.

Īsumā, PWA sistēmās informāciju par mājaslapu tiek ņemta ar JavaScript starpniecību, kur visu lielo darbu izdara interneta pārlūks. Problēma slēpjas tajā, ka meklētājsistēmu roboti (kaut arī ir centieni uzlabot esošo pieeju) nestrādā kā pārlūki un visbiežāk nespēj veiksmīgi piekļūt paredzētajai informācijai. Rezultātā robots ir mājaslapā, bet atšķirībā no parasta mājaslapas lietotāja, tas lasa kaut ko pavisam citu.

Ja jūs izmantojat PWA un jums ir šī problēma, tad viens no iespējamajiem risinājumiem ir Dynamic Rendering.

Forši, roboti spēj mūsu interneta veikalu pareizi nolasīt. Ko tālāk?

Nākamais solis ir “crawl” budžeta optimizācija.

Kas ir “crawl” budžets un kāpēc tas mums rūp?

Līdzīgi kā tas ir ar visu šajā pasaulē, arī Google resursi nav bezgalīgi. Tā nespēj visas pasaulē esošās mājaslapas 24 stundas diennaktī, katru sekundi visas vienlaicīgi skenēt. Kaut arī tā dara lielisku darbu un parasti tiek ļoti labi galā ar pasaules mājaslapu apsekošanu, lai nepārtērētu savus resursus, tā strādā pēc noteikta principa.

Tā vietā, lai Google skenētu visas mājaslapas lapas katru dienu, tā atšķirībā no mājaslapas lieluma, piešķir tai “crawl” budžetu. No mājaslapas uz mājaslapu tas atšķiras, tāpēc grūti ir nosaukt konkrēti, cik lapas no jūsu mājaslapas tiek regulāri skenētas. Bet viens ir skaidrs – tās nav visas.

(Lai noteiktu, kāds konkrēti ir jūsu “crawl” budžets, lejupielādējiet no mājaslapas servera “log file” un ar Screamingfrog Log File Analyser rīku atveriet to. Tajā jūs atradīsiet informāciju par to, cik un kādas lapas no jūsu mājaslapas meklētājsistēmu roboti ir skenējuši.)

Sākot domāt par “crawl” budžeta optimizāciju ir jāsāk ar visu dublicēto saturu. Interneta veikaliem tipiski tās ir lapas, kas radušās pēc produktu filtru izmantošanas.

Piemēram, katru reizi, kad interneta veikala produktu kategorijā “monitori” es izfiltrēju tikai melnos monitorus, es kā lietotājs tos redzu caur jaunu URL. Skaidrs, ka nereti produkti, kas bija orģinālajā lapā atkārtosies lapā, ko ieguvām izfiltrējot tikai melnos monitorus. Rezultātā mums uz rokām ir dublikātu problēma.

mājaslapas url pēc filtra izmantošanas kategorijas lapā

Vēl viens piemērs, lai būtu vieglāk saprast, iedomājamies, ka esam jau monitora produkta lapā. To ir iespējams iegādāties dažādās krāsās. Šeit atkal nomainot monitora krāsu, mēs saskarsimies ar dublikātiem. Identisks saturs, atšķirsies tikai produkta attēls.

Saliekot šos abus piemērus kopā, jūs redzat, ātri vien no mājaslapas ar 200 lapām mēs iegūstam mājaslapu ar, teiksim, 5000 lapām, jo visas iespējamās produktu, kategoriju variācijas ir kā neatkarīgas lapas. Lieki teikt, ka pie 5000 lapām mums būs grūti panākt, lai Google regulāri skenē mums svarīgākās lapas.

Bet ko darīt? Atbilde ir “canonical” tagi.

Kā pieradināt meklētājsistēmu robotus skenēt tikai mums svarīgās lapas

Piedāvāju divus risinājumus, kas lieliski tiek galā ar šo problēmu – “canonical” tagu izmantošana un robots.txt faila optimizācija.

“Canonical” tagi

“Canonical” tagi orģināli tika radīti, lai meklētājsistēmas informētu par to, kurš ir orģinālsaturs un kas tikai atvasinājums.

Ieraugot URL ar “canonical” tagu meklētājsistēmu roboti nākotnē to skenēs daudz, daudz retāk, kas ir tieši tas, kas mums vajadzīgs.

mājaslapas kodā iestatīts canonical tags

Atgriežoties pie iepriekš minētajiem piemēriem – lai tiktu vaļā no izfiltrēto lapu iekļaušanas to lapu sarakstā, kuras tiek regulāri skenētas, mums tās ir vienkārši jāiezīmē ar “canonical” tagu.

Robots.txt faila optimizēšana

Papildus “canonical” tagiem noteikti vajadzētu arī veikt robots.txt faila optimizāciju. Robots.txt fails informē robotus par to, kuras lapas drīkst skenēt un kuras nē, tāpēc jau iepriekš zināmu mājaslapas problemātisko “sub-folderu” iekļaušana tajā ir laba doma.

caur robots.txt failu izslēgti problemātiskie sub-folderi

(Vērsiet uzmanību, ka katram interneta veikalu CMS šie problemātiskie “sub-folderi” atšķiras!)

Kontrolēt, kuras lapas Google ir indeksējusi un ar kuru lapu indeksāciju ir radušās problēmas, mēs varam caur Google Search Console. Sadaļā Coverage ir apkopti visa informācija par lapu indeksāciju, tostarp, kuras lapas Google ir indeksējusi un kuras atstājusi aiz strīpas.

Kopsavilkums un nākamie soļi

Tehniskā SEO optimizācija ir īpaši svarīga tieši interneta veikaliem. Svarīgi, lai mājaslapa būtu atvērta meklētājsistēmu robotiem, tās saturs būtu tiem viegli pieejams un tie skenētu, kā arī pēc tam indeksētu tikai interneta veikalam vissvarīgākās lapas. Lai pieradinātu robotus skenēt interneta veikalam vissvarīgākās lapas, ir jāizmanto “canonical” tagi un robots.txt failā jāiekļauj visi konkrētajam CMS problemātiskie (SEO kontekstā) “sub-folderi”. Google Search Console sadaļā Coverage meklējiet informāciju par mājaslapas indeksāciju.

Tālāk, kad esam parūpējušies par to, lai Google un citu meklētājsistēmu roboti viegli piekļūtu mūsu mājaslapas lapām un tās indeksētu, jāsakārto tajās esošais saturs un jāpadara tas galvastiesu pārāks par konkurentu. Kā to izdarīt, lasiet Interneta Veikalu SEO rakstu sērijas nākamajā rakstā “Iekšējā SEO optimizācijas interneta veikalam”.

*Interneta veikalu tehniskā SEO optimizācija ir “SEO Eksperts” sniegto pakalpojumu sarakstā. Lai noskaidrotu vairāk, meklējiet informāciju seo pakalpojumu lapā vai sazinieties ar mums, izmantojot kontaktformu.

Padalies ar rakstu