Menü

XML webhelytérképek

2017. november 08. | 146

Mi is az a webhelytérkép és miért fontos? 

A webhelytérkép egy olyan internetes szabvány, mely lehetővé teszi hogy tájékoztassuk a Google – t és más keresőmotorokat, hogy melyek azok az aloldalak a weboldalunkon belül, melyek rendelkezésre állnak az algoritmusok számára a beolvasásra. A webhelytérkép továbbá lehetővé teszi a keresőmotor számára, melyet másképp nem találnának meg az indexelés során. Továbbá tudathatjuk az algoritmussal, mely aloldalunkat nem szeretnénk ha beolvasna.

Az XML webhelytérképek segítségével többek között az alábbi információkat adhatjuk meg oldalunkról:

  • Mikor volt utoljára frissítve

  • Mennyire fontos egy adott oldal, a weboldalunk többi aloldalához képest

  • Egy oldalon összegezhetjük a keresőmotorok számára weboldalunk felépítését

Indexálás

Valószínűleg az egyik leggyakoribb tévhit, hogy kizárólag az XML webhelytérkép megléte segít abban, hogy a weboldalunkat hamarabb beolvassák a keresőmotorok, mint például a Google. Érdemes tudni, hogy a Google csak azért nem fog indexelni egy weboldalt sem, mert mint weboldaltulajdonosok azt szeretnénk, hogy az oldalunk indexelve legyen. 

A Google algoritmusa a következő szempontok alapján indexeli az oldalakat:

  • Megtalálta az oldalt és feltérképezte azt, ÉS

  • megfelelő minőségűnek ítéli ahhoz, hogy megjelenítse a találati listájában

Azt azonban fontos megjegyezni, ha például a Google Search Console – on keresztül elküldjük weboldalunk XML webhelytérképét a Googlenek, akkor ezzel azt jelezzük feléjük, hogy szerintünk weboldalunk jó minőségű és érdemes arra, hogy indexeljék majd megjelenítsék a keresési találatok között. Azonban ez csak egy jelzés, a siker ettől még nem garantált.

Következetesség

Az egyik leggyakrabban előforduló kereső optimalizálási (SEO) hiba, hogy a Google felé ellentmondásos jeleket küldünk. Például ha egy aloldalunk indexelését letiltjuk a „robots.txt” fájlban, majd ezt az aloldalt megjelenítjük webhelytérképünkben. Ilyen esetben a Google algoritmusa szeretné beolvasni az alodalt, mivel mi ajánlottuk neki. Azonban magát az indexelést viszont letiltottuk.

Könnyen beláthatjuk, hogy ezzel az ellentmondással nem segítjük a Google algoritmusát. Ugyanez a helyzet a meta robotokkal is, vagyis soha ne szerepeltessük az aloldalt a webhelytérképben és állítsuk be a következő változókat „noindex,follow”.

Mi az a meta robot? 

Az előbb említett meta robotok lehet, hogy nem mindenkinek ismerősek ezért röviden bemutatom mit is jelentenek pontosan.

A „noindex” azt jelenti, hogy megtiltjuk az adott aloldalunk keresőmotorok általi beolvasását. A „nofollow” azt jelenti, hogy ne kövessé az algoritmus az oldalról kifelé mutató linkeket. Hogy őszinte legyek, még nem jöttem rá, hogy egyesek miért használják a „noindex,nofollow” változót, mivel ha nem olvassa be az alogoritmus az adott oldalt, akkor nincs is értelme bármi márt is letiltanunk. A lényeg, hogy ha azt szeretnénk, hogy a keresőmotorok ne olvassák be az adott oldalunkat, aloldalunkat, állítsuk be a meta robotoknál a következőt: „noindex,follow”.

Az eddig száraz elméletet, egy könnyen érthető példával szemléltetném. Általánosságban minden weboldaltulajdonos (ha nem is tud róla) két csoportra tudja osztani a weboldalának aloldalait:

  1. Oldalak melyek hasznosak a látogatóknak, viszont önmagukban nem állják meg a helyüket mint érkeztető oldal

  2. Érkeztető oldalak

Az oldalakat melyek hasznosak a látogatóinknak, érdemes blokkolni a robots.txt fájlban és nem kell őket megjeleníteni az XML webhelytérképben.

Azokat az oldalakat melyek az érkeztető oldalaink, vagyis szeretnénk hogy a Google keresési oldalain megjelenjenek, semmiképpen se blokkoljuk és mindenképpen jelenítsük meg a weboldalunk térképében.

A weboldal minősége

A Google algoritmusa vizsgálja a weboldalak minőségét és ez befolyásolja a keresési találatok között elfoglalt helyünket. Felmerülhet a kérdés, hogyan kapcsolódik ez az XML webhelytérképekhez?
Próbáljuk megvizsgálni a Google szemszögéből weboldalunkat. Tegyük fel hogy egy olyan weboldallal rendelkezünk, ami tele van a felhasználóknak hasznos tartalommal és a közösségi médiákban is jól teljesít. Azonban az aloldalak nagy része nem állja meg a helyét mint érkeztető oldal, ezek további információk közlésére szolgálnak látogatóinknak.

Amennyiben a Google algoritmusa minden egyes aloldalunkat beolvassa és megjeleníti a keresési találatai között, előbb vagy utóbb a felhasználók olyan aloldalainkra fognak jutni a Google keresésekből, melyek nem teljes értékű érkeztető oldalak, hanem csak kiegészítik azokat. Ebben az esetben a felhasználók legtöbbször egyből el is hagyják az adott aloldalt, amiből a Google azt a következtetést vonhatja le, hogy nem nyújt megfelelő felhasználói élményt (UX) a teljes weboldalunk, ezért hátrébb fogja azt rangsorolni a keresési találatai között.

A webhelytérkép segítségével javaslatot tudunk tenni a Google algoritmusának arra vonatkozóan, hogy mely aloldalainkat tartjuk a leghasznosabbnak és melyeke úgymond „kiegészítő” aloldalak. Ezáltal megelőzzük azt, hogy téves következtetéseket vonjon le a weboldalunk egészéről.

Fontos az ellenőrzés

A webhelytérképünkkel jelezzük a Google algoritmusa felé, hogy szerintünk melyek a legfontosabb alodalak weboldalunkon, és melyek szeretnénk, hogy beolvassa majd megjelenítse a keresési találatai között. Azonban ez nem garancia arra, hogy a Google nem olvassa be azokat az oldalakat, melyek nincsenek a webhelytérképben. Ezért is fontos azoknak az aloldalaknak a beolvasását megtilsuk („noindex,follow”) melyeket semmiképpen sem szeretnénk hogy megjelenjenek a Google találatai között.

Noindex versus robots.txt

Van egy nagyon kicsi, ellenben hihetetlenül fontos különbség abban, hogy az oldalunk beolvasását a robots.txt-ben vagy meta robotok használatával akarjuk elérni. A „noindex,follow” meta robot használata lehetővé teszi, hogy a nem beolvasott oldal belső linkjeit beolvassa az algoritmus, ezáltal is növelve oldalunk felhasználói élményét (UX). A robots.txt – vel történő blokkolás esetén, az egész aloldal blokkolásra kerül, az összes belsőlinkkel egyetemben.

Dinamikus XML webhelytérkép

A webhelytérképeknek nem kell egy statikus fájlnak lenniük. Ráadásul nem is muszáj .xml formátumúnak lennie, hogy benyújthassunk a Google felé. Szinte minden weboldal tartalommenedzsment rendszere (CMS) rendelkezik azzal a lehetőséggel, hogy az újonnan létrehozott aloldalak automatikusan bekerülnek a weboldal térképébe. Ezáltal nem szükséges mindig manuálisan módosítanunk, hanem automatikusan átkerülnek a szükséges adatok az adatbázisunkból a weboldalunk térképébe.

Összefoglalás

Mint láthatjuk az XML webhelytérkép használatával előidézzük, hogy a Google és egyéb keresők algoritmusai oly módon térképezzék fel weboldalunkat, ahogy azt mi szeretnénk. Használatával elkerülhetjük azt a helyzetet, hogy például a Google algoritmusa téves következtetéseket vonjon le a weboldalunk egészét nézve és emiatt hátrébb sorolódjunk a keresési találatoknál.

Három fontos szabály kell minden esetben betartanunk a siker érdekében:

  1. Legyünk következetesek. Ha egy aloldal blokkolva van a robots.txt-ben vagy a meta robotokban „noindex” –el, akkor azt az oldalt ne jelenítsük meg a weboldalunk térképében.

  2. Használjuk az XML weboldal térképet egy olyan eszközként, mellyel segítséget nyújthatunk a Google kereső algoritmusának abban, hogy mely oldalainkat tartjuk hasznosnak a felhasználók számára és ezeket olvassa be elsődlegesen.

  3. Amennyiben nagy weboldalunk van, vagyis sok aloldallal rendelkezik, mindig használjunk dinamikus oldaltérképet. Ne próbáljuk meg meg manuális szinkronba tartani a robots.txt-t, a meta robotokat és az XML webhelytérképünket. Manuálisan mindig megnő a hibázás lehetősége.

Amennyiben úgy gondolod, hogy növelni szeretnéd a weboldalad hatékonyságát, a cikkben leírt pontok egy kiváló alapot biztosítanak ehhez. Ha pedig úgy gondolod, inkább fordítod erőforrásaidat a fő profilod fejlesztésére, akkor vedd fel velünk a kapcsolatot, egyeztessünk egy találkozót és beszéljük át hogyan tudunk segíteni!
 

Tetszett a cikk? Oszd meg!

megosztom

Kapcsolódó cikkek