Hur hittar, genomsöker och indexerar sökmotorer ditt innehåll?

Sökmotoroptimering

Jag rekommenderar inte ofta att klienter bygger ut sina egna e-handels- eller innehållshanteringssystem på grund av alla osynliga töjbarhetsalternativ som behövs idag - främst fokuserade på sökning och social optimering. Jag skrev en artikel om hur man väljer ett CMS och jag visar det fortfarande för de företag som jag arbetar med som är frestade att bara bygga sitt eget innehållshanteringssystem.

Det finns dock absolut situationer där en anpassad plattform är en nödvändighet. När det är den optimala lösningen driver jag fortfarande mina kunder för att bygga ut de nödvändiga funktionerna för att optimera deras webbplatser för sökning och sociala medier. Det finns i princip tre viktiga funktioner som är en nödvändighet.

  • Robots.txt
  • XML Sitemap
  • metadata

Vad är en Robots.txt-fil?

Robots.txt fil - den robots.txt filen är en vanlig textfil som finns i rotkatalogen på webbplatsen och berättar för sökmotorerna vad de ska inkludera och utesluta från sökresultaten. Under de senaste åren begärde sökmotorer också att du inkluderar sökvägen till en XML-webbplatskarta i filen. Här är ett exempel på mig, som tillåter alla bots att genomsöka min webbplats och även dirigerar dem till min XML-webbplatskarta:

User-agent: *
Sitemap: https://martech.zone/sitemap_index.xml

Vad är en XML-webbplatskarta?

XML Sitemap - Precis som HTML är för visning i en webbläsare skrivs XML för att smälta programmatiskt. En XML-webbplatskarta är i grunden en tabell över varje sida på din webbplats och när den senast uppdaterades. XML-webbplatskartor kan också vara kedjekedjade ... det vill säga en XML-webbplatskarta kan hänvisa till en annan. Det är bra om du vill organisera och dela upp elementen på din webbplats logiskt (vanliga frågor, sidor, produkter etc.) i sina egna webbplatskartor.

Webbplatskartor är väsentliga så att du effektivt kan låta sökmotorerna veta vilket innehåll du har skapat och när det senast redigerades. Processen som en sökmotor använder när du går till din webbplats är inte effektiv utan att implementera en webbplatskarta och utdrag.

Utan en XML-webbplatskartariskerar du att dina sidor aldrig upptäcks. Vad händer om du har en ny produktlandningssida som inte länkas internt eller externt. Hur upptäcker Google det? Tja, helt enkelt sätta ... tills en länk hittas till den, kommer du inte att upptäckas. Tack och lov möjliggör sökmotorer innehållshanteringssystem och e-handelsplattformar att rulla ut en röd matta för dem!

  1. Google upptäcker en extern eller intern länk till din webbplats.
  2. Google indexerar sidan och rankar den efter dess innehåll och vad innehållet och kvaliteten på den hänvisande länkens webbplats är.

Med en XML-webbplatskarta, du lämnar inte upptäckten av ditt innehåll eller uppdateringen av ditt innehåll till slumpen! För många utvecklare försöker ta genvägar som skadar dem också. De publicerar samma utdrag från hela webbplatsen och tillhandahåller information som inte är relevant för sidinformationen. De publicerar en webbplatskarta med samma datum på varje sida (eller alla uppdateras när en sida uppdateras), vilket ger köer till sökmotorerna om att de spelar systemet eller är opålitliga. Eller så pingar de inte alls sökmotorerna ... så att sökmotorn inte inser att ny information har publicerats.

Vad är metadata? Mikrodata? Rich Snippets?

Rich-utdrag är noggrant märkta mikrodata som är dold för tittaren men synlig på sidan som sökmotorer eller sociala mediasidor kan använda. Detta kallas metadata. Google följer Schema.org som en standard för att inkludera saker som bilder, titlar, beskrivningar ... samt en uppsjö av andra informativa utdrag som pris, kvantitet, platsinformation, betyg osv. Scheman kommer att förbättra din sökmotors synlighet och sannolikheten för att en användare kommer att klicka genom.

Facebook använder OpenGraph protokoll (naturligtvis kunde de inte vara desamma), har Twitter till och med ett utdrag för att ange din Twitter-profil. Fler och fler plattformar använder denna metadata för att förhandsgranska inbäddade länkar och annan information när de publiceras.

Dina webbsidor har en underliggande betydelse som människor förstår när de läser webbsidorna. Men sökmotorer har en begränsad förståelse för vad som diskuteras på dessa sidor. Genom att lägga till ytterligare taggar till HTML på dina webbsidor - taggar som säger "Hej sökmotor, den här informationen beskriver den här specifika filmen, platsen eller personen eller videon" - du kan hjälpa sökmotorer och andra applikationer att bättre förstå ditt innehåll och visa det på ett användbart, relevant sätt. Microdata är en uppsättning taggar, introducerade med HTML5, som låter dig göra detta.

Schema.org, Vad är MicroData?

Naturligtvis krävs inget av dessa ... men jag rekommenderar dem starkt. När du till exempel delar en länk på Facebook och ingen bild, titel eller beskrivning kommer upp ... få människor kommer att vara intresserade och klickar faktiskt igenom. Och om dina Schema-utdrag inte finns på varje sida kan du naturligtvis fortfarande visas i sökresultaten ... men konkurrenter kan slå dig ut när de har ytterligare information som visas.

Registrera dina XML-webbplatskartor med Search Console

Det är absolut nödvändigt att om du har byggt ditt eget innehåll eller din e-handelsplattform, att du har ett delsystem som pingar sökmotorerna, publicerar mikrodata och sedan tillhandahåller en giltig XML-webbplatskarta för innehåll eller produktinformation som finns!

När din robots.txt-fil, XML-webbplatskartor och rich snippets har anpassats och optimerats på hela din webbplats, glöm inte att registrera dig för varje sökmotors sökkonsol (även känd som webbansvararverktyget) där du kan övervaka hälsan och synligheten för din webbplats på sökmotorer. Du kan till och med ange din webbplatskarta om ingen finns med i listan och se hur sökmotorn konsumerar den, om det finns några problem med den eller till och med hur du korrigerar dem.

Rulla ut den röda mattan till sökmotorer och sociala medier så hittar du din webbplatsrankning bättre, dina poster på sökmotors resultatsidor klickade igenom mer och dina sidor delades mer på sociala medier. Allt lägger till!

Hur Robots.txt, Sitemaps och MetaData fungerar tillsammans

Att kombinera alla dessa element är mycket som att rulla ut den röda mattan för din webbplats. Här är genomsökningen som en bot tar tillsammans med hur sökmotorn indexerar ditt innehåll.

  1. Din webbplats har en robots.txt-fil som också refererar till din XML-webbplatskarta.
  2. Ditt CMS- eller e-handelssystem uppdaterar XML-webbplatskartan med vilken sida som helst och publicerar datum eller redigerar datuminformation.
  3. Ditt CMS- eller e-handelssystem pingar sökmotorerna så att de vet att din webbplats har uppdaterats. Du kan pinga dem direkt eller använda RPC och en tjänst som Ping-o-matic för att trycka på alla de viktigaste sökmotorerna.
  4. Sökmotorn kommer omedelbart tillbaka, respekterar filen Robots.txt, hittar nya eller uppdaterade sidor via webbplatskartan och indexerar sedan sidan.
  5. När den indexerar din sida använder den mikrodata med rich snippet för att förbättra resultatsidan för sökmotorn.
  6. Eftersom andra relevanta webbplatser länkar till ditt innehåll rankas ditt innehåll bättre.
  7. Eftersom ditt innehåll delas på sociala medier kan den specificerade utdragna informationen hjälpa till att förhandsgranska ditt innehåll och dirigera det till din sociala profil.

2 Kommentarer

  1. 1

    min webbplats kan inte indexera nytt innehåll, jag hämtar webbplatskarta och webbadresser på webbansvarig men kan fortfarande inte förbättra detta. Är det Google-backendproblem?

Vad tror du?

Den här sidan använder Akismet för att minska spam. Läs om hur din kommentardata behandlas.