Indexering på Google

Numera är indexering en nödvändig del av varje webbplats framgång. Oavsett vilken bransch du är verksam inom kommer det att vara svårt att nå dina mål om sökmotorn inte indexerar ditt innehåll. Därför är det så viktigt att förstå hur Google fungerar och vad webbansvariga kan göra för att hjälpa processen att fungera smidigt. Det hjälper dig att öka dina organiska placeringar genom att hålla dem rena från spammiga länkar eller länkar av låg kvalitet som kan ha byggts med dåliga avsikter eller ännu värre – automatiskt

För att en bot ska kunna komma åt och indexera sidor på din webbplats måste den ta sig förbi två säkerhetselement: robots.txt- och sitemap.xml-filer. Den första tillåter endast robotar från vissa IP-adresser medan den andra listar alla tillgängliga webbadresser pådin webbplats.

Om du vill hindra sökmotorbotar från att indexera vissa sidor på din webbplats kan du göra det med hjälp av filen robots.txt. Du behöver bara lägga till en kodrad som talar om för roboten vilka sidor du inte vill att den ska se. Nedan följer ett exempel på hur du blockerar alla botar från att indexera en viss mapp

User-agent: *

Disallow: /folder/

Om du vill tillåta alla robotar att komma åt en eller flera specifika sidor använder du följande kod

User-agent: *

Tillåt: /page/

För att Googlebot och andra robotar ska kunna söka igenom och indexera innehållet på din webbplats måste du skapa ensitemapfilen. En sitemap innehåller information om alla sidor på din webbplats och hur ofta du vill att Google ska söka igenom dem.

Du kan skicka in dina sitemaps med hjälp av Search Console, som du kommer åt via ett befintligt Google-konto (rekommenderat alternativ) eller HTML-kod (grundläggande alternativ). Den första består av tre interaktiva moduler – Dashboard, Crawl Errors och Fetch as Google – medan den andra bara innehåller länken för att skapa en ny sitemap

Av säkerhetsskäl är det bäst att uppdatera din sitemap varje gång du publicerar nytt innehåll eller gör ändringar i den.

Metataget Robots talar om för sökmotorbotar hur ofta varje sida på din webbplats ska kryssas. Detta hjälper Google att prioritera merviktiga sidor och se till att de inte slösar tid på att söka efter sidor av låg kvalitet.

Metataggen informerar Google om hur ofta indexet ska uppdateras

Meta name=”robots” content=”noindex,follow”

Det är viktigt att notera att den här taggen måste använda “Noindex”, inte “none”. Enligt Google förhindrar användningen av None att din webbplats indexeras. Du kan också ändra värdet för follow eller nofollow om du vill att sökmotorerna ska krypa länkar på din sida

Meta name=”robots” content=”nofollow”

Det här alternativet talar om för robotar att inte söka efter specifika länkar på en sida

Meta name=”keywords” content=””

Om du inkluderar dettataggen och värdet, säger det till Google att inte använda metataggen för nyckelord på din webbplats

Meta name=”robots” content=”noarchive”

Sökmotorerna visar en cachad version av varje sida i stället för att visa den som ett nytt resultat. Detta förhindrar att sökmotorrobotar kryper dina sidor för mycket. Du kan också begränsa hur många gånger dina sidor cachelagras för detta ändamål

Meta name=”robots” content=”nocache”

Det här alternativet används för att informera robotar om de har tillstånd att få tillgång till/cacha en fil eller inte. Det gör det genom att informera dem om de standardregler för caching som tillämpas av servern, som du kan åsidosätta med ytterligare cache-control-alternativ

meta name=”robots” content=”noimageindex”

Det här säger åt sökmotorrobotar att inte indexera bilder på din webbplats

Meta name=”robots” content=”noodp”

Även om denna tagg är tillåten, är den starkt avrådd från att användas. Den hindrar Google från att använda information om webbplatsens ursprungliga ägare, författare och utgivare i sökresultaten. Enligt Google är den här typen av metatag “meningslös”.

Scroll to Top