Indeksering: Hvordan vurderer Google om dit indhold skal vises?

Matti Ljungberg

Google kender til over en billion sider på den verdensomspændende internet, og der findes mange milliarder sider i søgemaskinens bibliotek. Googles bibliotek bliver skabt ved, at en Google-bot, også kaldet en crawler, følger links rundt på tværs af domæner. 

Ikke alle sider er nødvendige at forstå for Google. De bliver derfor ikke indsat i Googles bibliotek af sider, som er værd at vise i søgeresultaterne. 

Men vidste du, at over 90 procent af indhold ikke får nogle besøgende fra Google?

For at være sikker på, at dit indhold bliver vist og får trafik, er det væsentligt, at du forstår eller i det mindste har en idé om, hvordan Google forstår og klassificerer dit indhold. 

Det skal vi kigge nærmere på i dette blogindlæg.

Hvordan sørger du for, at dit indhold bliver vist i Google?

Alle der skriver, filmer eller på anden måde producerer content rettet mod andre ønsker, at det bliver vist i Google. Google står nemlig for omkring 90 procent af alle søgninger. Derfor er det at blive prioriteret af Google et must, hvis du ønsker at få organisk trafik til dit content.

At en side bliver besøgt, læst og forstået af crawleren fra Google og derefter vist i søgeresultaterne er det, man kalder en indeksering.

Googles ideologi er at have kendskab til alle sider, men ikke nødvendigvis indeksere dem alle. 

Men hvorfor vil Google ikke have alle sider i deres bibliotek? 

Der er flere årsager, men for at nævne nogle:

    1. Rigtig meget af internettet er “spam”.
      Op mod 30 procent af sider på internettet er klassificeret som spam. 
    2. Originalt indhold vs. omskrevet indhold.
      Hvis du bare skriver for at rangere på et søgeord, men ikke tilføjer noget originalt indhold til artiklen, kan det være, at Google vælger ikke at vise det. 
    3. For lav kvalitet
      Google har nogle retningslinjer for, hvad de kalder “kvalitetsindhold”. Bare her i 2021 og 2022 har der været tre opdateringer til Googles algoritme med det formål at få Google-crawleren til bedre at kunne klassificere dårligt indhold.
    4. For meget konkurrence
      Visse søgeord har så meget konkurrence, at det næsten skal være revolutionerende indhold for at blive optaget i Googles bibliotek.
    5. E-A-T faktorer
      E-A-T eller Expertise, Authoritativeness and Trustworthiness er et begreb Google introducerede til verden sammen med YMYL (Your money your life). Hvis din branche handler om noget med økonomi eller helbred, så er der strengere retningslinjer fra Googles side, og det kræver mere autoritet at rangere på disse søgeord. Det er blandt andet derfor, at du kun ser meget autoritære sider, hvis du søger på information ang. Covid-19.

Google skal ses som et kæmpe (læs: KÆMPE!) stort bibliotek, hvor hver en enkelt (relevante) side på nettet er forstået, læst og “gemt”. Bid gerne mærke i, at vi skriver side og ikke domæne. Hver enkelt side bliver nemlig forstået og indekseret for sig. 

Google har altså et kæmpe katalog af individuelle sider – en database om du vil.

Det lyder ret simpelt, men det bliver hurtigt mere kompliceret. 

Har dit website problemer med jeres indeksering, har vi også skrevet en guide om det her: Typiske problemer med indeksering og løsninger.

Googles indeksering: Verdens mest komplicerede bibliotek

Google har implementeret flere ting i deres algoritme, som alle er med til at vurdere hvor en side skal befinde sig i SERP (search engine result page) for et søgeord. 

PageRank, Core Web Vitals og Helpful Content Update. Bare for at nævne nogle få rangeringsfaktorer.

PageRank

Enormt kompliceret emne, men meget kort fortalt, så er det autoritet, som skabes gennem andre sider, der linker til din.

Hvis man skal prøve at male et billede, så forestil dig, at du er i Rom og spørger 10 tilfældige mennesker på gaden, hvilken isbutik sælger den bedste is. Hvis alle 10 mennesker siger den samme isbutik, så vil troværdigheden til den isbutik stige. Lad os nu sige, at de 10 tilfældige mennesker alle viser sig at være professionelle is-anmeldere, så er troværdigheden endnu højere. PageRank er Googles måde hvorpå link vurderes som anbefalinger ud fra relevans, autoritet og troværdighed. 

Core Web Vitals

Konkrete målinger, som Google crawleren laver på en side om hastighed og brugervenlighed på siden. 

I takt med at vi bliver mere og mere mobile, sker langt de fleste af vores daglige søgninger også på farten. Derfor er det vigtigt, at din side både fungerer på mobil og computer, men hvad indebærer begrebet “fungere”? 

Core Web Vitals er Googles forsøg på at vurdere, hvilke tekniske aspekter, der skal være i orden på en side for at skabe en god brugeropelevelse. Herunder er ting som hastighed, og at elementerne ikke hopper på siden, så man ender med at klikke på noget man ikke ønskede.  

Helpful Content Update

En opdatering, som havde fokus på at præsentere Google-brugere for det mest originale, relevante og bedste indhold.

Læs mere om updaten, og hvordan du laver content under den nye algoritme her.

Rigtig meget af det content, vi ser i dag, er ikke skrevet af eksperter, og er hovedsageligt skrevet for at rangere på et attraktivt søgeord. Der er intet galt i at gå aktivt efter specifikke søgeord, men leverer du nyt og originalt indhold eller har du bare omskrevet andres eksisterende indhold?

Yderligere har udviklingen inden for AI og automatisering gjort det nemmere end nogensinde at “spinne” tekster, altså få AI til at skrive tekster for en. Helpful Content Update er skrevet for at sortere det uoriginale og uoplysende fra, og præsentere læseren for det, som giver ny viden.  

Hvordan foregår Googles "første" indeksering?

For at indeksere skal Google først “finde” din side, eller rettere sagt Googles crawler skal. Crawleren forbinder sig til forskellige webservere omkring i verden, og beder så serveren returnere specifikke URL’er, som den så scanner for hyperlinks, som er eventuelle links til nye sider, som den foretager samme process for. Hvert specifikke undersøgte og opdagede URL får et unikt ID. 

Ovenstående process foretages milliarder af gange, så der opstår hurtigt ret mange unikke ID’er. 

Crawleren har skabt milliarder af unikke dokumenter, men hvordan matcher Google så en søgning med en søgefrase? 

Google laver et index over indholdet i dokumenterne, men i stedet for at læse og gemme et helt dokument, så noterer den, i hvilke dokumenter et ord optræder. 

Lad os tage sætningen: 

“Vil du være sød at pege den giraf et andet sted hen, så vi kan komme tilbage til en nogenlunde ordentlig dialog igen!”

grønne slagtere

Her kunne en opdeling være:

Dokument 1: Vil du være sød at pege den giraf et andet sted hen
Dokument 2: Så vi kan komme tilbage
Dokument 3: Til en nogenlunde ordentlig dialog igen!

Så vil ordene “Vil” og “Du” blive gemt som 1,1 og 1,2
Ordene “så” og “vi” blive gemt som 2,1 og 2,2
Ordene “nogenlunde” og “ordentlig” blive gemt som 3,3 og 3,4.

Søgningen “Sommer i Tyrol”, vil derfor deles op i “Sommer”, “i” og “Tyrol”.

“Sommer” forekommer både på sider såsom IMDB og rejsebureauer, og det samme er gældende for “Tyrol”, men dokumenter som indeholder både “sommer” og “tyrol” er langt færre end volumen af dokumenter, som indeholder de enkelte ord. 

Hvordan vælger Google så mellem de resterende resultater? 

Hvert relevant dokument får en IR eller Information Retrieval score for en søgefrase. 

Meget forenklet, så bliver denne IR bliver baseret på:

  • Hvor tæt/ens er søgeordene på den faktiske sætning i dokumentet
  • Hvor optræder søgeordet i dokumentet
  • Hvor mange gange optræder søgeordet?

Denne IR bliver også holdt op mod et dokuments PageRank.

Så Google bruger IR og PageRank til at ranke de forskellige dokumenter, som er relevante for de søgte søgeord. Men.

IR er ikke én algoritme, men mange små algoritmer, der alle hjælper til at forstå dokumentets indhold og kvalitet. 

Udover IR og Pagerank vurderer Google også dokumenter ud fra:

  • Core Web Vitals
  • Placering
  • Sprog
  • Søgefrasen (Eksempel: Optræder “i nærheden af mig” eller “opskrift” skaber unikke søgeresultater)
  • E-A-T
  • Author profile
  • Og mange mange flere!

Hvor skal man begynde med at optimere?

At blive 100 procent ekspert i Googles algoritmer er umuligt. Årsagen er, at Google holder kortene enormt tæt på kroppen, når det kommer til, hvordan de opdaterer deres algoritmer. 

Google prøver at tage, hvad de kan se har betydning for deres brugere og omsætte det til signaler, som kan implementeres i algoritmer eller omdannes til machine learning. 

Det kan derfor være svært for det utrænede øje at vurdere, hvor ens virksomheds ressourcer er bedst givet ud.

Vi anbefaler derfor altid at begynde med fundamentet:

Det nytter ikke noget at lave fantastisk content, hvis din side ikke er mobiloptimeret eller har andre tekniske problemer. Hvis dine brugere skal vente mere end 2-3 sekunder på at få sidens indhold serveret, så vil det give mening begynde at optimere her først. 

  • Er skabelonen for jeres content bygget godt nok op? 
  • Er det visuelt tiltrækkende? 
  • Er det logisk at navigere i? 
  • Er det læsevenligt? 
  • Er jeres indhold for teknisk ift. læserne?

Med indhold, der er for teknisk, mener vi, om I har undersøgt, hvor i købsrejsen kunden er, når de søger på det ønskede søgeord. Hvis I laver søgningen nu og Wikipedia rangerer, så er eventuelle læsere nok I begyndelsen af deres “forståelse” indenfor området. Derfor skal artiklen skrives, som skulle du forklare emnet til en der kun lige har stiftet bekendtskab med søgeordet.

Derefter, når selve fundamentet spiller til UG, og du har skabt en god ramme at skabe fantastisk indhold i, så begynd at arbejde med de enkelte sider og indlæg. 

Hvordan sørger du så for, at dit content performer godt i Google?

Efter at have læst ovenstående, burde du være bedre klædt på til at kunne skabe og bedømme dit nuværende indhold, men for at simplificere det endnu mere, har vi lavet en spiseseddel:

  1. Er fundamentet i orden? (de tekniske aspekter)
  2. Er vores blog-skabelon visuelt tiltrækkende?
  3. Er vores indlæg for tekniske ift. søgeordet?
    (foretag en søgning efter søgeordet, vurdér søgeintentionen, og hvor “erfaren” læseren er ift. resultaterne, som vises)
  4. Tilføjer vi ny viden til debatten, eller gengiver vi bare, hvad andre allerede har nævnt? 
  5. Får læseren ny viden af indlægget og hvilken? 
  6. Afdækker vi emnet ordenligt eller berør vi kun overfladisk emnet?
  7. Afdækker vi emnet fint, men det kunne give mening at oprette andre sider med supporterende indhold? 
  8. Har vi visuelle elementer, som understøtter og forklarer vores pointer? 
  9. Har vi en forfatter/author tilknyttet indlægget? Og hvis ja, har vi opbygget vores skribenters author profiler? 
  10. Bruger vi alsidigt sprog og synonymer i vores indlæg, eller bruger vi kun det givne søgeord og søgefraser. SEO-specialister skriver meget sjældent de bedste tekster, da de ofte ikke viger langt væk nok fra det givne søgeord eller bruger de mest naturlige vendinger. 
  11. Gør I brug af struktureret data? I kan læse mere om struktureret data her
  12. Har vi/kan vi skabe interne links til indholdet? 

Kort sagt gælder det derfor om at give algoritmen så mange af de rigtige signaler om, hvorfor netop jeres indhold er værd at vise, men for at gøre det, så skal man vide hvilke signaler Google vurdere indholdet efter. 

Få tips og tricks til digital marketing i vores nyhedsbrev

Måske vil du også læse

disse indlæg om SEO

Der er ingen kommentarer endnu.

Vær den første til at kommentere.