Privatlivspolitik
Privatlivspolitik

Google Nyheder: November 2020

Opdateret d. 3. december 2020 af Thomas Bogh

Google Nyheder: November 2020

Google opdaterer sig løbende med nye tiltag og forbedringer, som man bør kende, hvis man arbejder med SEO.

Vi giver dig derfor her en oversigt over de vigtigste opdateringer fra Googles verden i november. 

Core Web Vitals bliver ranking faktorer i maj 2021

Google har annonceret, at Core Web Vitals bliver en del af deres ranking faktorer fra maj 2021. Denne opdatering vil hermed indgå i en kombination af eksisterende UX-faktorer.

Google Core Web Vitals bygger på kravet om at skabe en fortsat bedre brugeroplevelse for brugerne på internettet. Det bygger også på det, man kalder ‘page experience’.

Core Web Vitals vil indgå sammen med andre følgende faktorer:

  • Mobil-venlighed
  • Safe-browsing
  • HTTPS-sikkerhed
  • Intrusive interstitial guidelines

Googles Core Web Vitals blev allerede tidligere i 2020 introduceret som en rapport i Search Console for at måle brugeroplevelsen endnu bedre med fokus på hastighed, responsivt indhold samt visuel stabilitet.

Google har navngivet disse som ‘Largest Contentful Paint’ (LCP), ‘First Input Delay’ (FID) og ‘Cumulative Layout Shift’ (CLS).

Du kan læse mere om dem alle i vores guide om Googles Core Web Vitals.

Nye labels i Googles søgeresultater

Google vil i forlængelse af Core Web Vitals tilføje en række labels i sine søgeresultater, der vil indikere hvor godt siden lever op til page experience.

Derfor er Google i gang med at teste forskellige visualiseringer, som kan fungere som labels. Noget som derfor kan øge blåstempling af en sides brugeroplevelse allerede inden, man klikker sig ind på siden.

Som det ser ud nu, vil mange sider ikke kvalificere sig til disse labels. En udenlandsk undersøgelse fra august viser, at mindre end 15% af undersøgelsens sider var på daværende tidspunkt optimeret nok til at bestå Google Core Web Vitals vurderingen.

Ikke-AMP indhold kan fremover rangere i Top Stories karrusellen

Det bliver herudover gjort muligt at ikke-AMP sider (ikke Accelerated Mobile Pages) vil kunne vise sig i Top Stories fra maj 2021. Hermed sker dette samtidig med, at Core Web Vitals bliver ranking faktorer.

Hver en sider som lever op til Google News content guidelines vil kunne vise sig i Top Stories karrusellen, hvor sider med den bedste brugeroplevelse bliver prioriteret.

Hvor stor en ranking faktor bliver Core Web Vitals?

Det er endnu svært at sige, hvor stor en rolle Core Web Vitals kommer til at have på Google placeringer samlet.

Nogle mener det kommer til at have stor indflydelse, hvor andre mener det kommer til at fylde en mindre del. Det er nemlig altid vigtigt at forstå, at Googles algoritme tager mange faktorer i betragtning, når forskellige sider skal rangeres på søgemaskinen.

Men én ting er sikkert, og det er at Core Web Vitals ikke bliver uvæsentlig.

Det læner sig op ad et område, som Google løbende har større fokus på, hvilket er brugeroplevelsen. Derfor gør du som hjemmeside-ejer klogt i at sætte dig ind i disse Web Vitals, og gøre hvad du kan for at optimere hen mod det.

Status på Request Indexing Tool

Tilbage i oktober valgte Google at ‘disable’ (deaktivere) deres “Request Indexing” værktøj, som hjemmeside-ejere bruger aktivt til manuelt at fortælle Google Search Console, at nyt indhold ønskes indekseret på ny eller re-indekseres efter en opdatering. Dette sker gennem requests.

Selvom man tidligere har forventet, at værktøjet hurtigt ville være tilbage, er dette endnu ikke virkeligheden.

request indexing tool disabled

Derfor har Googles Webmaster Trends Analyst, John Mueller, været ude at kommentere på status.

Hvorfor er Request Indexing Tool deaktiveret?

Google valgte at deaktivere sit Request Indexing Tool som led i infrastruktur ændringer i Search Console.

John Mueller uddyber i et interview, at Google ønsker at forstå, hvordan hjemmeside-ejerne bruger værktøjet til at indeksere content og herfra bruge denne viden at udvikle processen.

Målet for Google er nemlig at se, om det kan lade sig gøre at automatisere processen til gavn for hjemmeside-ejerne fremfor at fjerne det – som mange ellers frygtede.

And I feel like we should just be able to handle that automatically so that people don’t need to do things manually”.

John Mueller, Webmaster Trends Analyst hos Google

Så Google fjerner ikke Request Indexing værktøjet, men prøver derimod at se, hvordan det kan forbedres.

De kigger ind i årsagen til, hvorfor værktøjet bliver brugt og arbejder herfra på en måde at automatisere processen mere. 

Dog ved Google også, at der kan være enkelte cases, hvor man har brug for at prioritere udvalgt indhold ved manuel indeksering.

Du kan se John Mueller interviewet her:

Google opdaterer sin Search Console Crawl rapport

Google har opdateret sin Crawl Stats rapport i Search Console, som forbedrer rapporteringen på crawling.

google crawling chart

De nye crawl elementer kan give en dybere indsigt i crawling på en hjemmeside/website.

Rapporten er brugbar ift. at se tracking ændringer i crawling. Disse ændringer kan typisk indikere, at noget enten er galt eller modsat – at noget går godt.

Hvis en crawl rate pludselig falder, kan det indikere flere ting, herunder en opdatering som ikke er gået som den skulle, eller et problem med kvaliteten af content.

Hvis crawling stiger kan det derimod indikere, at noget går den rigtige vej. Dette kan være grundet konsistent godt indhold sammen med større autoritet på søgemaskinen. Her vil man evt. kunne se flere crawl requests i rapporten. 

Dog kan en stigning i crawls også betyde, at der fejlagtigt kommer duplicates på samme indhold. Derfor er rapporten samt årsagerne bag værd at holde øje med løbende.

Nye crawl features

I den opdaterede version findes bl.a. følgende nye features:

  • Antal af samlede requests ud fra type
  • Detaljeret information om host status
  • URL eksempler som viser hvor en request opstod
  • Oversigt for properties (ejendomme) med flere hosts og support for domæne properties

Læs mere om det her.

Google opdaterer Remove Outdated Content tool

Google har opdateret sit værktøj, som kan fjerne ‘gammelt’ indhold fra Googles søgeresultater – eller indhold som ikke længere eksisterer.

Målet med værktøjet er at ønske – requeste – om at få fjernet indhold på URL’er, som man ikke selv ejer.

Der findes ligeledes et værktøj, som hedder “Remove Content Tool”, som gør, at man hurtigt kan få fjerne sider man selv ejer fra Googles søgeresultater.

Værktøjet “Removed Outdated Content Tool” bruges altså derimod til at requeste de-indeksering af indhold på andre hjemmesider, hvis der eksempelvis vises indhold i Googles SERP, som ikke længere findes. Dette værktøj kan alle derfor bruge.

Det er sidstnævnte, som har fået et opdatering af design, så det giver en bedre brugeroplevelse. Opdateringen gør det også nemmere at bruge på mobil.

Forskellen fra det gamle til nye, kan du se her:

gammelt remove outdated content
Gammelt design

Vs.

nyt remove outdated content design
Nyt design

Det gamle værktøj vil ikke længere være muligt at bruge efter januar 19. 2021.

Du kan læse mere om det her hos Google.

Googlebot begynder crawling med HTTP/2

Det er nu muligt for Googlebot at crawle med det, man kalder ‘HTTP/2 protocol’.

Normalt crawler Googlebot HTTP/1, men fra nu af vil den kunne crawle sider, som vil kunne nyde gavn af HTTP/2, hvis siden understøtter det.

Hvad er ‘HTTP/2 protocol’?

HTTP/2 er navnet for den seneste netværks protokol, som gør data-processen hurtigere mellem server og browser.

HTTP/2 vil nemlig mindske tiden det tager for en side at blive leveret fra en browser til en server. 

Med den tidligere protokol kaldet HTTP/1 kørte der kun én request ad gangen. Men med HTTP/2 kan Googlebot og browser opnå “multiplexed” kvalitet. Det betyder i bund og grund, at server load mindskes, og det bliver nemmere for Googlebot at crawle sider.

Hvis du gerne vil finde ud af, om din server er kvalificeret til HTTP/2, kan du tjekker det her.

Google Webmaster ændrer navn til Google Search Central

Google Webmasters giver sig selv en fornyelse, og ændrer navn til ‘Google Search Central’. 

Denne opdatering sker ifølge Google grundet en ændring i den måde, som en “webmaster” ser sig selv på.

I en undersøgelse kunne Google nemlig konkludere, at professionelle på området for optimering ser sig selv mere som Search Engine Optimizer (SEO) eller web developer fremfor en webmaster.

Derfor vil “Search Central” fra nu af repræsentere indholdet, som er kendt fra Googles Webmaster Central kanaler – altså det faglige indhold, som Google løbende deler.

Funktionen af disse kanaler – om det er blog eller hangouts – vil stadig være den samme; at hjælpe folk der arbejder med SEO til at forstå søgemaskinen bedre til gavn for verdens brugere.

Derfor vil Googles også i højere grad konsolidere deres indhold til ét site. Denne kan nu tilgås som deres Search Central.

Følger man Googles kanaler i forvejen, skal man dog ikke gøre noget. Google vil redirecte nuværende RSS og læsere til den nye blog.

Som en ekstra og sidste ting, vil Google ligeledes tildele Googlebot en ny “sidekick”, som vil blive visualiseret som en edderkop-robot.

googlebot sidekick

Du kan læse mere om det her på Googles blog.

Bliv klogere på online marketing