Siden september måned har det været muligt at fravælge bestemte sites i Googles søgeresultater.

Når man klikker tilbage til et søgeresultat efter tidligere at have klikket på et resultat fra selvsamme søgning, bliver man nogle gange mødt af muligheden for at blokere fremtidige resultater fra dette site.

Screenshot, der viser muligheden for at blokere søgeresultater fra dr.dk

Jeg har bemærket, at der ikke altid er denne mulighed for at blokere et site, når man kommer tilbage til søgeresultaterne. Er der gået nok tid fra klik til tilbagevenden, er muligheden der ikke. Google vurderer altså, at hvis man har gidet opholde sig på et givent site i længere tid, må man være tilfreds med, hvad man har set. Et “bounce” fra dit website er altså kritisk, hvis det sker hurtigt.

Hypotese:
Google skriver selv i ovenstående indlæg, at de vil eksperimentere med at benytte data for blokerede sites i deres algoritmer. Min teori er, at de også kan finde på at bruge andelen af “kritiske bounces” som en ranking faktor. Hvis nok besøgende på din side forsvinder igen i løbet af meget kort tid for at vende tilbage til SERPs, kan det være et tegn på lav kvalitet eller mismatch mellem søgeintention og indhold. Og derfor kan sites blive påvirket af for høje bouncerates af den kritiske slags.

Denne teori kan desværre ikke testes simpelt, men jeg kan i hvert fald teste hypotesen om, at Google har en konkret grænse for, hvornår det er problematisk, at man klikker tilbage til søgeresultatet igen.

Og det har jeg faktisk gjort.

Min test:
Jeg har med stopuret i hånden testet, hvor længe der skal gå fra klik på et søgeresultat til klik på “tilbage”-knappen i browseren, før at Google ikke tilbyder muligheden for at blokere alle resultater fra et domæne.

Jeg har testet med Firefox & Chrome-browsere, fra flere forskellige IP’er, fra forskellige computere, i indlogget tilstand, i normal søgning og i incognito-mode.

Desuden har jeg testet, om det skulle gøre en forskel, om jeg blot så en enkelt side på sitet, eller om jeg klikkede rundt og så på flere sider. (På sites med Google Analytics på, hvor Google har en eller anden form for adgang til data).

Og så har jeg testet med flere forskellige typer af søgeord og på både store, troværdige sites og små sites af tvivlsom herkomst.

1:40 er det magiske tal!
Og konklusionen er klar. 1 minut og 40 sekunder er den magiske skillelinie mellem kvalitet og noget der kan blokeres. Går der længere end 1 minut og 40 sekunder, får jeg ikke muligheden for at blokere for et domæne længere.

Og der er absolut ingen forskel i forhold til de mange parametre, jeg remser op ovenfor. Politiken.dk får ikke længere snor end mostershaveblog.dk, om jeg er logget ind eller ej, gør heller ingen forskel. Kommer jeg tilbage inden de 1.40 er gået, så bliver jeg tilbudt muligheden for at blokere for domænet.

Hvad kan jeg bruge det til, Frank?
Du kan bruge det til at vide, at hvis dine besøgende forsvinder igen, inden der er gået 1:40, og de vender tilbage til SERPs og klikker på et andet resultat, så ser det nok ikke for godt ud for din fremtid i søgeresultaterne.

Tidsforbrug på dit site er ikke en parameter, du sådan lige kan kontrollere selv, men hvis du i dine data kan se meget lavt tidsforbrug og høj bouncerate på visse landing pages, så bør du i hvert fald lægge ud med at mærke efter i maven, om du godt ved, at kvaliteten måske ikke er i top – og så gøre noget ved det.

For klikker dine besøgende tilbage til SERPS, kan du være i farezonen.