Siden september måned har det været muligt at fravælge bestemte sites i Googles søgeresultater.
Når man klikker tilbage til et søgeresultat efter tidligere at have klikket på et resultat fra selvsamme søgning, bliver man nogle gange mødt af muligheden for at blokere fremtidige resultater fra dette site.
Jeg har bemærket, at der ikke altid er denne mulighed for at blokere et site, når man kommer tilbage til søgeresultaterne. Er der gået nok tid fra klik til tilbagevenden, er muligheden der ikke. Google vurderer altså, at hvis man har gidet opholde sig på et givent site i længere tid, må man være tilfreds med, hvad man har set. Et “bounce” fra dit website er altså kritisk, hvis det sker hurtigt.
Hypotese:
Google skriver selv i ovenstående indlæg, at de vil eksperimentere med at benytte data for blokerede sites i deres algoritmer. Min teori er, at de også kan finde på at bruge andelen af “kritiske bounces” som en ranking faktor. Hvis nok besøgende på din side forsvinder igen i løbet af meget kort tid for at vende tilbage til SERPs, kan det være et tegn på lav kvalitet eller mismatch mellem søgeintention og indhold. Og derfor kan sites blive påvirket af for høje bouncerates af den kritiske slags.
Denne teori kan desværre ikke testes simpelt, men jeg kan i hvert fald teste hypotesen om, at Google har en konkret grænse for, hvornår det er problematisk, at man klikker tilbage til søgeresultatet igen.
Og det har jeg faktisk gjort.
Min test:
Jeg har med stopuret i hånden testet, hvor længe der skal gå fra klik på et søgeresultat til klik på “tilbage”-knappen i browseren, før at Google ikke tilbyder muligheden for at blokere alle resultater fra et domæne.
Jeg har testet med Firefox & Chrome-browsere, fra flere forskellige IP’er, fra forskellige computere, i indlogget tilstand, i normal søgning og i incognito-mode.
Desuden har jeg testet, om det skulle gøre en forskel, om jeg blot så en enkelt side på sitet, eller om jeg klikkede rundt og så på flere sider. (På sites med Google Analytics på, hvor Google har en eller anden form for adgang til data).
Og så har jeg testet med flere forskellige typer af søgeord og på både store, troværdige sites og små sites af tvivlsom herkomst.
1:40 er det magiske tal!
Og konklusionen er klar. 1 minut og 40 sekunder er den magiske skillelinie mellem kvalitet og noget der kan blokeres. Går der længere end 1 minut og 40 sekunder, får jeg ikke muligheden for at blokere for et domæne længere.
Og der er absolut ingen forskel i forhold til de mange parametre, jeg remser op ovenfor. Politiken.dk får ikke længere snor end mostershaveblog.dk, om jeg er logget ind eller ej, gør heller ingen forskel. Kommer jeg tilbage inden de 1.40 er gået, så bliver jeg tilbudt muligheden for at blokere for domænet.
Hvad kan jeg bruge det til, Frank?
Du kan bruge det til at vide, at hvis dine besøgende forsvinder igen, inden der er gået 1:40, og de vender tilbage til SERPs og klikker på et andet resultat, så ser det nok ikke for godt ud for din fremtid i søgeresultaterne.
Tidsforbrug på dit site er ikke en parameter, du sådan lige kan kontrollere selv, men hvis du i dine data kan se meget lavt tidsforbrug og høj bouncerate på visse landing pages, så bør du i hvert fald lægge ud med at mærke efter i maven, om du godt ved, at kvaliteten måske ikke er i top – og så gøre noget ved det.
For klikker dine besøgende tilbage til SERPS, kan du være i farezonen.
Super fed test. Ret relevant, og desværre ikke noget jeg havde tænkt på at teste 😉
Jeg må hellere lige tjekke op på tidsforbruget på nogle sites.
Se, dét er et spændende resultat!
Fortæller muligvis også noget generelt om Googles syn på avr. time.
Interessant test, Frank.
1 min. og 40 sek. lyder udmiddelbart af lang tid – de fleste kan vel spotte, om et site er direkte irrelevant, indenfor nogle få sekunder.
Du skriver, at du har foretaget testene på sites med GA. Har du i testen dermed udelukket sites, som ikke benytter GA?
D’herrer,
Tak for kommentarerne.
@Jesper,
Ja, 100 sekunder er faktisk en del. Men nogle gange kan det tage så lang tid at læse sig igennem en eller anden artikel på et MFA-site kun for at finde ud af, at deres svar på dit problem er “Søg efter løsningen på Google”.
Og jeg har testet både på sites med og uden GA. Det har jeg ikke skelet til – men registreret, at det ikke gjorde nogen forskel.
Det er da en anelse skræmmende – det er godt nok lang tid at holde på brugerne. Anyway – det sikrer da at folk finder noget indhold de faktisk leder efter. Det går nok meget godt i tråd med det er kvalitet som kommer til at vinde mere og mere.
Tak for at dele testen.
@Lars,
Du behøver jo ikke holde på brugeren i så lang tid. Så længe de bare ikke klikker tilbage til søgeresultatet for at købe deres badeand hos nogle andre.
Kanon test, tak for at dele resultatet.
Lidt skræmmende, faktisk. Jeg finder ofte den information jeg har brug for på forskellige sider, på under 100 sekunder, og er netop stødt på den “Bloker”-funktion en del gange.
Herlig test – og herligt nørdet. Tak for det, Frank!
Rigtig spændende test og resultat. Det er aldrig faldet mig ind at bloker-funktionen er tidsbegrænset, men det giver jo god mening i bagklogskabens lys. Tak for det Frank!
@Frank: Ja, det kan i nogle tilfælde tage mere end nogle få sekunder, at grave sig igennem indholdet og vurdere, om det er relevant for søgningen – men her skulle man jo tro, at den besøgende netop ville forlade sitet hurtigere end 100 sekunder pga. manglende overskuelighed (jvf. diverse råd om konverteringsoptimering).
Nej, det ville nok have været for let – og Google ville jo så have skudt sig selv i foden, hvis det gav en “rabat” ift. bouncerate, for sites der ikke benytter GA.
Tak for svar, og tak fordi du deler testen med os andre :o)
Super test frank.
Nu skriver du bounce. Er det ligemeget om brugeren ser 1 eller 3 sider hvis de fx klikker tilbage igen? Dvs er det kun tidsbetinget? Google kender vel kun antal sete sider hvis der er ga på sitet eller brugeren benytter google toolbar..
@Lukas,
Jeg støder også selv på den konstant – og det gjorde mig nysgerrig nok til at teste lidt.
@Rosenstand,
Jeg står gerne ved, at jeg er en kende nørdet 🙂
@Lasse,
Teorien om tidsbegrænset blokér-funktion opstod en sen aftentime, hvor jeg skiftevis blev mødt med blokér eller ingen blokér-mulighed.
@Jacob,
Ja, i den her forstand, er der udelukkende tale om et bounce tilbage til SERPs via tilbage-knappen, uanset antal sidevisninger (og altså ikke et bounce i GA-forstand). Og jeg testede flere-siders kig på site med GA for at dække den del. Google Toolbar er en mindre mangel ved testen. Jeg ville ikke installere den bare for at kunne teste. Så hvis nogen af jer derude alligevel sidder med Google Toolbar, er I meget velkomne til at bidrage til testeriet.
@Jesper
Hvis brugeren finder svaret, eller bare har en god oplevelse, så er chancen for, at han klikker tilbage til Google, for at søge videre, vel også minimal? Og chancen for at brugeren klikker “Bloker” er vel endnu mindre.
Det er vel først når:
1. Brugeren klikker på “Bloker”
2. Brugeren klikker tilbage til SERP og klikker på et nyt resultat
At Google kan være sikker på, at brugeren ikke fik det bedste resultat?
Spændende test!
Dejlig enkel test, med et klart resultat. Det undrer mig egentlig at det er så lang tid – men så må vi jo bare gøre det endnu federe at læse eller se video på ens hjemmeside.
Godt tænkt og gennemført test
Nogle der har en fornemmelse af hvor meget man kan nå at læse på 140?
Fedt, at du tester det. Jeg har aldrig tænkt videre over hvorfor jeg somme tider bliver tilbudt den mulighed.
Jeg tror du har ret i din hypotese om at dette indgår som ranking factor. Men da der er stor risiko for misbrug, kommer detaljerne på om og hvordan de bruger Blocked Sites nok aldrig frem i lyset.
@Lars Bo,
Ja, det har du ret i. Det er kun ved “blokér”-klik eller øjeblikkeligt klik på et andet søgeresultat efter at være vendt tilbage til SERPs, at Google kan være sikker på, at brugeren ikke var tilfreds med indholdet.
@Brian,
Ja, man skal enten holde på brugeren i 1:40, eller også skal man sørge for at levere varen, så de ikke har behov for at klikke tilbage til søgeresultaterne.
@Riisager,
Når man sidder med uret og tester, føles 1:40 i hvert fald som ret lang tid. Jeg læser selv hurtigt og når meget ofte at suge den nødvendige næring ud af en side i et tempo, så jeg bliver mødt af muligheden for at blokere, hvis jeg klikker tilbage til søgeresultaterne.
Efter at have stiftet bekendskab med Gerry McGovern, så har jeg fået et andet syn på, hvad tiden brugerne er på websitet betyder. Er de der længe er det ikke nødvendigvis godt, medmindre du måske har en blog, hvor længere tid indikerer, at de rent faktisk læser dit indhold.
Når det så er sagt, så er det en spændende test 🙂
Fed test Frank.
Hvis det viser sig, at Google tager dette med i algoritmerne og det bliver en vigtig ting for SEO, så tror jeg der er mange der ryger ned et par sider.
Hvad med dem, som hopper ind på en side for, at finde et telefon nummer el. en e-mail?
Men, tak for det 🙂
Hej Frank
Interessant. Troede slet ikke den var så høj. Jeg synes at 1:40 er forholdsvis lang tid at skulle holde på sine besøgende. Så er det næste spørgsmål så bare mere præcis hvordan tidsforbrug og bouncerate indgår i selve algoritmen og ikke blot hvornår folk har mulighed for at blokere…
@Michael – Er meget enig i dit synspunkt. Det er langt fra sikkert at lang tid på din side er et godt tegn. Men det kommer naturligvis an på hvad det er for en type hjemmeside. Jeg vil dog tro at lang tid på en webshop er positivt.
Super test.
Læste for nylig en artikel (husker ikke lige hvor), hvor brugeren havde blokeret en side fra søgeresultaterne. Men ved næste søgning dukkede siden alligevel op igen.
Det viste sig så, at siden var indekseret med både http://www.domæne.com, ww.domæne.com, w.domæne.com og flere. Det giver så problemer med DC, men det kan løses med canonical, og så slipper man uden om blokeringen.
Okay, jeg vil hellere undgå DC, men her var der pludselig et formål, hvor det kunne være en smule nyttigt 🙂 (selvom DC-siderne nok lynhurtigt bliver blokeret også).
@Michael og Sebastian,
Det kan godt være, at jeg ikke har skrevet det klart nok i indlægget. Men det er jo ikke et problem, hvis dine besøgende finder hvad de har brug for på 10 sekunder og forsvinder igen. Bare de ikke gør det ved at trykke på tilbageknappen og hoppe tilbage til Google.
@Johnny,
Hvis man har behov for at bruge ekstra subdomæner for at slippe uden om bruger-blokeringer, så har man vist så mange andre issues med både brugere og Google, at DC nok ikke er det største problem. 🙂
OK Frank, dette var en interessant test, hurra for nørderiet. Hvem som var en flue på væggen der;-)
I og med at hurtig oppgaveløsning er og i endnu højere grad blir en suksessfaktor på moderne netsider vil det være helt forrykt af Google at lade lav tid brugt på et nettsted være en indikator på dårlig kvalitet og dermed påvirke rankingalgoritme generelt.
Tror snarere det bliver omganget af og andelen af brugere som blokerer siden de akkurat har besøgt som vil kunne få indflydelse på dette rankingen.
Jeg skriver 100% norsk næste gang;-) Beklager.
I det her tilfælde klarer “problembarnet” sig ret godt alligevel. Det er http://www.w3schools.com. Hvis du blokerer det ene subdomæne, så er der ret gode chancer for, at de stadig dukker op i toppen på den samme søgning – bare med et andet subdomæne. 🙂
Interessant observation Frank!
Skal man nu til at kode noget “disable backbutton”? 😉
1:40 er relativt meget – afhængigt af dit indhold – men Google har jo nok en ret god gennemsnitsbetragtning, så spændende er det.
Hej Frank – tak for et godt indlæg, vanen tro.
Jeg har godt selv lagt mærke til at den forsvinder, men havde ikke lige tænkt på at at time funktionen.
Jeg tror dog ligesom Nickolass at tid brugt på site er en lidt flyvsk faktor at måle på, der kan være mange årsager til at en bruger hurtigt forlader sitet igen, det betyder ikke nødvendigvis at det har været en dårlig oplevelse. Måske fandt man bare hvad man ledte efter med det samme.
Kombineret med flere andre faktorer, kan det dog give mening for Google at måle på. Der er vist ingen tvivl om at et klik på bloker site i alle tilfælde ikke er en positiv handling 🙂
Hej Frank
Rigtig interessant resultat og en typisk Frank test 🙂
Løsningen må så være at gøre som et site jeg landede på den anden dag hvor søgeresultatet førte mig til “side 5” på sitet og hvis jeg brugte tilbage knappen, så gik den til side 4 og så side 3 osv. og først efter 5 tilbage klik var jeg tilbage til Google. Måske man kan holde lidt længere på den besøgende på den luskede måde – alternativet er selvfølgelig også at lave noget godt indhold.
Jeg oplever ind imellem, at søgeresultaterne er forskellige alt efter om der søges i Firefox, Chrome eller Safari (også når der tages højde for om man er logget ind eller ej, eller inkognito) måske det var noget du var frisk på at teste 🙂
1:40 er faktisk ret lang tid.
For mit vedkommen gør det ikke noget hvis nogle fravælger at se min side i resultaterne næste gang de søger hvis det er det..
Spørgsmålet er bare når 2 eller 100 mennesker gør dette. Vil det så påvirke siden placering på google for alle andre som søger på bestemte keywords?
@Rasmus, jeg synes, at kunne huske noget om, at det er mod nogle retningslinier at disable back-button. 🙂
@Nickolass & Henrik,
Jeg hælder også selv mest til, at effekten er størst, hvis der enten bliver trykket på et nyt søgeresultat eller trykket på blokér. Men vil ikke udelukke, at det også kan være et signal i sig selv, hvis en meget stor andel af de besøgende vender tilbage til SERPs indenfor de 100 sekunder.
@Thomas,
“En typisk Frank test” tager jeg gerne til mig. 🙂
Jeg er enig i, at godt indhold nok er en mere langsigtet løsning end smarte tricks.
Der kommer nok ikke en test fra min hånd på afvigelser fra browser til browser – de afvigelser kan lige så godt stamme fra opkobling til forskellige datacentre som fra evt. browserforskelle.
@Alexander,
Google har selv skrevet, at de vil bruge den slags data fremover, så du skal gå op i, at folk ikke skal blokere dit site.
@Frank Hellerup Madsen
Så må man bare yde noget mere så de besøgende ikke få lyst til at blokere ens side.
Spørgsmålet er nu bare, hvordan gør de at dette ikke bliver udnyttet.
En konkurrent kunne jo sagtens finde på at smutte ind på en side gå hurtigt ud igen kun for at blokere den via forskellige IP’er.
Alexander, det ville så kræve en række Google logins, du kan ikke blokere en side uden at være logget ind. Jeg tror ikke umiddelbart det er svært for Google at skelne imellem rigtige og “falske” brugere.
Jeg tror bestemt stadig på at nogle vil prøve at udnytte dette. Håber sådan set bare at google har noget i ærmet til at forhindre dette.
Det var godt nok længe, at man skulle holde på sine besøgende. Normalt vil gennemsnittet for en besøgende på et godt site vel være over 1:40, men alle dem som lige skal snuse til siden eller webshoppen, de bliver kortere tid. Og det har jo intet med oplevelsen at gøre?
Det slog mig lige. Hvor mange mennesker vel egentlig bruge “Bloker alle resultater for http://www...” knappen?
Altså man ved jo aldrig, om man i en nær fremtid fik brug for en eller anden side. Det eneste, som jeg lige kan komme på, som jeg ville blokere, det er evt skrammel affiliate sider, eller meningsløse linkbuilding blogs… Men ellers ville jeg da ALDRIG trykke på den knap!
@Morten – Du har nok ret i at man ikke vil bruge den så tit. Men er det så kun <5% så giver det stadig OK mening.
Rigtig lækker test Frank har lavet i øvrigt!!!
@alle der synes 1:40 er lang tid:
1 minut og 40 sekunder kan være lang tid for nogle sider og kort tid for andre – men det er jo næsten logisk, at det vil have betydning for dine rangeringer, hvis dine konkurrenter har en væsentligt højere avr. time on site end dig (hvis det f.eks. er 0:30 hos dig og 1:20 hos konkurrenten, så er det jo klart, at konkurrentens side er bedre – selvom I begge er under 1:40).
Så selvom 1:40 umiddelbart virker som et næsten magisk tal, skal man naturligvis veje det op imod, hvad ens konkurrenter sandsynligvis har – og så forsøge at forbedre sin egen hjemmeside…
Nu mangler vi bare en test, der viser hvor mange der rent faktisk trykker på knappen. Evt også hvilke demografier, der er mest tilbøjelige til det 🙂
puu, lidt nørdet skulle lige læses et par gange 🙂
Har du prøvet at rydde din cache? Google gemmer alt din historik og gemmer dine cookies, den eneste måde du faktisk kan se om det virker at slå “inkognito” på i f.eks. mozilla firefox og teste det?
Hilsen
Thomas
rigtig god test. tak for spændende læsning
det er faktisk lidt utroligt, men jeg finder også selv den information jeg skal bruge meget hurtigt