Google har under våren gjort om väldigt mycket av rutinerna för hur de spindlar sajter och lägger till dem i sitt index. Omdaningen av denna bakomliggande infrastruktur har gått under smeknamnet Bigdaddy. I princip kan man säga att Googles webbspindel Googlebot har blivit intelligentare, och att funktionerna för hur sidor läggs in i indexet har blivit en smula petigare.

Skillnaderna verkar främst röra sig om att själva spindeln kan avgöra vilka sidor som ska hämtas, och att inte alla hämtade sidor släpps in i indexet. Själva algoritmen, som avgör turordningen för sökresultaten verkar däremot inte alls ha ändrats ännu i år.

I ett bloginlägg från den 16 maj berättar Matt Cutts förvånansvärt frispråkigt om olika faktorer som kan försvåra för sajter som har väldigt få sidor i indexet. Det är åtminstone två punkter som är viktiga för alla oss som arbetar med sökmotoroptimering.

Antalet inlänkar har blivit viktigare

Matt Cutts bekräftar, i sitt långa blogginlägg om Bigdaddy, tesen om att antalet inkommande länkar har ökat i betydelse. Sajter som tidigare har haft tusentals sidor i Googles index och numera bara har en handfull sidor kvar där, har ofta alltför få inkommande länkar.

Undvik orelaterade länkar och länkar till tveksamma sajter

Matt Cutts bloggpost bekräftar också teorierna om att det kan straffa sig att länka till orelaterade sajter från alla sidor på sin sajt. Han tar upp flera exempel på sajter som knappt har några sidor kvar i Googles index, och som har det gemensamt att Googlebot inte längre hämtar sidorna, eftersom de alltför flitigt länkar till sajter som inte på något sätt har med sajtens tema att göra, eller till sajter som ses som tveksamma av Google. Det senare brukar på SEO-fikonspråk omnämnas som att länka till dåligt grannskap (bad neighbourhood).

Det ser också ut som om sajter som fungerar som återförsäljare åt andra företag genom så kallade affiliate-program, och som inte har några andra utgående länkar, har råkat ut för samma snåla behandling från Googlebot.

Bra för seriösa sajter

Vi på Carnaby tycker att detta är väldigt goda nyheter. Det sätter definitivt en hel del käppar i hjulen för sökmotoroptimering som har gått ut på att enbart förmedla textlänkar eller att länka till olika länkfarmsprogram.

Samtidigt verkar inga av dessa förändringar påverka etablerade sajter, som sedan länge samarbetar med andra, liknande sajter. Vi kan visserligen se exempel på att gamla, väl etablerade sajter som har så kallade site wide-länkar (länkar från varenda sida på sajten) till flera andra sajter numera kan ha en smula färre sidor på plats i indexet, men det verkar inte ha påverkat deras positioner i sökresultaten.

Tillägg den 19:e maj:
Man kan med all rätt fråga sig hur Google ser på relevans. En lång tråd på temat pågår på SEO-forum: www.seo-forum.se/google/375-matt-cutts-nya-post-indexing.html