Carnaby Solutions

  • Start
  • Synlighet
    • Sökmotormarknadsföring
    • AdWords SEM
    • Digital annonsering
    • Digital marknadsföring
  • Säljprocesser
    • Konvertering
    • Webbstrategi
    • Leda till butik genom off web sales
  • Analys
    • Nulägesanalys
    • Webbanalys
    • Analyser för varumärkesarbete
    • E-postmarknadsföring
    • Rapporter och rapportverktyg
  • Utbildning
    • Utbildning SEO
    • Utbildning Google Analytics
  • Arbetsgrupp
  • Blogg
  • Om Carnaby
  • Kontakt

Se upp med vart och hur ni länkar!

17 maj, 2006 av Nikke 2 kommentarer

Google har under våren gjort om väldigt mycket av rutinerna för hur de spindlar sajter och lägger till dem i sitt index. Omdaningen av denna bakomliggande infrastruktur har gått under smeknamnet Bigdaddy. I princip kan man säga att Googles webbspindel Googlebot har blivit intelligentare, och att funktionerna för hur sidor läggs in i indexet har blivit en smula petigare.

Skillnaderna verkar främst röra sig om att själva spindeln kan avgöra vilka sidor som ska hämtas, och att inte alla hämtade sidor släpps in i indexet. Själva algoritmen, som avgör turordningen för sökresultaten verkar däremot inte alls ha ändrats ännu i år.

I ett bloginlägg från den 16 maj berättar Matt Cutts förvånansvärt frispråkigt om olika faktorer som kan försvåra för sajter som har väldigt få sidor i indexet. Det är åtminstone två punkter som är viktiga för alla oss som arbetar med sökmotoroptimering.

Antalet inlänkar har blivit viktigare

Matt Cutts bekräftar, i sitt långa blogginlägg om Bigdaddy, tesen om att antalet inkommande länkar har ökat i betydelse. Sajter som tidigare har haft tusentals sidor i Googles index och numera bara har en handfull sidor kvar där, har ofta alltför få inkommande länkar.

Undvik orelaterade länkar och länkar till tveksamma sajter

Matt Cutts bloggpost bekräftar också teorierna om att det kan straffa sig att länka till orelaterade sajter från alla sidor på sin sajt. Han tar upp flera exempel på sajter som knappt har några sidor kvar i Googles index, och som har det gemensamt att Googlebot inte längre hämtar sidorna, eftersom de alltför flitigt länkar till sajter som inte på något sätt har med sajtens tema att göra, eller till sajter som ses som tveksamma av Google. Det senare brukar på SEO-fikonspråk omnämnas som att länka till dåligt grannskap (bad neighbourhood).

Det ser också ut som om sajter som fungerar som återförsäljare åt andra företag genom så kallade affiliate-program, och som inte har några andra utgående länkar, har råkat ut för samma snåla behandling från Googlebot.

Bra för seriösa sajter

Vi på Carnaby tycker att detta är väldigt goda nyheter. Det sätter definitivt en hel del käppar i hjulen för sökmotoroptimering som har gått ut på att enbart förmedla textlänkar eller att länka till olika länkfarmsprogram.

Samtidigt verkar inga av dessa förändringar påverka etablerade sajter, som sedan länge samarbetar med andra, liknande sajter. Vi kan visserligen se exempel på att gamla, väl etablerade sajter som har så kallade site wide-länkar (länkar från varenda sida på sajten) till flera andra sajter numera kan ha en smula färre sidor på plats i indexet, men det verkar inte ha påverkat deras positioner i sökresultaten.

Tillägg den 19:e maj:
Man kan med all rätt fråga sig hur Google ser på relevans. En lång tråd på temat pågår på SEO-forum: www.seo-forum.se/google/375-matt-cutts-nya-post-indexing.html

Dela det här:

  • Klicka för att dela på Facebook (Öppnas i ett nytt fönster)
  • Klicka för att dela på Twitter (Öppnas i ett nytt fönster)
  • Klicka för att dela via LinkedIn (Öppnas i ett nytt fönster)
  • Klicka för att dela på Google+ (Öppnas i ett nytt fönster)
  • Klicka för att dela på Tumblr (Öppnas i ett nytt fönster)
  • Klicka för att maila detta till en vän (Öppnas i ett nytt fönster)

Arkiverad under: Sökmotoroptimering

Kommentarer

  1. Magnus säger

    18 december, 2006 vid 16:40

    Tycker det är bra att sidor som länkar till irrellevanta sidor straffas. Dock måste man vara försiktigt med detta. Att ha externa länkar på sin webbplats är trots allt en del av Internet.

  2. Nikke Lindqvist säger

    18 december, 2006 vid 18:53

    Nu är det väl knappast så att sidor som länkar till irrelevanta sidor strafffas. Men man kan se hyfsat tydliga tecken på att Google kan känna igen automatiserat länkande. Sidor som långt ner i sidkoden länkar till olika ställen varje gång märks nog hyfsat snabbt och man kan tänka sig att ett sådant beteende knappast höjer just den sidan i sökresultaten.
    Att säga att sidan straffas är däremot att gå för långt.

    Däremot kan man med fog hävda att relevant länkning, till relevanta sidor inom samma verksamhetsområde är bra för en sida och höjer den i sökresultaten.

Du måste logga in för att kommentera.

Senaste inläggen

  • Ändringarna i Googles riktlinjer för webbansvariga
  • Tysk webbdesign #ftw
  • Resultatsidor – har vi pratat om dem?
  • Nikke pratar om Googles nya policy på SVT
  • Arbetet är igång

Bloggar

  • Nikke Lindqvist
  • Per Pettersson

Kontakta oss

Hitta till oss

Adress: Fridhemsgatan 15, 112 40 Stockholm
Epost: [email protected]
Telefon: +46-8-201001
loading Avbryt
Ditt meddelande skickades inte - kontrollera din e-postadress!
E-postkontroll misslyckades, försök igen
Tyvärr, din blogg kan inte dela inlägg via e-post.