Därför ska du strunta i att lyda Google

Tillhör du personerna som tycker att SEO med avsteg från Googles riktlinjer är detsamma som omoraliskt, oetiskt, fusk, black hat, manipulation you name it… eller ännu värre beklagar och ursäktar dig om detta i böneliknande dialog med Google som något gudomlig…

Du är nog att se som grundlurad, det handlar enbart om att Google är ute efter hela kakan!

Hela Googles affärsmodell bygger på att sälja länkar och att manipulera sökresultatet genom att ge de som köper länkar av dem oförtjänt bra placeringar, före både bättre och mer relevanta webbplatser!

Har du tänkt på det?

 

Växjö kommun, ni gjorde tokfel och gjorde om bra!

Bra jobbat Växjö kommun. Ni undviker nu duplicerat innehåll och det finns inget att anmärka på. Nu går  www.vaxjo.it och www.vaxjokommun.se till huvuddomänen www.vaxjo.se med en 301-redirect.

Tidigare till Växjö kommun

Hej Växjö kommun. Som ni säkert känner till så har Google en avgörande betydelse för att få trafik (besökare) till en webbplats. Därför är det viktigt att man syns i sökresultatet med de relevanta sökfraserna. Det är om detta i stort sett hela denna webbplats om sökmotoroptimering handlar om. För en kommunal verksamhet så blir det en dubbel angelägenhet att synas. Det är inte bara bra för er att få ut viktig information utan det är minst lika viktigt att kommuninvånarna och andra intressenter når den.Grunderna i sökmotoroptimering är väldigt enkla. Det gäller att erbjuda relevant information och göra detta synligt inte bara i textinnehållet,  utan även i sidtitlar, rubriker och om det är möjligt även i URL:en (sidans Internetadress). Handlar en sida om miljöavfall så är www.domän.se/miljöavfall att föredra. Slutligen så är en baskunskap att man ska undvika ”duplicerat” innehåll. Med det menas att man ska undvika att olika webbadresser ska visa samma innehåll. Det finns en teknik som heter kanonisering (Canonical) som är en nödlösning att ta till om detta inte kan undvikas på annat sätt.

Duplicerat innehåll försämrar sökbarheten avsevärt. Hur ska Google kunna avgöra vilken sida som ska visas om det finns flera sidor som visar samma innehåll? Bland det värsta man kan göra är att publicera samma artikel på flera domänadresser. Varje webbansvarig bör känna till detta. Det som är ännu värre är att ha flera flera upplagor av en webbplats med olika domänadresser och sedan länka ihop de olika sidorna så att besökaren till sist inte vet vilken sida som är den rätta. Då kan man också dra slutsatsen att inte heller Google vet det. Detta kan verkligen ställa till saker och man har framförallt försvårat både för besökaren och Google.

Vet ni att Växjö kommuns webbplats visas med flera domänadresser?

Det är inget fel på er hemsidas layout, den är rentav riktigt snygg. Jag tycker dessutom att den är lättöverskådlig och bra anpassad för olika slags människor. Däremot är den fruktansvärt dålig sett till sökbarhet. Men det kan ni rätta till och det är därför jag vill dela detta med er.

För det första så finns det ingen anledning till att ni ska visa samma sida med tre olika domäner (det kanske finns fler?). Idag visar www.vaxjo.se, www.vaxjo.it och www.vaxjokommun.se exakt samma information. Detta måste ni göra något åt omgående. Jag rekommenderar er att fastställa den domän ni ska marknadsföra kommunen med, förslagsvis www.vaxjo.se. Därefter så måste ni göra vad som kallas för 301-redirects från de övriga domänadresserna till denna. Då talar ni om för Google att sidan flyttat permanent och ni sänder samtidigt en tydlig signal till Google vilken sida som ska synas på vad och vilken domänadress som är den rätta. Gör ni detta kommer ni med all säkerhet att öka er synlighet på de allra flesta sökfraserna, till fördel både för er och till de som letar efter information.

Jag skulle slutligen vilja ge er ett par andra småtips. Det första är att ni behöver justera sidtiteln på er startsida genom att ta bort ordet startsida. Det känns överflödigt och heller inget ord ni förmodas vilja vara sökbara på. Sedan behöver ni lägga till Meta-description på alla era sidor, de saknas idag.  Även de ska vara unika och fungera som en kort sammanfattning av den aktuella sidan (ca 150 tecken lång).  Det skulle också underlätta för dem som letar efter information som ni visar då Google ofta använder Meta-description för att tala om vad en speciell webbsida handlar om i sökresultatet.

Jag hoppas att ni har nytta av dessa synpunkter och att ni framöver lyfter er webbplats i sökresultatet.

Bästa hälsningar och lycka till med er synlighet,

Håkan Persson

Google, pingvinen och SEO 2013

bulkseo

Det har gått ett år sedan Google släppte loss ‘pingvinen’, en uppdatering av Googles sökalgoritmer som påverkade arbetet med SEO för ganska många. Trots att det som vanligt förkunnades att SEO låg på dödsbädden så har det för minst lika många inte inneburit så mycket. Länkar fungerar fortfarande som den bästa metoden för att ta toppositioner i sökresultatet och det har inte blivit något stort genombrott för ”social SEO”. I så fall har jag missat det.

Nu väntas en ny pingvinuppdatering

Precis som sig bör inför en stor uppdatering av Google så spekuleras det mycket om konsekvenserna inför den väntade pingvinuppdateringen. Pingvinen förväntas gå hårt åt de som jobbat lite väl hårt med exakta ankartexter (att ha sökordet som länkad text) och länkar ‘site wide’ (att ha länkar i blogroll och sidfot över hela webbplatsen).  Men detta är ju inget nytt, utan något som alla sökmotoroptimerare kunnat ställa om sig till under en ganska lång tid.
Idag skriver sokmotorkonsult.se om nästa stora pingvin och av detta vettiga så tycker jag formuleringen ”Det är förstås lätt att spekulera men desto svårare att gissa rätt” var vettigast. För vi kan inte med säkerhet veta vad som händer med olika webbplatser förrän det hänt. Google har sina ambitioner med uppdateringarna men det är nästan alltid en hel del oskyldiga webbplatser som råkar illa ut, samtidigt som de som uppdateringen riktat in sig på klarar sig undan. Att någon tillfälligt rasar i sökresultatet innebär inte automatiskt att det varit dålig SEO. Det är väl snarare vad som görs efteråt, ifall någon webbplats tappar viktiga positioner, som får ligga till grund för den bedömningen.

Vilka SEO-aktörer har kunder som riskerar att drabbas?

Allt jag skriver här är ren spekulation. En försiktig gissning är att det förmodligen speciellt kommer drabba en del som köpt suspekta länkpaket från mindre noggranna leverantörer, men säkert inte alla. Jag har passat på att köpa ett par sådana paket med dryga tusen länkar i för att se vad som händer. Dock inte till denna sida, utan till en jag kunde avvara till det. Sett till SEO-kunder kan det vara lite kritisk till de som anlitar SEO-företag som erbjuder rena bulktjänster. Det beror alldeles på vilken länkkvalitet de levererat. Liksom vad jag ville ha sagt tidigare kan man nog inte garantera att alla som har en bra mix på länkarna klarar sig, likväl att alla med skräplänkar kommer drabbas. Sökmotorn Google är ju faktiskt fortfarande till större delen en massa kod och långt ifrån något mänskligt och ännu mindre något gudomligt. Visst finns det de som ber till Google, men jag förespråkar nog andra metoder för att uppnå resultat.