Klumme: Brug ikke Google Sitemaps!

Sitemaps er en webmasters hjælpende hånd. Eller hvad? Mikkel deMib Svendsen argumenterer for, at man skal droppe dem. Læs hans klumme.

Google Sitemaps - eller standard XML-sitemaps, som det faktisk er i dag, vil jeg normalt ikke anbefale, at man benytter.

Særligt Google har ellers gjort meget for at reklamere for brugen af disse XML-sitemaps. Men faktum er, at det som regel gavner Google mere, end det gavner det enkelte website - og meget ofte kan det direkte skade de websites, der bruger dem!

Så hvis du er mest interesseret i at hjælpe Google - så skal du bruge XML-sitemaps. Er du derimod lidt mere "egoistisk", og tænker mere på dit eget website og din virksomheds succes, så skal du ikke bruge XML-sitemaps!

Men lad os starte med at se lidt nærmere på, hvordan det hjælper Google, og de andre søgemaskiner, der understøtter den fælles protokol for XML-sitemaps. Du kan læse mere om protokollen her.

Hvordan?

Der er fortsat meget store mængder godt indhold på nettet, som det er svært for søgemaskinerne at finde frem til. Det skyldes ofte, at indholdet ligger "gemt" bag formularer og søgemekanismer, der er designet alene til mennesker. Søgemaskinerne kan, sådan lidt forenklet sagt, ikke klikke sig frem til unikke URL'er, der viser sådant indhold.

Med XML-sitemaps får søgemaskinerne en let tilgængelig og velstruktureret oversigt over alle sider på et website, som egner sig til indeksering. Så er det bare at løbe listen igennem og samle indholdet sammen. Det gør det meget lettere for søgemaskinerne at finde frem til det hele. Så langt så godt.

Men det betyder på ingen måde, at søgemaskinerne så rent faktisk tager alle sider med. Brugen af XML-sitemaps giver ingen garanti for, at alle siderne på et website bliver indekseret. Langt fra!

I gamle dage - det vil sige for få år siden, tog søgemaskinerne stort set alt det indhold, de kunne finde på nettet med i deres indekser. Sådan er det ikke i dag. Dels er der meget mere skidt og møg og gentagelser af det samme indhold i dag. Og dels er der inden for mange brancher et alt for stort udbud og alt for stort spring mellem det bedste og det værste. Man laver ganske enkelt ikke en god søgemaskine ved at tage det hele med.

Det, der er mest afgørende for, hvor mange sider søgemaskinerne rent faktisk medtager, er, hvor populært dit website er. Dette måles hovedsageligt ved hjælp af komplekse linkstruktur-analyser af hele nettet. Groft sagt får de websites med flest links fra andre sites flest sider indekseret. Du får ikke i dag et website med 100.000 sider indekseret, hvis der blot er to andre websites, der linker til det - sådan lidt forenklet sagt.

Og det er ligegyldigt, om du bruger XML-sitemaps eller ej. XML-sitemaps er som sagt ikke et inkluderingsprogram - det er blot en standard for en oversigt, som søgemaskinerne så kan vælge at bruge i sin helhed eller dele heraf. Hvis de har lyst.

Problemet er bare...

Men det er kun en lille del af problemet med XML-sitemaps. Der er andre og mere alvorlige problemer.

Det mest alvorlige problem er, at brugen af XML-sitemaps kan gøre det svært, eller helt umuligt at opdage fejl eller mangler på dit website - fejl der gør, at søgemaskinerne ikke via almindelige links kan finde frem til bestemte sider på dit website.

Hvis du bruger XML-sitemaps er det muligt, at søgemaskinerne indekserer de sider, de ikke naturligt kan finde på baggrund af informationerne i XML-sitemap'et. Og da du ikke kan se, hvorfor en side er indekseret - når først den er blevet det, så kan du heller ikke efterfølgende se, at søgemaskinerne faktisk slet ikke kunne finde den pågældende side naturligt via links fra andre sider på dit eller andres websites.

Problemet er så, at fordi søgemaskinerne er så link-orienterede, som de er, så er der i praksis ekstrem lille sandsynlighed for, at en side, som søgemaskinerne ingen naturlige links finder til, vil ranke på noget som helst. Og da slet ikke noget, som der er mange, der søger på.

Det er derfor meget vigtigt, at kunne identificere sådanne "fejl". Måske er problemet bare, at du helt har glemt at linke til siden selv på dit website. Måske er der en fejl i lige det ene link, der er. Måske er linket i et format, søgemaskinerne har svært ved at læse (f.eks. JavaScript eller Flash). Måske er det ikke medtaget på dit almindelige HTML-sitemap (hvilket jeg kommer tilbage til lige om lidt ...).

Der kan være mange grunde til, at søgemaskinerne ikke naturligt finder frem til en side. Men når først problemet er identificeret, så kan det som regel også gøres noget ved det. Problemet er, hvis man ikke kan identificere problemet - at man slet ikke opdager det.

Et andet problem er, at der altid har hersket en velfunderet teori om, at de sider som søgemaskinerne finder af sig selv - typisk via referencer fra andre websites, bliver vægtet højere, alt andet lige, end sider, som sådan lidt groft sagt bliver presset ned i halsen på søgemaskinerne. Uanset om det så er gennem de gammeldags "tilmeld website" formularer, eller XML-sitemaps.

Det har altid været så godt som umuligt at bevise denne teori med 100 procent sikkerhed. Men udover, at der er meget, der gennem tiden, har tydet på, at dette er en korrekt teori, så er den også helt logisk, synes jeg. For det er da klart, at websites, der glimrer så meget ved deres eksistens, at søgemaskinerne naturligt støder ind i dem på deres vej, kan antages (sådan gennemsnitligt) at være bedre end dem, de ikke støder naturligt på, og kun finder ud af eksisterer, fordi ejeren fortæller dem det.

Det sidste problem, jeg vil nævne i denne omgang, handler om, at jeg har oplevet mange forskellige hastigheder på optagelse af nye websider via XML-sitemaps. I nogle få tilfælde har jeg oplevet en markant langsommere optagelse af nye sider på et website der brugte XML-sitemaps end det under alle andre omstændigheder ville have taget. Den type "fejl" hos søgemaskinerne sker nok ikke så tit med XML-sitemaps, men taget alle de andre ting i betragtning ser jeg bare ikke noget formål med at løbe den ekstra risiko.

To "sitemap" or not to "sitemap"

Jeg lovede også lige, at fortælle lidt om almindelige traditionelle HTML-sitemaps. De har som sådan intet med XML-sitemaps at gøre - bortset fra, at begge dele er en form for kort over dit website med henvisninger til alle sider.

HTML-sitemaps er almindelige websider, hvor der linkes til alle undersiderne på dit website. Hvis det er et stort website opdeles sitemaps som regel over flere sider, da søgemaskinerne ikke altid følger mere end 100 links fra hver side. Alt for store sider er også svære at overskue for almindelige brugere.

Almindelige sitemaps har jeg altid anbefalet folk at lave - og gør det fortsat. De kan sammen med de øvrige navigationsfunktioner være med til at danne en god navigationsstruktur på et website. Der er ganske vidst ikke så mange almindelige brugere, der benytter sitemaps, men de få, der gør, er glade for dem - og så kan søgemaskinerne også bruge dem.

Pointen er, at der ikke er meget værdi i at få en masse sider indekseret i søgemaskinerne - og det er det eneste, som XML-sitemaps potentielt set kan hjælpe dig med, hvis ikke også disse sider ranker på nogle af de ord, som er relevante for siden.

Google har glæde af at få flere sider indekseret - de kan prale af et mere "komplet" indeks - men det er uden værdi for dig, hvis ikke de ekstra indekserede sider også fører til, at der faktisk er nogle, der finder dem og klikker sig ind på dem.

Derfor bør al din fokus ligge på, at "inspirere" søgemaskinerne til "naturligt" at finde frem til dit website og alle siderne på det frem for at spilde tiden med XML-sitemaps. Det giver i hvert fald dig de bedste resultater - den bedste markedsføringseffekt. Og på trods af at mange elsker Google, så er jeg fortsat af den overbevisning, at de fleste website-ejere trods alt elsker deres eget website og deres egen forretning mere.

___


Mikkel deMib Svendsen er kreativ direktør i SEO Supporten og deMib.com.




Brancheguiden
Brancheguide logo
Opdateres dagligt:
Den største og
mest komplette
oversigt
over danske
it-virksomheder
Hvad kan de? Hvor store er de? Hvor bor de?
Konica Minolta Business Solutions Denmark A/S
Salg af kopimaskiner, digitale produktionssystemer og it-services.

Nøgletal og mere info om virksomheden
Skal din virksomhed med i Guiden? Klik her

Kommende events
Parathed – Hvad gør din virksomhed, når I bliver ramt?

Cyberkriminalitet vokser som bekendt eksplosivt i takt med digitaliseringen i disse år og det kan være voldsomt dyrt at blive hacket. Potentielt kan det lægge jeres forretning helt ned, så I ikke kan rejse jer igen. Har jeres virksomhed styr på cybersikkerheden i en tid, der kalder på oprustning? Bliv inspireret til, hvad du som virksomhed kan gøre for at sikre virksomheden og medarbejdere, så I kan gå sikkert ind i fremtiden.

21. maj 2024 | Læs mere


Computerworld Summit 2024

Vi kigger ind i scenariet for fremtiden it-afdeling og hvordan virksomheden bedst muligt udnytter både nye og etablerede teknologier til at understøtte vækst og dermed sikre overlevelse i en konkurrencepræget verden.

23. maj 2024 | Læs mere


Den digitale trussel er konstant, kompleks og stadigt stigende - også i den offentlige sektor

I dagens Danmark har vi indrettet os sådan, at alt kommunikation mellem det offentlige og borgerne foregår på forskellige digitale platforme, hvilket gør både borgerne og de offentlige institutioner skrøbelige overfor cyberkriminalitet. Samtidig lyder det fra rapporter, at de offentliges it-systemer er støvede og fulde af teknisk gæld. Dette er en farlig cocktail for de offentlige institutioner, men en særdeles lækker drink for cyber-kriminelle.

28. maj 2024 | Læs mere