Her er Danmarks fem bedste CIO’er lige nu:Se de fem nominerede til prisen som Årets CIO 2024

Klumme: Brug ikke Google Sitemaps!

Sitemaps er en webmasters hjælpende hånd. Eller hvad? Mikkel deMib Svendsen argumenterer for, at man skal droppe dem. Læs hans klumme.

Google Sitemaps - eller standard XML-sitemaps, som det faktisk er i dag, vil jeg normalt ikke anbefale, at man benytter.

Særligt Google har ellers gjort meget for at reklamere for brugen af disse XML-sitemaps. Men faktum er, at det som regel gavner Google mere, end det gavner det enkelte website - og meget ofte kan det direkte skade de websites, der bruger dem!

Så hvis du er mest interesseret i at hjælpe Google - så skal du bruge XML-sitemaps. Er du derimod lidt mere "egoistisk", og tænker mere på dit eget website og din virksomheds succes, så skal du ikke bruge XML-sitemaps!

Men lad os starte med at se lidt nærmere på, hvordan det hjælper Google, og de andre søgemaskiner, der understøtter den fælles protokol for XML-sitemaps. Du kan læse mere om protokollen her.

Hvordan?

Der er fortsat meget store mængder godt indhold på nettet, som det er svært for søgemaskinerne at finde frem til. Det skyldes ofte, at indholdet ligger "gemt" bag formularer og søgemekanismer, der er designet alene til mennesker. Søgemaskinerne kan, sådan lidt forenklet sagt, ikke klikke sig frem til unikke URL'er, der viser sådant indhold.

Med XML-sitemaps får søgemaskinerne en let tilgængelig og velstruktureret oversigt over alle sider på et website, som egner sig til indeksering. Så er det bare at løbe listen igennem og samle indholdet sammen. Det gør det meget lettere for søgemaskinerne at finde frem til det hele. Så langt så godt.

Men det betyder på ingen måde, at søgemaskinerne så rent faktisk tager alle sider med. Brugen af XML-sitemaps giver ingen garanti for, at alle siderne på et website bliver indekseret. Langt fra!

I gamle dage - det vil sige for få år siden, tog søgemaskinerne stort set alt det indhold, de kunne finde på nettet med i deres indekser. Sådan er det ikke i dag. Dels er der meget mere skidt og møg og gentagelser af det samme indhold i dag. Og dels er der inden for mange brancher et alt for stort udbud og alt for stort spring mellem det bedste og det værste. Man laver ganske enkelt ikke en god søgemaskine ved at tage det hele med.

Det, der er mest afgørende for, hvor mange sider søgemaskinerne rent faktisk medtager, er, hvor populært dit website er. Dette måles hovedsageligt ved hjælp af komplekse linkstruktur-analyser af hele nettet. Groft sagt får de websites med flest links fra andre sites flest sider indekseret. Du får ikke i dag et website med 100.000 sider indekseret, hvis der blot er to andre websites, der linker til det - sådan lidt forenklet sagt.

Og det er ligegyldigt, om du bruger XML-sitemaps eller ej. XML-sitemaps er som sagt ikke et inkluderingsprogram - det er blot en standard for en oversigt, som søgemaskinerne så kan vælge at bruge i sin helhed eller dele heraf. Hvis de har lyst.

Problemet er bare...

Men det er kun en lille del af problemet med XML-sitemaps. Der er andre og mere alvorlige problemer.

Det mest alvorlige problem er, at brugen af XML-sitemaps kan gøre det svært, eller helt umuligt at opdage fejl eller mangler på dit website - fejl der gør, at søgemaskinerne ikke via almindelige links kan finde frem til bestemte sider på dit website.

Hvis du bruger XML-sitemaps er det muligt, at søgemaskinerne indekserer de sider, de ikke naturligt kan finde på baggrund af informationerne i XML-sitemap'et. Og da du ikke kan se, hvorfor en side er indekseret - når først den er blevet det, så kan du heller ikke efterfølgende se, at søgemaskinerne faktisk slet ikke kunne finde den pågældende side naturligt via links fra andre sider på dit eller andres websites.

Problemet er så, at fordi søgemaskinerne er så link-orienterede, som de er, så er der i praksis ekstrem lille sandsynlighed for, at en side, som søgemaskinerne ingen naturlige links finder til, vil ranke på noget som helst. Og da slet ikke noget, som der er mange, der søger på.

Det er derfor meget vigtigt, at kunne identificere sådanne "fejl". Måske er problemet bare, at du helt har glemt at linke til siden selv på dit website. Måske er der en fejl i lige det ene link, der er. Måske er linket i et format, søgemaskinerne har svært ved at læse (f.eks. JavaScript eller Flash). Måske er det ikke medtaget på dit almindelige HTML-sitemap (hvilket jeg kommer tilbage til lige om lidt ...).

Der kan være mange grunde til, at søgemaskinerne ikke naturligt finder frem til en side. Men når først problemet er identificeret, så kan det som regel også gøres noget ved det. Problemet er, hvis man ikke kan identificere problemet - at man slet ikke opdager det.

Et andet problem er, at der altid har hersket en velfunderet teori om, at de sider som søgemaskinerne finder af sig selv - typisk via referencer fra andre websites, bliver vægtet højere, alt andet lige, end sider, som sådan lidt groft sagt bliver presset ned i halsen på søgemaskinerne. Uanset om det så er gennem de gammeldags "tilmeld website" formularer, eller XML-sitemaps.

Det har altid været så godt som umuligt at bevise denne teori med 100 procent sikkerhed. Men udover, at der er meget, der gennem tiden, har tydet på, at dette er en korrekt teori, så er den også helt logisk, synes jeg. For det er da klart, at websites, der glimrer så meget ved deres eksistens, at søgemaskinerne naturligt støder ind i dem på deres vej, kan antages (sådan gennemsnitligt) at være bedre end dem, de ikke støder naturligt på, og kun finder ud af eksisterer, fordi ejeren fortæller dem det.

Det sidste problem, jeg vil nævne i denne omgang, handler om, at jeg har oplevet mange forskellige hastigheder på optagelse af nye websider via XML-sitemaps. I nogle få tilfælde har jeg oplevet en markant langsommere optagelse af nye sider på et website der brugte XML-sitemaps end det under alle andre omstændigheder ville have taget. Den type "fejl" hos søgemaskinerne sker nok ikke så tit med XML-sitemaps, men taget alle de andre ting i betragtning ser jeg bare ikke noget formål med at løbe den ekstra risiko.

To "sitemap" or not to "sitemap"

Jeg lovede også lige, at fortælle lidt om almindelige traditionelle HTML-sitemaps. De har som sådan intet med XML-sitemaps at gøre - bortset fra, at begge dele er en form for kort over dit website med henvisninger til alle sider.

HTML-sitemaps er almindelige websider, hvor der linkes til alle undersiderne på dit website. Hvis det er et stort website opdeles sitemaps som regel over flere sider, da søgemaskinerne ikke altid følger mere end 100 links fra hver side. Alt for store sider er også svære at overskue for almindelige brugere.

Almindelige sitemaps har jeg altid anbefalet folk at lave - og gør det fortsat. De kan sammen med de øvrige navigationsfunktioner være med til at danne en god navigationsstruktur på et website. Der er ganske vidst ikke så mange almindelige brugere, der benytter sitemaps, men de få, der gør, er glade for dem - og så kan søgemaskinerne også bruge dem.

Pointen er, at der ikke er meget værdi i at få en masse sider indekseret i søgemaskinerne - og det er det eneste, som XML-sitemaps potentielt set kan hjælpe dig med, hvis ikke også disse sider ranker på nogle af de ord, som er relevante for siden.

Google har glæde af at få flere sider indekseret - de kan prale af et mere "komplet" indeks - men det er uden værdi for dig, hvis ikke de ekstra indekserede sider også fører til, at der faktisk er nogle, der finder dem og klikker sig ind på dem.

Derfor bør al din fokus ligge på, at "inspirere" søgemaskinerne til "naturligt" at finde frem til dit website og alle siderne på det frem for at spilde tiden med XML-sitemaps. Det giver i hvert fald dig de bedste resultater - den bedste markedsføringseffekt. Og på trods af at mange elsker Google, så er jeg fortsat af den overbevisning, at de fleste website-ejere trods alt elsker deres eget website og deres egen forretning mere.

___


Mikkel deMib Svendsen er kreativ direktør i SEO Supporten og deMib.com.




Brancheguiden
Brancheguide logo
Opdateres dagligt:
Den største og
mest komplette
oversigt
over danske
it-virksomheder
Hvad kan de? Hvor store er de? Hvor bor de?
JN Data A/S
Driver og udvikler it-systemer for finanssektoren.

Nøgletal og mere info om virksomheden
Skal din virksomhed med i Guiden? Klik her

Kommende events
OT og IT: Modernisér produktionen og byg sikker bro efter et årelangt teknologisk efterslæb

Moderne produkter skal have mere end strøm for at fungere – og deres navlestreng skal ikke klippes når de forlader fabrikshallen. På denne konference kan du derfor lære mere om hvordan du får etableret det sikre setup når der går IT i OT.

30. april 2024 | Læs mere


Roundtable for sikkerhedsansvarlige: Hvordan opnår man en robust sikkerhedsposition?

For mange virksomheder har Zero Trust og dets principper transformeret traditionelle tilgange til netværkssikkerhed, hvilket har gjort det muligt for organisationer at opnå hidtil usete niveauer af detaljeret kontrol over deres brugere, enheder og netværk - men hvordan implementerer man bedst Zero Trust-arkitekturer i et enterprise set up? Og hvordan muliggør Zero Trust-arkitekturen, at organisationer opnår produktivitetsfordele med AI-værktøjer samtidig med, at de forbliver sikre i lyset af fremvoksende trusler?

01. maj 2024 | Læs mere


ERP-trends 2024

Bliv derfor inspireret til, hvordan du kan optimere dine systemer og processer når af nogle af de fremmeste eksperter på ERP-markedet dele deres iagttagelser af det aktuelle marked og vurderinger af, hvad vi har i vente de kommende 3-5 år. Vi sætter også fokus på, hvordan udviklingen kommer til at påvirke din organisation, hvordan du bedst forbereder og planlægger ERP-indsatsen og om, hvilke faldgruber du skal være opmærksom på.

02. maj 2024 | Læs mere