Der er tale om en videnskab og et håndværk på højt niveau. Men mere rammende for ”søgerobotindeksering” er at det er et våbenkapløb – mellem folk (som dig?) som vil gøre alt for at opnå høj placering for dem selv eller deres kunder og så søgerobotfirmaerne som vil gøre alt for at ungå at deres indeks bliver ”forurenet” med sider der har en højere rangering end de fortjener.
Alle søgerobotterne har en forskellig politik på området, men fælles er det som tæller:
- ”keywords”
- ”Title”
- ”Description”
- ”Page content”
- OG en analyse af hvorledes disse hænger sammen (altså noget med om der er keywords som ikke optræder på siden – lig ”snyd” mv)
- endeligt er der det med ”link-popularity” (hvor mange ANDRE sider i samme indeks, der peger på omtalte side)
- Det er dog ikke alle søgerobotter som benytter sig af META-TAGS (”Keywords” ”Title” og ”Description”). De laver så blot deres egen analyse af din side.
Man skal forstå at der i denne videnskab/håndværk er tale om ”forretningshemmeligheder”, og at solid information er svær eller dyr at opdrive, og at vilkårene konstant ændre sig. Men jeg har fundet lidt her:
http://www.northernwebs.com/set/index.html (læs om de enkelte maskiner)
http://www.searchengineworld.com/ (generel info)
http://searchenginewatch.internet.com/webmasters/index.html (man skal betale for det rigtig seriøse)
PS. Endeligt bør man notere sig at danske (non-engelske) side diskrimineres, da søgerobotterne så ikke kan lave deres ”lingvistiske analyser”.