Der findes rygtevis såkaldte blackhat seo programmer, der kan håndterer et relativt stort antal af den slags captcha tests. Hvis du skal sikre et system, bør du altså tilpasse dit system, så det bliver unikt, både mht grafik og især navngivning af billeder, filer og andre værdier så den slags systemer ikke kan genkende hvilken løsning du bruger og hvilket ord/tal captcha systemet præsenterer
-- og robotter vil af indlysende årsager (performance på serveren !-) ikke være i stand til at læse genereret indhold, så en opgave genereret tilfældigt med javascript kan også være en løsning !o]
Det står kun på siden, hvis browseren kan læse javascript, og da disse robotter kan betragtes som browsere i sig selv, som skal læse enormt mange hjemmeside (fuldstændig ligesom søgemaskinerobotter), har de ikke kapacitet til at læse javascript.
Der går dog nok ikke 10 år, før de lærer at læse js.. =)
Ok ... jeg ved at en af de Web Applications Scannere jeg arbejder med (der scanner hjemmesider for sikkerhedshuller) allerede i dag kan eksekvere JS efterhånden som den crawler en site og derefter søge i resultatet efter links osv. men ja det går ud over performance, så som du siger derfor det ikke er udbredt blandt online robotter endnu.
Uanset om den kan eller ej, kræver det vel også en vis logik, hvis den skal kunne regne ud, at resultatet af 6 + 7 skal indsættes i en bestemt tekstboks.
På et tidspunkt mindes jeg en løsning, hvor jeg på serveren genererer et random-nummer. Dette nummer sætter jeg dels ind i et hidden field og dels tildeler en session-variabel. Når så der laves et postback, tjekker jeg på, om værdien af mit hidden field og session-variablen er det samme.
Mener det fungerede meget godt, men kan de også håndtere den slags?
w13: Web Applications scannere scanner hele siten (crawler) først med en analyse pass og derefter hvor de skyder på siten med hackerangreb og ser hvad responsen er. Men du har ret det er de færreste der kan afvikle JS (som f.eks. AppScan fra Watchfire kan)
Ok, men det er så kun et enkelt site det scanner, lyder det som om. Hvis det skulle scanne hele Internettet ville performance nok også blive svækket lidt mere. =)
w13: ha ha.. jeg læste det som side og ikke site .. ja det er pr. default een site men kan sættes til at scanne vilkårligt mange .. JA så vil den være på hårdt arbejde, men igen sådan en robot her jo ikke andet at lave end stille og roligt tygge sig igennem nettet så de burde vil kunne gøre det samme nogle af dem.
Det er vist ikke særlig sandsynligt. Det er efterhånden en del år siden, at Google holdt op med at offentliggøre tallet for indekserede sider på deres egen forside. Det sidste tal, jeg i den forbindelse så, var 7.000.000.000 (syv milliarder!) - og mon ikke det tal er fordoblet adskillige gange siden? ;o)
Ja, vi (læs: 'du og jeg') er måske nået langt de seneste 15 år, men der er stadig skræmmende mange, der koder som i 1995 - og det vil formodentlig tage mange år, før det ændrer sig :)
Skal robotterne tage hensyn til de milliarder af sider med invalid og sær kode, er de foreløbig rigelig beskæftiget med knokkelarbejde. Mit bud er, det tager mange år, før de lærer at læse JS på en måde, som er effektiv nok til, at de kan lure en god obfuskation ... men det er et spørgsmål om 'tro og religion' ;o)
Hvis det er så få, der læser javascript, så burde det vel ikke være særlig nødvendigt med captcha o.lign. Der må kunne laves en del underlige former for tildelinger med javascript ved page load, som bliver valideret ved postback.
Tilladte BB-code-tags: [b]fed[/b] [i]kursiv[/i] [u]understreget[/u] Web- og emailadresser omdannes automatisk til links. Der sættes "nofollow" på alle links.