Du kan med GetRight lave en downloadqueue, hvor du blot trækker alle urls ind i programmet, og får programmet til at hente fx 2 af gangen, eller hvor mange du nu ønsker. Når de 2 er hentet, går programmet automatisk til de næste.
Er det billeder du skal hente, kan du bruge Express Webpicture.
Offline Explore Enterprise 2.9 kan også hente div. undersider, billeder, etc.
Det jeg skal gøre er at udfylde nogle felter og trykke på en knap på hjemmesiden Derefter returnerer den søgeresultatet og jeg skal så plukke div. data ud Det skal jeg gøre flere tusind gange Hvis jeg kunne finde ud af hvad browseren sender og få fat på HTMLen der returneres i et program (VBA helst) ville det være dødsmart.
Det virker sgu, når felterne er pakket ind i URL'en. Dog prøvede jeg på google der fik jeg en FORBIDDEN fejlkode tilbage Nogle websider pakker dog ikke felter ind i URL'en, ved du hvordan de virker?
"misbrug" er i denne sammeshæng bare søgning uden at der er et menneske som kigger på de reklamer som finansierer dem.
Synes godt om
Ny brugerNybegynder
Din løsning...
Tilladte BB-code-tags: [b]fed[/b] [i]kursiv[/i] [u]understreget[/u] Web- og emailadresser omdannes automatisk til links. Der sættes "nofollow" på alle links.