Avatar billede krea Praktikant
09. oktober 2009 - 06:23 Der er 3 kommentarer og
1 løsning

Program til download af 15000 urls

Jeg skal bruge et program der kan downloade indholdet fra 15000 på forhånd givne urls.

har prøvet httrack, men kunne ikke få det til at virke. Har også eksperimenteret med wget, men skal i så fald have fat i et script der kan køre flere wget processer samtidig.
Avatar billede krea Praktikant
09. oktober 2009 - 08:34 #1
Fik wget til at virke: wget -b -O /dev/null -i urllist.txt -o log.txt
Avatar billede mall Nybegynder
09. oktober 2009 - 10:04 #2
evt. kan internet download manager også anbefales..
Avatar billede krea Praktikant
20. oktober 2009 - 17:41 #3
Tak, internet download manager er klart det bedste windowsbaserede program jeg har prøvet. Eneste problem er at det går ned hvis man importerer en tekstfil på over 2500 url'er. Men bortset fra det er det glimrende. Det hurtigste dog at lave parallele wget i Linux.
Avatar billede krea Praktikant
27. februar 2010 - 06:52 #4
lukkes
Avatar billede Ny bruger Nybegynder

Din løsning...

Tilladte BB-code-tags: [b]fed[/b] [i]kursiv[/i] [u]understreget[/u] Web- og emailadresser omdannes automatisk til links. Der sættes "nofollow" på alle links.

Loading billede Opret Preview
Kategori
IT-kurser om Microsoft 365, sikkerhed, personlig vækst, udvikling, digital markedsføring, grafisk design, SAP og forretningsanalyse.

Log ind eller opret profil

Hov!

For at kunne deltage på Computerworld Eksperten skal du være logget ind.

Det er heldigvis nemt at oprette en bruger: Det tager to minutter og du kan vælge at bruge enten e-mail, Facebook eller Google som login.

Du kan også logge ind via nedenstående tjenester