Avatar billede glvi93 Nybegynder
15. maj 2011 - 19:59 Der er 3 kommentarer og
1 løsning

Hente flere html sider med WGet p en gang

Hej alle.
Har lige fundet mig en wget til windows som passer mig.
Er begyndt at hente adskillige siders html koder.
Da det er på Wikipedia's, altså hele OSI & TCP/IP, ville jeg gerne kunne gøre det på den måde at når jeg henter wiki's side med osi-modellen, henter den også de links der er på den sides html kode. Er der nogen måde at gøre det på?
Avatar billede wanze Nybegynder
15. maj 2011 - 20:29 #1
Hvis du læser robots.txt på wikipedia vil du se, at de fjernet den umiddelbare mulighed for at lave rekursive downloads (som er det du søger). Der står dog også, at det kan løses vha. --wait-parameteren:

#
# Sorry, wget in its recursive mode is a frequent problem.
# Please read the man page and use it properly; there is a
# --wait option you can use to set the delay between hits,
# for instance.
#
User-agent: wget
Disallow: /
Avatar billede wanze Nybegynder
15. maj 2011 - 20:33 #2
Hvis det er fordi du gerne vil have Wikipedia lokalt, så er den frit tilgængelig i forskellige formater - læs mere om det i Wikipedia database-artiklen.
Avatar billede glvi93 Nybegynder
15. maj 2011 - 20:46 #3
løsning på to måder for mig, gerne send svar wanze :-).
Avatar billede wanze Nybegynder
15. maj 2011 - 20:55 #4
Svar. :)
Avatar billede Ny bruger Nybegynder

Din løsning...

Tilladte BB-code-tags: [b]fed[/b] [i]kursiv[/i] [u]understreget[/u] Web- og emailadresser omdannes automatisk til links. Der sættes "nofollow" på alle links.

Loading billede Opret Preview
Kategori
IT-kurser om Microsoft 365, sikkerhed, personlig vækst, udvikling, digital markedsføring, grafisk design, SAP og forretningsanalyse.

Log ind eller opret profil

Hov!

For at kunne deltage på Computerworld Eksperten skal du være logget ind.

Det er heldigvis nemt at oprette en bruger: Det tager to minutter og du kan vælge at bruge enten e-mail, Facebook eller Google som login.

Du kan også logge ind via nedenstående tjenester