14 berichten aan het bekijken - 1 tot 14 (van in totaal 14)
  • Q:
    Bijdrager
    iEwout

    Meerdere dingen in een keer downloaden van een site

    Hallo allemaal,

    Ik heb een vraagje.
    Stel; er is een site, met een soort database, waarmee ik bedoel dat er veel (downloadbare) bestanden op staan, bijv. pdf-jes o.i.d.
    Zoals bijv deze:

    http://vwob.getalenruimte.epn.nl/sites/getalenruimte/vwob/assets/2e553963-73cd-c557-b1b1-bdb262344771.pdf
    http://vwob.getalenruimte.epn.nl/sites/getalenruimte/vwob/assets/badc4008-eefb-1bd9-8463-535c6bd6763f.pdf
    http://vwob.getalenruimte.epn.nl/sites/getalenruimte/vwob/assets/e35ea61c-b782-f818-e538-834a34778411.pdf

    Zoals je ziet is het deel voor vwo/assets/ telkens hetzelfde, daarna komt er pas een verschil.
    Nu zijn er hier een heleboel van, en ik heb niet zo veel zin om ze allemaal los stuk voor stuk te gaan downloaden.
    Hoe kan ik het regelen dat ik gewoon in een keer alles download? Dat moet mogelijk zijn toch?
    Alle reacties, ideeen oid zijn welkom, en for the record: ik heb niet zo heel veel ervaring…

    Bijdrager
    JaNiintendo

    Rechter muis klik op de links en dan Save Linked File (to downloads).
    Tenzij jij je Mac OS in een andere taal hebt. Dan staat er iets anders. Maar doet hetzelfde.

    Bijdrager
    iEwout

    ja maar dan moet ik nog steeds al die links afgaan…
    Is er geen commando die ik kan schrijven ofzo, waardoor mijn computer meteen alles download wat er op de site staat? (al die pdf-jes)

    Bijdrager
    Pieterr

    Je kunt een shell script maken waarin de naam van ieder te downloaden bestand staat vooraf gegaan door: curl -O.

    <br />
    curl -O http://vwob.getalenruimte.epn.nl/sites/getalenruimte/vwob/assets/2e553963-73cd-c557-b1b1-bdb262344771.pdf<br />
    curl -O http://vwob.getalenruimte.epn.nl/sites/getalenruimte/vwob/assets/badc4008-eefb-1bd9-8463-535c6bd6763f.pdf<br />
    curl -O http://vwob.getalenruimte.epn.nl/sites/getalenruimte/vwob/assets/e35ea61c-b782-f818-e538-834a34778411.pdf<br />
     

    Dat bestand maak je uitvoerbaar:

    chmod 755 scriptje.txt

    En vervolgens voer je het uit:

    ./scriptje.txt
    Inactief
    Anoniem

    Mijn bijdrage in deze is als nutteloos gekwalificeerd door iemand die er verstand van schijnt te hebben.

    Bijdrager
    hendrik ijzerbroot

    eeh Pieterr. De TS zegt dat hij niet zo veel ervaring heeft…:wink:
    Het lijk mij trouwens lood om oud ijzer. Je moet toch steeds de URL er bij halen, kun je net zo goed gelijk downloaden toch?

    Bijdrager
    Pieterr

    Voor 3 links wel. Voor 50 links niet.:wink:

    Ik neem natuurlijk wel aan dat de TS een lijst heeft van de bestanden die hij wil downloaden en dat hij dat niet allemaal zelf hoeft in te typen.

    Bijdrager
    hendrik ijzerbroot
    Meh1965 op 22 november 2010

    Er is software waarmee je een hele website kan downloaden. Weet alleen even niet hoe de software heet.

    Edit: Zoiets als dit.
    Dat werkt misschien, maar de demo heeft de volgende beperking: just simple WebSites can be downloaded

    Inactief
    Anoniem

    Mijn bijdrage in deze is als nutteloos gekwalificeerd door iemand die er verstand van schijnt te hebben.

    Bijdrager
    iEwout

    Alvast bedankt allemaal voor de recties, maar nee, ik heb niet alle namen van de bestanden.
    Waar ik meer op doel is, is er geen soort prompt ofzo die je in terminal in kan voeren (met wget misschien?) omdit doel te bereiken?

    Bijdrager
    Sumar

    Dat kan toch ook met Automator? Ik heb in het verleden zoiets gebakken voor het ophalen van hoorspelen van Bommel..

    Bijdrager
    Barabas2005

    Speed Download van Yazsoft kan dat voor je doen. In Firefox kan het ook met Flashgot.

    Bijdrager
    Pieterr

    Het probleem is dat het zichtbaar maken van de directory-inhoud is afgesloten. Je kunt dus niet via
    http://vwob.getalenruimte.epn.nl/sites/getalenruimte/vwob/assets/
    zien welke bestanden er allemaal in die directory staan.

    Als je een (overzichts)webpagina hebt waar de namen van alle te downloaden bestanden (plus URL) instaan, dan kun je de genoemde webspiders/webdownloaders gebruiken (of een scriptje met een aantal “curl” commando’s).

    Bijdrager
    Jakko Westerbeke

    Als je geen bezwaar hebt tegen de terminal werkt Wget erg goed.

    Wel kom je daarmee het probleem tegen dat Pieterr ook noemt, namelijk dat je de directoryinhoud niet mag zien.

14 berichten aan het bekijken - 1 tot 14 (van in totaal 14)

Je moet ingelogd zijn om een reactie op dit onderwerp te kunnen geven.