Forum: PC-Programmierung download tool?


von Stefan (Gast)


Lesenswert?

Hallo,

ich suche ein einfaches Tool, mit dem man ein File aus dem Internet 
downloaden kann. z.B.:
download.exe http://www.mikrocontroller.net/articles/Datei:STK500.jpg

Kennt jemand so ein tool?

Stefan

von hdd (Gast)


Lesenswert?

wget

von Wegstaben V. (wegstabenverbuchsler)


Lesenswert?

das Tool ist schon in deiner Maus eingebaut und heißt "rechte 
Maustaste". Darauf drücken, und dann abspeichern.....

von Mark B. (markbrandis)


Lesenswert?

Wie schon gesagt wget: http://www.gnu.org/s/wget/
und curl: http://curl.haxx.se/

Wegstaben Verbuchsler schrieb:
> das Tool ist schon in deiner Maus eingebaut und heißt "rechte
> Maustaste". Darauf drücken, und dann abspeichern.....

Du hast die Frage nicht verstanden.

von Rolf Magnus (Gast)


Lesenswert?

Mark Brandis schrieb:
> Wegstaben Verbuchsler schrieb:
>> das Tool ist schon in deiner Maus eingebaut und heißt "rechte
>> Maustaste". Darauf drücken, und dann abspeichern.....
>
> Du hast die Frage nicht verstanden.

Kann schon mal passieren, wenn sie nicht richtig gestellt wird.

von Mark B. (markbrandis)


Lesenswert?

Rolf Magnus schrieb:
> Kann schon mal passieren, wenn sie nicht richtig gestellt wird.

Das hier:

> download.exe http://www.mikrocontroller.net/articles/Datei:STK500.jpg

war durchaus eindeutig - "download" heißt eben "wget" oder "curl".

von Udo S. (urschmitt)


Lesenswert?

Mark Brandis schrieb:
> Rolf Magnus schrieb:
>> Kann schon mal passieren, wenn sie nicht richtig gestellt wird.
>
> Das hier:
>
>> download.exe http://www.mikrocontroller.net/articles/Datei:STK500.jpg
>
> war durchaus eindeutig - "download" heißt eben "wget" oder "curl".

Na ja aber viel Mühe hat er sich nicht gegeben.
Es hätte auch sagen können, daß er ein Kommandozeilentool will um via 
Batch/script Dateien runterzuladen, und das Betriebssystem hätte er auch 
angeben können, auch wenn man durch das .exe auf Windows schliessen 
kann.

von Karl H. (kbuchegg)


Lesenswert?

Wobei sich die Frage erhebt, wozu man ein Downloadtool braucht um ein 
einzelnes File zu holen.

Aber vielleicht will er ja auch die komplette Seite inklusive aller 
eingebetteten Bilder downloaden. Auch dafür gibt es Werkzeuge, die das 
alles erledigen. Man setzt sie auf eine URL an, und sie holen alles was 
zu dieser Seite gehört. Inklusive Bilder.

von Helfer (Gast)


Lesenswert?

> Wobei sich die Frage erhebt, wozu man ein Downloadtool braucht um ein
> einzelnes File zu holen.

Z.b. wenn man unterbrochene/abgebrochene Downloads vermeiden möchte. Bei 
wget ist dann die Option -c für continue ziemlich nützlich.

Wenn man ein 4 GB Linux-ISO lädt ist der Downloadmanager des Webbrowsers 
nicht die Methode der Wahl :-)

von walter martin julian wilhelm (Gast)


Lesenswert?

Karl Heinz Buchegger schrieb:
> Wobei sich die Frage erhebt, wozu man ein Downloadtool braucht um ein
> einzelnes File zu holen.

Das brauche ich jeden Tag mehrere Male. Z.B. wenn mir jemand einen Link 
zu einem Bild, einer MP3-Datei o.ae. zuschickt. Es ist oft eben viel 
schneller dann eine neue Konsole zu oeffnen und das ganze per wget zu 
holen und dann z.B. mit mplayer abzuspielen, als einen Browser zu 
oeffnen usw.

Bevor jetzt jemand kommt und Linux bashen (hoho) will: Ich mache das 
alles unter Windows so.

von Lukas K. (carrotindustries)


Lesenswert?

walter martin julian wilhelm schrieb:
> Bevor jetzt jemand kommt und Linux bashen (hoho) will: Ich mache das
> alles unter Windows so.

Mit Cygwin und gnuwin32 ;)

von Robert L. (lrlr)


Lesenswert?

>Das brauche ich jeden Tag mehrere Male. Z.B. wenn mir jemand einen Link
>zu einem Bild, einer MP3-Datei o.ae. zuschickt.

sowas hab ich überhaupt noch nie gehört..

ich mach das mit (FlashGot und) FDM ..
dann sind sind sie automatisch (z.b. je nach extension) auch schon mal 
ungefähr im richtigen ordner

ist ein link mehrzeilig (weil das irgendwer umgebrochen hat) gibt es 
plugins die den automatisch zusammensetzten..



ich gehe auch mal davon aus, dass WGET bei vielen sachen auch nicht 
funktionieren wird (z.b wenn man "angemeldet" sein muss (z.b. in einem 
Forum), also session-cookie passen  muss usw. usw. usw. )

von agp (Gast)


Lesenswert?

Karl Heinz Buchegger (kbuchegg) (Moderator) schrieb:

> Wobei sich die Frage erhebt, wozu man ein Downloadtool braucht um ein
> einzelnes File zu holen.

Für ein einzelnes File braucht man kein wget. Aber bei einer größeren 
Anzahl gleichartiger Files kann so ein Kommandozeilentool schon recht 
nützlich sein und für wget braucht es auch kein Linux. Das funktioniert 
unter Windows einwandfrei

http://pages.interlog.com/~tcharron/wgetwin.html

Ich hab mir in der Vergangenheit beispielsweise damit mal den Reichelt 
Online-Katalog zusammengepappt. Der bestand aus 942 einzelnen PDF 
Dateien mit diesem Pfad hier (Pfad ist überholt)

http://www.reichelt.de//bilder/blaetterkatalog_hk06-2007/blaetterkatalog/pdf/save/bk_1.pdf
..
http://www.reichelt.de//bilder/blaetterkatalog_hk06-2007/blaetterkatalog/pdf/save/bk_942.pdf

Die PDFs mit vollem Pfad in eine Textdatei url.txt schreiben lassen und 
dann mit

wget -i url.txt

losgesaugt. Ging super. Anschließend daraus EIN Pdf machen.

Ein nützliches kleines Tool.

von Nils S. (kruemeltee) Benutzerseite


Lesenswert?

Robert L. schrieb:
> dass WGET bei vielen sachen auch nicht
> funktionieren wird (z.b wenn man "angemeldet" sein muss (z.b. in einem
> Forum), also session-cookie passen  muss usw. usw. usw. )

Dafür gibt's dann wieder curl. Aber in Foren ist es dann wohl doch 
einfacher sich schnell einzuloggen.

Trotzdem nutze ich auch meistens wget.

von Rufus Τ. F. (rufus) Benutzerseite


Lesenswert?

> Der bestand aus 942 einzelnen PDF Dateien mit diesem Pfad hier
>  (Pfad ist überholt)

curl hätte hier den Vorteil gehabt, daß keine 900+ URLs übergeben werden 
müssen, sondern eine reicht:

curl http://bla/.../bk_[1-942].pdf

(der Übersichtlichkeit halber URL gekürzt)

von agp (Gast)


Lesenswert?

Rufus Τ. Firefly (rufus) (Moderator) schrieb:

>> Der bestand aus 942 einzelnen PDF Dateien mit diesem Pfad hier
>>  (Pfad ist überholt)

> curl hätte hier den Vorteil gehabt, daß keine 900+ URLs übergeben werden
> müssen, sondern eine reicht:

> curl http://bla/.../bk_[1-942].pdf

> (der Übersichtlichkeit halber URL gekürzt)

Oh ja, Danke für den Tipp. Nützliches Tool wie ich sehe.

http://curl.haxx.se/download.html

von Mark B. (markbrandis)


Lesenswert?

agp schrieb:
> Oh ja, Danke für den Tipp. Nützliches Tool wie ich sehe.

In der Tat. libcurl ist super, paar Zeilen Code und ich kann in C URLs 
aufrufen. :)

Bitte melde dich an um einen Beitrag zu schreiben. Anmeldung ist kostenlos und dauert nur eine Minute.
Bestehender Account
Schon ein Account bei Google/GoogleMail? Keine Anmeldung erforderlich!
Mit Google-Account einloggen
Noch kein Account? Hier anmelden.