Hallo, ich suche ein einfaches Tool, mit dem man ein File aus dem Internet downloaden kann. z.B.: download.exe http://www.mikrocontroller.net/articles/Datei:STK500.jpg Kennt jemand so ein tool? Stefan
das Tool ist schon in deiner Maus eingebaut und heißt "rechte Maustaste". Darauf drücken, und dann abspeichern.....
Wie schon gesagt wget: http://www.gnu.org/s/wget/ und curl: http://curl.haxx.se/ Wegstaben Verbuchsler schrieb: > das Tool ist schon in deiner Maus eingebaut und heißt "rechte > Maustaste". Darauf drücken, und dann abspeichern..... Du hast die Frage nicht verstanden.
Mark Brandis schrieb: > Wegstaben Verbuchsler schrieb: >> das Tool ist schon in deiner Maus eingebaut und heißt "rechte >> Maustaste". Darauf drücken, und dann abspeichern..... > > Du hast die Frage nicht verstanden. Kann schon mal passieren, wenn sie nicht richtig gestellt wird.
Rolf Magnus schrieb: > Kann schon mal passieren, wenn sie nicht richtig gestellt wird. Das hier: > download.exe http://www.mikrocontroller.net/articles/Datei:STK500.jpg war durchaus eindeutig - "download" heißt eben "wget" oder "curl".
Mark Brandis schrieb: > Rolf Magnus schrieb: >> Kann schon mal passieren, wenn sie nicht richtig gestellt wird. > > Das hier: > >> download.exe http://www.mikrocontroller.net/articles/Datei:STK500.jpg > > war durchaus eindeutig - "download" heißt eben "wget" oder "curl". Na ja aber viel Mühe hat er sich nicht gegeben. Es hätte auch sagen können, daß er ein Kommandozeilentool will um via Batch/script Dateien runterzuladen, und das Betriebssystem hätte er auch angeben können, auch wenn man durch das .exe auf Windows schliessen kann.
Wobei sich die Frage erhebt, wozu man ein Downloadtool braucht um ein einzelnes File zu holen. Aber vielleicht will er ja auch die komplette Seite inklusive aller eingebetteten Bilder downloaden. Auch dafür gibt es Werkzeuge, die das alles erledigen. Man setzt sie auf eine URL an, und sie holen alles was zu dieser Seite gehört. Inklusive Bilder.
> Wobei sich die Frage erhebt, wozu man ein Downloadtool braucht um ein > einzelnes File zu holen. Z.b. wenn man unterbrochene/abgebrochene Downloads vermeiden möchte. Bei wget ist dann die Option -c für continue ziemlich nützlich. Wenn man ein 4 GB Linux-ISO lädt ist der Downloadmanager des Webbrowsers nicht die Methode der Wahl :-)
Karl Heinz Buchegger schrieb: > Wobei sich die Frage erhebt, wozu man ein Downloadtool braucht um ein > einzelnes File zu holen. Das brauche ich jeden Tag mehrere Male. Z.B. wenn mir jemand einen Link zu einem Bild, einer MP3-Datei o.ae. zuschickt. Es ist oft eben viel schneller dann eine neue Konsole zu oeffnen und das ganze per wget zu holen und dann z.B. mit mplayer abzuspielen, als einen Browser zu oeffnen usw. Bevor jetzt jemand kommt und Linux bashen (hoho) will: Ich mache das alles unter Windows so.
walter martin julian wilhelm schrieb: > Bevor jetzt jemand kommt und Linux bashen (hoho) will: Ich mache das > alles unter Windows so. Mit Cygwin und gnuwin32 ;)
>Das brauche ich jeden Tag mehrere Male. Z.B. wenn mir jemand einen Link >zu einem Bild, einer MP3-Datei o.ae. zuschickt. sowas hab ich überhaupt noch nie gehört.. ich mach das mit (FlashGot und) FDM .. dann sind sind sie automatisch (z.b. je nach extension) auch schon mal ungefähr im richtigen ordner ist ein link mehrzeilig (weil das irgendwer umgebrochen hat) gibt es plugins die den automatisch zusammensetzten.. ich gehe auch mal davon aus, dass WGET bei vielen sachen auch nicht funktionieren wird (z.b wenn man "angemeldet" sein muss (z.b. in einem Forum), also session-cookie passen muss usw. usw. usw. )
Karl Heinz Buchegger (kbuchegg) (Moderator) schrieb: > Wobei sich die Frage erhebt, wozu man ein Downloadtool braucht um ein > einzelnes File zu holen. Für ein einzelnes File braucht man kein wget. Aber bei einer größeren Anzahl gleichartiger Files kann so ein Kommandozeilentool schon recht nützlich sein und für wget braucht es auch kein Linux. Das funktioniert unter Windows einwandfrei http://pages.interlog.com/~tcharron/wgetwin.html Ich hab mir in der Vergangenheit beispielsweise damit mal den Reichelt Online-Katalog zusammengepappt. Der bestand aus 942 einzelnen PDF Dateien mit diesem Pfad hier (Pfad ist überholt) http://www.reichelt.de//bilder/blaetterkatalog_hk06-2007/blaetterkatalog/pdf/save/bk_1.pdf .. http://www.reichelt.de//bilder/blaetterkatalog_hk06-2007/blaetterkatalog/pdf/save/bk_942.pdf Die PDFs mit vollem Pfad in eine Textdatei url.txt schreiben lassen und dann mit wget -i url.txt losgesaugt. Ging super. Anschließend daraus EIN Pdf machen. Ein nützliches kleines Tool.
Robert L. schrieb: > dass WGET bei vielen sachen auch nicht > funktionieren wird (z.b wenn man "angemeldet" sein muss (z.b. in einem > Forum), also session-cookie passen muss usw. usw. usw. ) Dafür gibt's dann wieder curl. Aber in Foren ist es dann wohl doch einfacher sich schnell einzuloggen. Trotzdem nutze ich auch meistens wget.
> Der bestand aus 942 einzelnen PDF Dateien mit diesem Pfad hier > (Pfad ist überholt) curl hätte hier den Vorteil gehabt, daß keine 900+ URLs übergeben werden müssen, sondern eine reicht: curl http://bla/.../bk_[1-942].pdf (der Übersichtlichkeit halber URL gekürzt)
Rufus Τ. Firefly (rufus) (Moderator) schrieb: >> Der bestand aus 942 einzelnen PDF Dateien mit diesem Pfad hier >> (Pfad ist überholt) > curl hätte hier den Vorteil gehabt, daß keine 900+ URLs übergeben werden > müssen, sondern eine reicht: > curl http://bla/.../bk_[1-942].pdf > (der Übersichtlichkeit halber URL gekürzt) Oh ja, Danke für den Tipp. Nützliches Tool wie ich sehe. http://curl.haxx.se/download.html
agp schrieb: > Oh ja, Danke für den Tipp. Nützliches Tool wie ich sehe. In der Tat. libcurl ist super, paar Zeilen Code und ich kann in C URLs aufrufen. :)
Bitte melde dich an um einen Beitrag zu schreiben. Anmeldung ist kostenlos und dauert nur eine Minute.
Bestehender Account
Schon ein Account bei Google/GoogleMail? Keine Anmeldung erforderlich!
Mit Google-Account einloggen
Mit Google-Account einloggen
Noch kein Account? Hier anmelden.