Ich will mir von TI gerne die User guides und Application Notes für den MSP430 runterladen. Leider sind die alle hinter ominösen tsp Dateien versteckt so dass ich alle einzeln anklicken müsste. Mit Flashgot gehts auch nicht. Z.B. hier: http://focus.ti.com/mcu/docs/mcuprodtechdoc.tsp?sectionId=95&tabId=1202&familyId=342&techDoc=1&docCategoryId=1&viewType=mostrecent&litCount=all Kennt jemand einen einen Weg?
>Das sind doch PDF Dateien keine tsp
Ich weiss zwar keine Lösung, aber die Links verweisen tatsächlich nicht
auf PDF-Dateien.
Ein einzelner Link wird in einen Aufruf ...tsp umgesetzt, der dann
wieder wieder in den Link einer pdf-Datei umgesetzt wird.
HI, ich hab mich auch schon darüber geärgert. Folgende Idee hät ich zu bieten: - in dem verkorksten Links auf der Ti webseite steckt ja die Documentennummer drin - mit dieser Nummer kannst du dir den Link auf die eigentliche pdf Datei selbst zusammenbasteln - du könntest also z.B. mit einem Excel macro die "verkorksten" Linkeigenschaften einlesen und in einer Liste die neu zusammengebastelten links auf die PDFs ausgeben. Das setzt aber vorraus, dass die Pdf links alle nach dem gleichen Schema gebildet werden, habs nur mal für eine Datei nachgeschaut, da stimmte es zumindest. Viel Spass damit Remo
Du willst alle 218 PDFs von [1] runterladen, egal ob der Link die Form http://www.ti.com/litv/pdf/xxx oder http://focus.ti.com/mcu/docs/litabsmultiplefilelist.tsp?xxx hat. Hab ich das richtig verstanden? [1] http://focus.ti.com/mcu/docs/mcuprodtechdoc.tsp?sectionId=95&tabId=1202&familyId=342&techDoc=1&docCategoryId=1&viewType=mostrecent&litCount=all
@ Bastel
>Hab ich das richtig verstanden?
Mir ist auch nicht klar wohin Deine Frage zielt. Auf die Anzahl der PDFs
oder die Form der Links? Wahrscheinlich nicht. Aber was fügt Deine Frage
der ursprünglichen des TO hinzu? Nur die konkrete Anzahl. Wieso kommt es
darauf an?
Nehmen wir mal an, es wäre so, was dann? Wie würdest Du dem TO
weiterhelfen?
@ Guido
>Ich verrate nichts.
Und wen interessiert das?
Interssant sind hier Lösungen die offengelegt werden und nicht solche
die Du für Dich behälst.
Na toll, keine Ahnung was das soll. Trolle einfach ignorieren. Also Napf. Eine andere Lösung als die von remo angedachte (ob per Editor, Excel, Perl, Phyton ist ja egal) gibt es wohl nicht. Was die Anzahl dabei für eine Rolle spielen soll, oder die tatsächliche Form der Links (wonach bastler gefragt hat) weiss ich nicht. Was mit dem link www.aaa.com geht, funktioniert auch mit www.bbb.org und sowohl mit einem als auch hundert Links.
> Nehmen wir mal an, es wäre so, was dann? Wie würdest Du dem TO > weiterhelfen? So. Linkliste mit -i LINKLISTE_TI.txt an Wget [1] verfüttern & warten. Ohne Gewähr, hab nur die ersten zehn Links getestet. [1] http://de.wikipedia.org/wiki/Wget Sry für OT, die Formatierung ist in diesem Forum selten dämlich. Wie krieg ich die Kommandozeile da oben fett gedruckt?!?
Bastel schrieb: > Sry für OT, die Formatierung ist in diesem Forum selten dämlich. Wie > krieg ich die Kommandozeile da oben fett gedruckt?!? So dämlich ist sie gar nicht: http://www.mikrocontroller.net/articles/Formatierung_im_Forum
@Alex H. Kenn ich, aber durch den Punkt im Dateinamen geht das nicht: -i foobar *-i foo.bar* Die nahliegende Lösung -i foo.*bar* geht wie man sieht auch nicht richtig. Nur ein Leerzeichen löst das Problem ( -i foo. bar ), vermurkst aber den Dateinamen...
Erstmal Dank an alle soweit. Das man die Seite durch einen sed- oder sowas-Script, der Textersatz macht, durchjagen kann ist natürlich eine Möglichkeit. Ich habe irtümlich angenommen, das man hier so simple Lösungen einfach voraussetzt bzw. klar ist, das man wegen solcher Trivialitäten hier nicht nachfragt. Mein Fehler. Ich will auch nicht undankbar sein, aber bei der Textersatzlösung muessen die links ja genauso auftreten und die endgültigen Pfade müssen immer gleich sein. Wenn man aber immer wieder mal gucken will ob sich was Neues ergeben hat, muss man das jedesmal überprüfen. Ausserdem ist bei den multifile links immer vorausgesezt, dass genau ein PDF und ein ZIP dahintersteht, was man, um es zu überprüfen doch wieder einzeln nachprüfen müsste. Ich hatte mir was Grundsätzliches vorgestellt, dass nicht oder nicht so stark von der konkreten Form der Seite abhängt und, etwa vergleichbar mit wget selbst, z.B. alle PDFs runterlädt oder auch deeplinks oder sowas. Es ist ja klar, das man die gleichen Handlungen die man selbst am Browser durchführt auch als Script implementieren kann. Ich dachte ich frage hier mal nach, ehe ich das rundeste Rad aller Zeiten erfinde. Also, danke jedenfalls und nichts für ungut.
Ich versteh nur Bahnhof... Hast du deine PDF jetzt mittels Liste+Wget runterladen können oder nicht?
Bitte melde dich an um einen Beitrag zu schreiben. Anmeldung ist kostenlos und dauert nur eine Minute.
Bestehender Account
Schon ein Account bei Google/GoogleMail? Keine Anmeldung erforderlich!
Mit Google-Account einloggen
Mit Google-Account einloggen
Noch kein Account? Hier anmelden.