#1
|
|||
|
|||
Inhalte von Webseiten herunterladen
Hallo,
ich versuche von der Webseite archive.org verschiedene Dateien herunterzuladen. Allerding gibt es dabei ein Problem. Egal wie ich die Suche filtere, den Link den ich kopiere übernimmt der JDownloader 2 nicht. Er übernimmt lediglich den Hauptlink "**External links are only visible to Support Staff** Den Rest dahinter nicht. Somit versucht der Linksammler wahrscheinlich alle auf dieser Webseite enthaltenen Dateien zu sammeln. Gibt es dafür eine Lösung? P.S. Ich hoffe ich konnte das Problem halbwegs bachvollziehbar erläutern. mfg Eric |
#2
|
||||
|
||||
JDownloader verarbeitet nur bekannte URLs. Bei archive.org zb Links zu einzelnen Downloads/Seiten (/details oder /download), aber keine *search query*.
Mithilfe von Linkcrawler Regeln kannst du dem JDownloader beibringen auch solche URLs zu analysieren und die darin enthaltenen unterstützen Links weiterzuverarbeiten. Gerne kann ich dabei helfen, benötige aber konkrete/funktionierende Beispiele. Gerne auch an support@jdownloader.org Ansonsten findet man über die Suchfunktion im Forum einiges zu dem Thema
__________________
JD-Dev & Server-Admin |
Thread Tools | |
Display Modes | |
|
|