#1
|
|||
|
|||
Tiefensuche
Hallo Support,
ich versuche aktuell eine Regel zu erstellen, die mich dabei unterstützt, Links aus den Unterseiten zu extrahieren. Hier ist eine Beispielseite **External links are only visible to Support Staff****External links are only visible to Support Staff** Die Screenshots habe ich in einer separaten Datei angehängt. Meine Regel lautet: [ { "enabled" : true, "cookies" : null, "updateCookies" : true, "maxDecryptDepth" : 3, "id" : 1543407812078, "name" : "MyGully", "pattern" : "**External links are only visible to Support Staff**, "rule" : "DEEPDECRYPT", "packageNamePattern" : null, "passwordPattern" : null, "formPattern" : null, "deepPattern" : "fullsizeUrl = '(https?://[^<>"\\']+)'", "rewriteReplaceWith" : null } ] Diese Regel erfüllt jedoch meine Anforderung nicht :-( Ich habe in der Internet-Recherche noch keine andere solche Anforderung und passende Regel gefunden. Vielleicht könntet Ihr mich unterstützen, die richtige Regel zu erstellen? Das wäre ein tolles Weihnachtsgeschenk. Vielen Dank Last edited by Jiaz; 28.12.2020 at 11:58. |
#2
|
||||
|
||||
1.) Die Seite nutzt Cloudflare -> derzeit nicht möglich siehe https://board.jdownloader.org/showthread.php?t=83712 , sprich es wird nicht klappen sofern deine IP Cloudflare triggert
2.) Deiner Regel fehlen die Cookies/Session, siehe https://support.jdownloader.org/Know...kcrawler-rules, sprich JDownloader sieht nur die Seite im nicht eingeloggten Zustand
__________________
JD-Dev & Server-Admin |
#3
|
|||
|
|||
Hallo Jiaz,
vielen Dank für Deine Prüfung. Nach Deinen Erklärungen lohnt es sich also nicht, weiter Zeit in diesen Weg zu investieren. Schade, aber wohl nicht zu ändern. |
#4
|
||||
|
||||
Korrekt, spätestens am Cloudflare wird der Weg aktuell scheitern, sorry :(
__________________
JD-Dev & Server-Admin |
#5
|
|||
|
|||
Hallo zusammen, liebe Community,
ich bin mir unsicher ob meine Frage die gleiche ist: Besteht also keine Möglichkeit oder gibt es keinen "Trick" um in einem Thread auf o. g. Seite automatisiert mehrere Seiten durchzuklicken und alle Links aufzunehmen? Aktuell klicke ich mich durch die Seiten-Anzahl und "Strg + A" & "Strg + C" um alle Links aufzunehmen. Freue mich auf euer Feedback. LG Smu |
#6
|
||||
|
||||
Es gibt Browser Addons, die zum einen automatisch scrollen und auch andere mit denen sich alle Links kopieren lassen oder sogar danach filtern lassen.
Leider kann ich dir dazu keine Beispiele nennen, da ich solche nicht verwende, aber eine Google Suche sollte helfen Grüße, psp
__________________
JD Supporter, Plugin Dev. & Community Manager
Erste Schritte & Tutorials || JDownloader 2 Setup Download |
Thread Tools | |
Display Modes | |
|
|