View Single Post
  #5  
Old 19.02.2020, 16:17
thecoder2012's Avatar
thecoder2012 thecoder2012 is offline
Official 9kw.eu Support
 
Join Date: Feb 2013
Location: Internet
Posts: 1,324
Default

Quote:
Originally Posted by snickers2k View Post
das würde leider mit den folderwatch.crawljob files nicht funktionieren :/
Eventuell kannst mit dem Ereignis-Skripter einen Workaround dafür basteln.

Beispiel als Anfang:
Code:
var nzbdata = "";
try {
    var myBr = getBrowser();
    nzbdata = myBr.getPage("NZBLINK");
} catch (e) {}

if (nzbdata) {
    var new_file = JD_HOME + "/" + Date.now() + ".nzb";
    writeFile(new_file, nzbdata, false);

    callAPI("linkgrabberv2", "addLinks", {
        "deepDecrypt": "false",
        "links": "file://" + new_file
    });
}
Mit dem Trigger New Crawler Job (Neuer Sammel-Job) könnte man den spezifischen Link filtern und dann über so ein Skript als Workaround laufen lassen. Ggf. temporäre Dateien danach wieder entfernen lassen. Siehe diesen Beitrag.
__________________
Join 9kw.eu Captcha Service now and let your JD continue downloads while you sleep.
Reply With Quote