Quote:
Originally Posted by snickers2k
das würde leider mit den folderwatch.crawljob files nicht funktionieren :/
|
Eventuell kannst mit dem Ereignis-Skripter einen Workaround dafür basteln.
Beispiel als Anfang:
Code:
var nzbdata = "";
try {
var myBr = getBrowser();
nzbdata = myBr.getPage("NZBLINK");
} catch (e) {}
if (nzbdata) {
var new_file = JD_HOME + "/" + Date.now() + ".nzb";
writeFile(new_file, nzbdata, false);
callAPI("linkgrabberv2", "addLinks", {
"deepDecrypt": "false",
"links": "file://" + new_file
});
}
Mit dem Trigger New Crawler Job (Neuer Sammel-Job) könnte man den spezifischen Link filtern und dann über so ein Skript als Workaround laufen lassen. Ggf. temporäre Dateien danach wieder entfernen lassen. Siehe diesen
Beitrag.