#1
|
|||
|
|||
Probleme mit Event Scripter und Schedule Extraction
Hallo zusammen,
ich gehöre auch zu den Nutzern, bei welchen das Entpacken teilweise sehr lange dauert. Der Grund liegt in der hohen Anzahl der Zugriffe (3 gleichzeitige Downloads + Entpacken) - das zwingt meine Synology in die Knie. Daher war ich auf der Suche nach einer Lösung, mit der ich den JD2 bei mehreren verschiedenen Downloads in der Liste nach einem abgeschlossenen Ladevorgang (wenn die Datei z.B. aus mehreren Rar-Dateien besteht) unterbricht und erst weitermacht, wenn das entpacken beendet wurde (ich hoffe ihr könnt folgen...^^) Dazu habe ich aber leider nichts gefunden. Ich bin dabei aber auf die Schedule Extraction gestoßen, welche, wenn ich den Post dazu richtig verstanden habe, zunächst alle Dateien aus der Liste lädt und danach erst alles entpackt. Leider funktioniert das nicht, die Dateien werden geladen aber nichts entpackt. Ich habe den Event Scripter geladen, JD2 neu gestartet, das Script eingefügt und akiviert sowie den Archiventpacker deaktiviert. Oder habe ich bei dem Script etwas falsch verstanden? Besten dank Frederic |
#2
|
||||
|
||||
Mal ein Link zum Script? Dann kann ich auch sagen was genau das Script macht
Alternativ kannst du ja auch erst alles herunterladen und dann entpacken lassen?
__________________
JD-Dev & Server-Admin |
#3
|
|||
|
|||
Das wäre das Script gewesen:
https://board.jdownloader.org/showpo...38&postcount=3 ich hatte die Beschreibung dazu so verstanden, dass es eben genau das macht, also die Files am Ende erst zu entpacken. Gruß |
#4
|
||||
|
||||
Das Script prüft um 21.30 Uhr und entpackt alle Archive in der Liste.
Eine Möglichkeit wäre auf das "Download Controller Stopped" Event lauschen und danach alle Entpacken Code:
var links = getAllDownloadLinks(); for (i = 0; i < links.length; i++) { var link = links[i]; var autoExtract = link.getArchive().getInfo().autoExtract; if (link.isFinished() && link.getArchive() && link.getExtractionStatus() == null && autoExtract != "FALSE") { callAPI("extraction", "startExtractionNow", [link.getUUID()], []); } }
__________________
JD-Dev & Server-Admin |
#5
|
||||
|
||||
Bei weiteren Fragen empfehle ich einfach direkt mgpai (auf englisch) zu kontaktieren.
__________________
JD-Dev & Server-Admin |
#6
|
||||
|
||||
Quote:
Was ist die Ausgabe von java -version? Ist dort ZeroVM enthalten? Du kannst in Einstellungen-Profieinstellungen GeneralSettings.maxbuffersize erhöhen um die Schreibzugriffe zu reduzieren. Generell empfehle ich max Verbindungen auf 1 zu belassen. zb einen Buffer von 2-5 Mbyte (2000-5000), dann sollte das kein weiteres Problem sein. Welche InetAnbindung/Geschwindigkeit hast du denn?
__________________
JD-Dev & Server-Admin |
#7
|
|||
|
|||
Mahlzeit,
die Archive sind verschieden groß, aber bei allen tritt das Problem auf. Als Java ist Version 8, Update 121 installiert, ob da ZeroVM enthalten ist kann ich nicht sagen. Meine Anbindung ist 64Mbit, die ich auch meistens habe... Das mit dem maxbuffersize und dem Script werde ich mal ausprobieren und Rückmeldung geben. Vielleicht hat sich das Thema dann ja schon erledigt. Meinst Du zudem jetzt maximale Verbindungen oder gleichzeitige Downloads - beides hatte ich vorher auf 3/3, jetzt wollte ich es dann man mit einem Download bei drei Verbingungen testen. Ich dachte bisher halt immer, dass die gleichzeitigen Downloads für die Plattenzugriffe verantwortlich sind. Besten dank bis hierhin!!! Frederic |
#8
|
||||
|
||||
Max Downloads auf 1-6 und max Verbindungen auf 1.
Max Verbindungen auf 1, weil pro Verbindung ein Buffer erstellt wird und bei 3*3 = 9 Verbindungen, bei 2Mbyte sind das schon 20 Mbyte Buffer. Das mit der ZeroVM/Java Version hat sich erledigt, dachte es wäre auf nem Server/NAS und co. Dennoch ist 3Mbyte/s schon arg langsam, aber jetzt teste erstmal die geänderten Einstellungen
__________________
JD-Dev & Server-Admin |
Thread Tools | |
Display Modes | |
|
|