Danke an den Admin mit dem Logfile Tip.
Ich hatte nach dem 68 er Update das gleiche Problem.
Ich habe danach den Eintrag unter Erweitert---> max Puffergröße auf 32767 gesetzt.
Danach funktionierten die Downloads wieder. Merkwürdigerweise steht dort aber jetzt wieder 500 drin.
Auf wieviel kann/darf /sollte der erhöht/gesetzt werden wenn man 4 GB RAM hat ?
Hier noch ein Auszug aus dem Logfile
GET /cgi-bin/rsapi.cgi?sub=getaccountdetails_v1&withcookie=1&type=prem&login=xxxxxxxxx&password=xxxxxxxxx HTTP/1.1
Accept-Language: de, en-gb;q=0.9, en;q=0.8
Host: api.rapidshare.com
Accept-Charset: ISO-8859-1,utf-8;q=0.7,*;q=0.7
Accept-Encoding: gzip
User-Agent: Mozilla/5.0 (X11; U; Linux i686; en-US; rv:1.9.0.10) Gecko/2009042523 Ubuntu/9.04 (jaunty) Firefox/3.0.10
Connection: close
Accept: text/html,application/xhtml+xml,application/xml;q=0.9,*/*;q=0.8
Pragma: no-cache
Cache-Control: no-cache
----------------Response------------------
HTTP/1.1 200 OK
Date: Thu, 28 Apr 2011 15:10:53 GMT
P3P: CP="ALL DSP COR CURa ADMa DEVa TAIa PSAa PSDa IVAa IVDa CONa TELa OUR STP UNI NAV STA PRE"
Content-Length: 354
X-APICPU: 0/10000
Connection: close
Accept-Ranges: bytes
Content-Type: text/html; charset=UTF-8
Cache-Control: no-cache
Ob das jetzt Zufall war oder was auch immer weiß ich nicht
Danach sah es dann so aus
813 28.04.11 17:10:49 - FINER [java_downloader] -> API Login
813 28.04.11 17:10:49 - FINEST [java_downloader] ->
-->**External links are only visible to Support Staff****External links are only visible to Support Staff**
----------------Request------------------
GET /cgi-bin/rsapi.cgi?sub=download_v1&try=1&fileid=459462178&filename=xxxxxxxxx.rar&cookie=E94B90D674B0C1830E5FB 78D236A719F0D3BD91DB080039D20C08EFFBE0243533F1BFE5807494AD3033DE66E4BBED9FE HTTP/1.1
Accept-Language: de, en-gb;q=0.9, en;q=0.8
Cookie: enc=E94B90D674B0C1830E5FB78D236A719F0D3BD91DB080039D20C08EFFBE0243533F1BFE5807494AD3033DE66E4BBED9FE
Host: api.rapidshare.com
Accept-Charset: ISO-8859-1,utf-8;q=0.7,*;q=0.7
Referer: **External links are only visible to Support Staff****External links are only visible to Support Staff**
Accept-Encoding: gzip
User-Agent: Mozilla/5.0 (X11; U; Linux i686; en-US; rv:1.9.0.10) Gecko/2009042523 Ubuntu/9.04 (jaunty) Firefox/3.0.10
Connection: close
Accept: text/html,application/xhtml+xml,application/xml;q=0.9,*/*;q=0.8
Pragma: no-cache
Cache-Control: no-cache
----------------Response------------------
HTTP/1.1 200 OK
Date: Thu, 28 Apr 2011 15:10:53 GMT
P3P: CP="ALL DSP COR CURa ADMa DEVa TAIa PSAa PSDa IVAa IVDa CONa TELa OUR STP UNI NAV STA PRE"
Content-Length: 63
X-APICPU: 1/10000
Connection: close
Accept-Ranges: bytes
Content-Type: text/html; charset=UTF-8
Cache-Control: no-cache
Hoffe ich habe den richtigen Teil erwischt wo es von geht nicht wegen Disconnected wieder ging.
Danke an die Entwickler für dieses geniale Downloadtool und wenn ihr einen Tip habt wie ich den RAM Verbrauch eingrenzen kann wäre das super.
Anfangs habe ich so 170 MB RAM in use und nach vielen stunden schwillt der auf so 570-600 MB an .
Nach einem Neustart und Löschen von fertigen Files ist dann alles wieder OK.
Wenn der RAM Verbrauch ab 500 MB ist habe ich manchmal Schwierigkeiten weil irgendetwas hängt.