Hi zusammen,
derzeit lade ich mit einem PHP-Script remote XML/CSV Dateien via cURL auf meinen Server.
* V-Server
* Linux
* php.ini : memory_limit = 80M (nicht zur Laufzeit änderbar)
Download-URL's sehen etwa so aus:
Das Ganze funktioniert auch soweit wunderbar - zumindest bis zu einer gewissen Grösse (ca. 15MB) der Remote-Datei (deren Grösse ist im Voraus nicht bekannt). Ist die Download-Datei zu gross gibt es regelmässig Fehler dieser Art:
Kennt jemand eine Möglichkeit die Download-Datei in Einzelschritten von beispielsweise je 10MB herunterzuladen, auf meinem Server wieder zusammenzusetzen um sie dann weiter zu verabeiten?
Vielleicht mit einer cURL-Option die ich bisher übersehen habe, fsockopen oder what ever. Irgendwie fehlt mir im Moment der Schubs in die richtige Richtung. Sehe den Wald vor lauter Bäumen nicht mehr ... Thx im Voraus
Deboril
derzeit lade ich mit einem PHP-Script remote XML/CSV Dateien via cURL auf meinen Server.
* V-Server
* Linux
* php.ini : memory_limit = 80M (nicht zur Laufzeit änderbar)
Download-URL's sehen etwa so aus:
Code:
http://download.from.anywhere/?aid=123&type=xml&encoding=utf-8
Code:
Fatal error: Out of memory (allocated 27787264) (tried to allocate 25392290 bytes) in /home/www/PFAD_ZUM_SCRIPT on line 1234
Vielleicht mit einer cURL-Option die ich bisher übersehen habe, fsockopen oder what ever. Irgendwie fehlt mir im Moment der Schubs in die richtige Richtung. Sehe den Wald vor lauter Bäumen nicht mehr ... Thx im Voraus
Deboril
Kommentar