Und ich habe gemerkt, dass während der Laufzeit kein Zugriff auf die komplette Homepage ist.
Betrifft das nur Seiten, die Code-PHP enthalten oder auch reine HTML-Seiten? im letzteren Fall ist wohl der Webserver ausgelastet. Der Server als ganzes hat wohl noch Ressourcen, da du ja über FTP reinkommst.
So ich habe die manuell herunterladen Datei auf einen anderem Server gelegt und das Script nochmal probiert.
Dort geht es perfekt.
Somit gehe ich davon aus, damit die csv noch nicht richtig geschlossen ist. Dann müsste ich an den Anbieter der csv herantreten.
Kann das sein?
Naja, eine einzelne nicht geschlossene Verbindung sollte einen Webserver nicht überlasten. Aber irgendwas läuft in der Kommunikation zwischen den beiden Servern wohl nicht ganz rund. Vielleicht weiß der Anbieter der CSV-Datei was dazu zu sagen. Ansonsten bleibe nur eine Analyse der Verbindung z.B. mit curl oder mit wget.
Du kannst mir wie gesagt auch die URL mailen.
Vielen Dank. Die E-Mail ist raus.
Ich habe mal mit tcpdump den Netzwerkverkehr mitgeschnitten.
Es wird weitergeleitet auf https://, und verschlüsselt übertragen, von daher lässt sich nicht ersehen, was auf HTTP-Ebene kommuniziert wird. Die Verbindung wird nach 60 Sekunden mit einem "Encrypted Alert" vom anfragenden Server beendet. Vermutlich hat der angefragte Server nicht mitgeteilt, dass von seiner Seite nichts mehr geliefert wird und die Verbindung beendet werden kann.
Ok. Vielen Dank. Ich habe das Problem mal dem Admin gemailt.
Was sollte er tun? Die Datei richtig schließen?
Irgenwie funktioniert die Kommunikation zwischen dem Webserver und bestimmten Clients nicht korrekt. Das Problem tritt bislang nur mit dem URL-Wrapper von PHP auf. Du kannst dem Admin ja deinen PHP-Code übermitteln - damit sollte er das Problem reproduzieren können.
Hallo Jörg,
ich könnte mein Problem mit der einfachen Funktion lösen:
exec('curl https://example.com/test.csv -o test.csv');
Vielen Dank für deine Unterstützung.