这个看起来很简单,事实也的确如此。你所要做的就是下载一个文件到你的服务器:

file_put_contents("Tmpfile.zip", file_get_contents("http://someurl/file.zip"));

只有一个问题。如果你有一个大文件,比如100mb。然后,您将耗尽内存,无法下载文件。

我想要的是一种将文件写入磁盘的方法,因为我正在下载它。这样,我就可以下载更大的文件,而不会遇到内存问题。


当前回答

尝试使用cURL

set_time_limit(0); // unlimited max execution time
$options = array(
  CURLOPT_FILE    => '/path/to/download/the/file/to.zip',
  CURLOPT_TIMEOUT =>  28800, // set this to 8 hours so we dont timeout on big files
  CURLOPT_URL     => 'http://remoteserver.com/path/to/big/file.zip',
);

$ch = curl_init();
curl_setopt_array($ch, $options);
curl_exec($ch);
curl_close($ch);

我不确定,但我相信与CURLOPT_FILE选项,它写,因为它拉数据,即。没有缓冲。

其他回答

从PHP 5.1.0开始,file_put_contents()通过传递一个流句柄作为$data参数来支持逐条写入:

file_put_contents("Tmpfile.zip", fopen("http://someurl/file.zip", 'r'));

摘自手册:

如果data[即第二个参数]是流资源,则该流的剩余缓冲区将被复制到指定的文件中。这与使用类似 stream_copy_to_stream()。

(谢谢哈克雷。

尝试使用cURL

set_time_limit(0); // unlimited max execution time
$options = array(
  CURLOPT_FILE    => '/path/to/download/the/file/to.zip',
  CURLOPT_TIMEOUT =>  28800, // set this to 8 hours so we dont timeout on big files
  CURLOPT_URL     => 'http://remoteserver.com/path/to/big/file.zip',
);

$ch = curl_init();
curl_setopt_array($ch, $options);
curl_exec($ch);
curl_close($ch);

我不确定,但我相信与CURLOPT_FILE选项,它写,因为它拉数据,即。没有缓冲。

private function downloadFile($url, $path)
{
    $newfname = $path;
    $file = fopen ($url, 'rb');
    if ($file) {
        $newf = fopen ($newfname, 'wb');
        if ($newf) {
            while(!feof($file)) {
                fwrite($newf, fread($file, 1024 * 8), 1024 * 8);
            }
        }
    }
    if ($file) {
        fclose($file);
    }
    if ($newf) {
        fclose($newf);
    }
}

PHP 4和5解决方案:

Readfile()本身不会出现任何内存问题,即使在发送大文件时也是如此。 如果fopen包装器已启用,则URL可以用作此函数的文件名。

http://php.net/manual/en/function.readfile.php

最好的解决方案

在系统&中安装aria2c

 echo exec("aria2c \"$url\"")