这个看起来很简单,事实也的确如此。你所要做的就是下载一个文件到你的服务器:

file_put_contents("Tmpfile.zip", file_get_contents("http://someurl/file.zip"));

只有一个问题。如果你有一个大文件,比如100mb。然后,您将耗尽内存,无法下载文件。

我想要的是一种将文件写入磁盘的方法,因为我正在下载它。这样,我就可以下载更大的文件,而不会遇到内存问题。


当前回答

有3种方法:

File_get_contents和file_put_contents 旋度 打开外部文件

你可以从这里找到例子。

其他回答

浪子的回答对我不起作用。我在CURLOPT_FILE中丢失了fopen更多细节。

这对我来说很有效,包括本地url:

function downloadUrlToFile($url, $outFileName)
{   
    if(is_file($url)) {
        copy($url, $outFileName); 
    } else {
        $options = array(
          CURLOPT_FILE    => fopen($outFileName, 'w'),
          CURLOPT_TIMEOUT =>  28800, // set this to 8 hours so we dont timeout on big files
          CURLOPT_URL     => $url
        );

        $ch = curl_init();
        curl_setopt_array($ch, $options);
        curl_exec($ch);
        $httpcode = curl_getinfo($ch, CURLINFO_HTTP_CODE);
        curl_close($ch);
        return $httpcode;
    }
}

        

最好的解决方案

在系统&中安装aria2c

 echo exec("aria2c \"$url\"")

PHP 4和5解决方案:

Readfile()本身不会出现任何内存问题,即使在发送大文件时也是如此。 如果fopen包装器已启用,则URL可以用作此函数的文件名。

http://php.net/manual/en/function.readfile.php

尝试使用cURL

set_time_limit(0); // unlimited max execution time
$options = array(
  CURLOPT_FILE    => '/path/to/download/the/file/to.zip',
  CURLOPT_TIMEOUT =>  28800, // set this to 8 hours so we dont timeout on big files
  CURLOPT_URL     => 'http://remoteserver.com/path/to/big/file.zip',
);

$ch = curl_init();
curl_setopt_array($ch, $options);
curl_exec($ch);
curl_close($ch);

我不确定,但我相信与CURLOPT_FILE选项,它写,因为它拉数据,即。没有缓冲。

private function downloadFile($url, $path)
{
    $newfname = $path;
    $file = fopen ($url, 'rb');
    if ($file) {
        $newf = fopen ($newfname, 'wb');
        if ($newf) {
            while(!feof($file)) {
                fwrite($newf, fread($file, 1024 * 8), 1024 * 8);
            }
        }
    }
    if ($file) {
        fclose($file);
    }
    if ($newf) {
        fclose($newf);
    }
}