这个看起来很简单,事实也的确如此。你所要做的就是下载一个文件到你的服务器:

file_put_contents("Tmpfile.zip", file_get_contents("http://someurl/file.zip"));

只有一个问题。如果你有一个大文件,比如100mb。然后,您将耗尽内存,无法下载文件。

我想要的是一种将文件写入磁盘的方法,因为我正在下载它。这样,我就可以下载更大的文件,而不会遇到内存问题。


当前回答

使用php copy()中的简单方法

copy($source_url, $local_path_with_file_name);

注意:如果目标文件已经存在,它将被覆盖

PHP copy()函数

备注:需要设置目标文件夹的权限为777。 在下载到本地机器时使用此方法。

特别注意:777是基于Unix系统的权限,对owner、group和所有人都具有完全的读/写/执行权限。一般来说,我们将此权限授予那些不太需要在web服务器上对公众隐藏的资产。例如:images文件夹。

其他回答

private function downloadFile($url, $path)
{
    $newfname = $path;
    $file = fopen ($url, 'rb');
    if ($file) {
        $newf = fopen ($newfname, 'wb');
        if ($newf) {
            while(!feof($file)) {
                fwrite($newf, fread($file, 1024 * 8), 1024 * 8);
            }
        }
    }
    if ($file) {
        fclose($file);
    }
    if ($newf) {
        fclose($newf);
    }
}

尝试使用cURL

set_time_limit(0); // unlimited max execution time
$options = array(
  CURLOPT_FILE    => '/path/to/download/the/file/to.zip',
  CURLOPT_TIMEOUT =>  28800, // set this to 8 hours so we dont timeout on big files
  CURLOPT_URL     => 'http://remoteserver.com/path/to/big/file.zip',
);

$ch = curl_init();
curl_setopt_array($ch, $options);
curl_exec($ch);
curl_close($ch);

我不确定,但我相信与CURLOPT_FILE选项,它写,因为它拉数据,即。没有缓冲。

从PHP 5.1.0开始,file_put_contents()通过传递一个流句柄作为$data参数来支持逐条写入:

file_put_contents("Tmpfile.zip", fopen("http://someurl/file.zip", 'r'));

摘自手册:

如果data[即第二个参数]是流资源,则该流的剩余缓冲区将被复制到指定的文件中。这与使用类似 stream_copy_to_stream()。

(谢谢哈克雷。

最好的解决方案

在系统&中安装aria2c

 echo exec("aria2c \"$url\"")

有3种方法:

File_get_contents和file_put_contents 旋度 打开外部文件

你可以从这里找到例子。