这个看起来很简单,事实也的确如此。你所要做的就是下载一个文件到你的服务器:
file_put_contents("Tmpfile.zip", file_get_contents("http://someurl/file.zip"));
只有一个问题。如果你有一个大文件,比如100mb。然后,您将耗尽内存,无法下载文件。
我想要的是一种将文件写入磁盘的方法,因为我正在下载它。这样,我就可以下载更大的文件,而不会遇到内存问题。
这个看起来很简单,事实也的确如此。你所要做的就是下载一个文件到你的服务器:
file_put_contents("Tmpfile.zip", file_get_contents("http://someurl/file.zip"));
只有一个问题。如果你有一个大文件,比如100mb。然后,您将耗尽内存,无法下载文件。
我想要的是一种将文件写入磁盘的方法,因为我正在下载它。这样,我就可以下载更大的文件,而不会遇到内存问题。
当前回答
使用php copy()中的简单方法
copy($source_url, $local_path_with_file_name);
注意:如果目标文件已经存在,它将被覆盖
PHP copy()函数
备注:需要设置目标文件夹的权限为777。 在下载到本地机器时使用此方法。
特别注意:777是基于Unix系统的权限,对owner、group和所有人都具有完全的读/写/执行权限。一般来说,我们将此权限授予那些不太需要在web服务器上对公众隐藏的资产。例如:images文件夹。
其他回答
private function downloadFile($url, $path)
{
$newfname = $path;
$file = fopen ($url, 'rb');
if ($file) {
$newf = fopen ($newfname, 'wb');
if ($newf) {
while(!feof($file)) {
fwrite($newf, fread($file, 1024 * 8), 1024 * 8);
}
}
}
if ($file) {
fclose($file);
}
if ($newf) {
fclose($newf);
}
}
尝试使用cURL
set_time_limit(0); // unlimited max execution time
$options = array(
CURLOPT_FILE => '/path/to/download/the/file/to.zip',
CURLOPT_TIMEOUT => 28800, // set this to 8 hours so we dont timeout on big files
CURLOPT_URL => 'http://remoteserver.com/path/to/big/file.zip',
);
$ch = curl_init();
curl_setopt_array($ch, $options);
curl_exec($ch);
curl_close($ch);
我不确定,但我相信与CURLOPT_FILE选项,它写,因为它拉数据,即。没有缓冲。
从PHP 5.1.0开始,file_put_contents()通过传递一个流句柄作为$data参数来支持逐条写入:
file_put_contents("Tmpfile.zip", fopen("http://someurl/file.zip", 'r'));
摘自手册:
如果data[即第二个参数]是流资源,则该流的剩余缓冲区将被复制到指定的文件中。这与使用类似 stream_copy_to_stream()。
(谢谢哈克雷。
最好的解决方案
在系统&中安装aria2c
echo exec("aria2c \"$url\"")
有3种方法:
File_get_contents和file_put_contents 旋度 打开外部文件
你可以从这里找到例子。