我在UNIX的一个目录下有几百个PDF。PDF的名称非常长(约60个字符)。

当我尝试使用以下命令一起删除所有PDF时:

rm -f *.pdf

我收到以下错误:

/bin/rm: cannot execute [Argument list too long]

此错误的解决方案是什么?mv和cp命令是否也会出现此错误?如果是,如何解决这些命令?


当前回答

您可以使用bash数组:

files=(*.pdf)
for((I=0;I<${#files[@]};I+=1000)); do
    rm -f "${files[@]:I:1000}"
done

这样,它将以每一步1000个文件的批量擦除。

其他回答

对于没有时间的人。在终端上运行以下命令。

ulimit -S -s unlimited

然后执行cp/mv/rm操作。

如果您试图一次删除大量文件(我今天删除了一个485000+的目录),您可能会遇到以下错误:

/bin/rm: Argument list too long.

问题是,当您键入类似rm-rf*的内容时,*将被替换为每个匹配文件的列表,如“rm-rf file1 file2 file3 file4”等。分配了一个相对较小的内存缓冲区来存储此参数列表,如果该缓冲区已满,shell将不会执行程序。

为了解决这个问题,很多人会使用find命令查找每个文件,并将它们逐一传递给“rm”命令,如下所示:

find . -type f -exec rm -v {} \;

我的问题是我需要删除50万个文件,而且时间太长了。

我偶然发现了一种更快的删除文件的方法——“find”命令内置了“-delete”标志!以下是我最终使用的:

find . -type f -delete

使用这种方法,我以每秒2000个文件的速度删除文件,速度快得多!

您还可以在删除文件名时显示文件名:

find . -type f -print -delete

…甚至显示将删除多少文件,以及删除这些文件所需的时间:

root@devel# ls -1 | wc -l && time find . -type f -delete
100000
real    0m3.660s
user    0m0.036s
sys     0m0.552s

你可以试试这个:

for f in *.pdf
do
  rm "$f"
done

编辑:ThiefMaster的评论建议我不要向年轻的壳牌公司的绝地武士透露这种危险的做法,所以我会添加一个更“安全”的版本(为了在有人拥有“-rf…pdf”文件时保存东西)

echo "# Whooooo" > /tmp/dummy.sh
for f in '*.pdf'
do
   echo "rm -i \"$f\""
done >> /tmp/dummy.sh

运行以上步骤后,只需在您喜爱的编辑器中打开/tmp/ddumy.sh文件,并检查每一行是否有危险的文件名,如果发现,请将其注释掉。

然后在工作目录中复制dummy.sh脚本并运行它。

所有这些都是出于安全考虑。

你可以用这个表扬

find -name "*.pdf"  -delete

我很惊讶这里没有ulimit答案。每次我遇到这个问题,我都会在这里或这里结束。我知道这个解决方案有局限性,但ulimit-s 65536似乎经常为我提供帮助。