我有一个包含数千个数字的文件,每个数字都在自己的行上:
34
42
11
6
2
99
...
我想写一个脚本,它将打印文件中所有数字的总和。我有一个解决办法,但不是很有效。(运行需要几分钟。)我在寻找一个更有效的解决方案。有什么建议吗?
我有一个包含数千个数字的文件,每个数字都在自己的行上:
34
42
11
6
2
99
...
我想写一个脚本,它将打印文件中所有数字的总和。我有一个解决办法,但不是很有效。(运行需要几分钟。)我在寻找一个更有效的解决方案。有什么建议吗?
当前回答
您可以使用Alacon -命令行实用程序为Alasql数据库。
它与Node.js一起工作,所以你需要安装Node.js,然后安装Alasql包:
要从TXT文件中计算总和,您可以使用以下命令:
> node alacon "SELECT VALUE SUM([0]) FROM TXT('mydata.txt')"
其他回答
只是为了好玩,让我们用PDL (Perl的数组数学引擎)来做!
perl -MPDL -E 'say rcols(shift)->sum' datafile
rcols将列读入矩阵(在本例中为1D), sum (surprise)对矩阵中的所有元素求和。
对于Perl一行程序,它基本上与Ayman Hourieh回答中的awk解决方案是一样的:
% perl -nle '$sum += $_ } END { print $sum'
如果您对Perl一行程序的功能感到好奇,可以将它们分离:
% perl -MO=Deparse -nle '$sum += $_ } END { print $sum'
结果是一个更冗长的程序版本,其形式是没有人会自己编写的:
BEGIN { $/ = "\n"; $\ = "\n"; }
LINE: while (defined($_ = <ARGV>)) {
chomp $_;
$sum += $_;
}
sub END {
print $sum;
}
-e syntax OK
只是为了搞笑,我用一个包含1,000,000个数字(范围为0 - 9,999)的文件尝试了这个方法。在我的Mac Pro上,它几乎是立即返回的。这太糟糕了,因为我希望使用mmap会非常快,但它只是在同一时间:
use 5.010;
use File::Map qw(map_file);
map_file my $map, $ARGV[0];
$sum += $1 while $map =~ m/(\d+)/g;
say $sum;
Perl 6
say sum lines
~$ perl6 -e '.say for 0..1000000' > test.in
~$ perl6 -e 'say sum lines' < test.in
500000500000
这是另一个:
open(FIL, "a.txt");
my $sum = 0;
foreach( <FIL> ) {chomp; $sum += $_;}
close(FIL);
print "Sum = $sum\n";
GNU Parallel可以通过将工作负载分散到多个核心来改进上面的许多问题。
在下面的例子中,我们将500个数字的块(——max-lines=500)发送给bc进程,这些进程一次并行执行4个(-j 4)。然后,结果由最终的bc聚合。
time parallel --max-lines=500 -j 4 --pipe "paste -sd+ - | bc" < random_numbers | paste -sd+ - | bc
工作规模和并行过程数量的最佳选择取决于机器和问题。请注意,这种解决方案只有在存在大量并行流程且每个流程都有大量工作时才会真正发挥作用。