我正在寻找一个命令,它将接受(作为输入)多行文本,每行包含一个整数,并输出这些整数的和。

作为一点背景知识,我有一个日志文件,其中包括计时测量。通过grepping的相关行和一点sed重新格式化,我可以列出该文件中的所有时间。我想算出总数。我可以将这个中间输出输出到任何命令,以便进行最终求和。我过去一直使用expr,但除非它在RPN模式下运行,否则我不认为它会处理这个问题(即使这样也会很棘手)。

我怎样才能得到整数的和?


当前回答

粘贴通常合并多个文件的行,但它也可以用于将文件的各个行转换为一行。分隔符标志允许您将x+x类型的方程传递给bc。

paste -s -d+ infile | bc

或者,当从stdin管道时,

<commands> | paste -s -d+ - | bc

其他回答

所有基于fedora的系统[fedora,RHEL,CentOS,korora等]上都有lua解释器,因为它嵌入了rpm-package(包管理器rpm的包),即rpm-lua],如果你想学习lua,这种问题是理想的(你也会完成你的工作)。

cat filname | lua -e "sum = 0;for i in io.lines() do sum=sum+i end print(sum)"

这很有效。虽然Lua很啰嗦,但你可能不得不忍受一些反复敲击键盘的伤害:)

perl -lne '$x += $_; END { print $x; }' < infile.txt
$ cat n
2
4
2
7
8
9
$ perl -MList::Util -le 'print List::Util::sum(<>)' < n
32

或者,你可以在命令行输入数字:

$ perl -MList::Util -le 'print List::Util::sum(<>)'
1
3
5
^D
9

但是,这种方法会占用文件,因此不适合用于大文件。请参阅j_random_hacker的答案,以避免吮吸。

Rebol中的一句话:

rebol -q --do 's: 0 while [d: input] [s: s + to-integer d] print s' < infile.txt

不幸的是,上述在Rebol 3中还不能工作(INPUT不能流化STDIN)。

下面是一个在Rebol 3中也适用的临时解决方案:

rebol -q --do 's: 0 foreach n to-block read %infile.txt [s: s + n] print s'

我对现有的答案做了一个快速的基准测试

只使用标准工具(不好意思像lua或rocket), 都是真正的俏皮话, 能够添加大量的数字(1亿),和 速度很快(我忽略了那些超过一分钟的)。

我总是把数字从1亿加到1亿,这在我的机器上可以在一分钟内完成几个解决方案。

以下是调查结果:

Python

:; seq 100000000 | python -c 'import sys; print sum(map(int, sys.stdin))'
5000000050000000
# 30s
:; seq 100000000 | python -c 'import sys; print sum(int(s) for s in sys.stdin)'
5000000050000000
# 38s
:; seq 100000000 | python3 -c 'import sys; print(sum(int(s) for s in sys.stdin))'
5000000050000000
# 27s
:; seq 100000000 | python3 -c 'import sys; print(sum(map(int, sys.stdin)))'
5000000050000000
# 22s
:; seq 100000000 | pypy -c 'import sys; print(sum(map(int, sys.stdin)))'
5000000050000000
# 11s
:; seq 100000000 | pypy -c 'import sys; print(sum(int(s) for s in sys.stdin))'
5000000050000000
# 11s

Awk

:; seq 100000000 | awk '{s+=$1} END {print s}'
5000000050000000
# 22s

膏& Bc

我的机器内存不足了。它适用于一半大小的输入(5000万个数字):

:; seq 50000000 | paste -s -d+ - | bc
1250000025000000
# 17s
:; seq 50000001 100000000 | paste -s -d+ - | bc
3750000025000000
# 18s

所以我猜1亿个数字大约需要35秒。

Perl

:; seq 100000000 | perl -lne '$x += $_; END { print $x; }'
5000000050000000
# 15s
:; seq 100000000 | perl -e 'map {$x += $_} <> and print $x'
5000000050000000
# 48s

Ruby

:; seq 100000000 | ruby -e "puts ARGF.map(&:to_i).inject(&:+)"
5000000050000000
# 30s

C

为了比较起见,我编译了C版本并进行了测试,只是为了了解基于工具的解决方案有多慢。

#include <stdio.h>
int main(int argc, char** argv) {
    long sum = 0;
    long i = 0;
    while(scanf("%ld", &i) == 1) {
        sum = sum + i;
    }
    printf("%ld\n", sum);
    return 0;
}

 

:; seq 100000000 | ./a.out 
5000000050000000
# 8s

结论

C当然是用8秒最快的,但Pypy解决方案只增加了很少的开销,约为11秒的30%。但是,公平地说,Pypy并不是完全标准的。大多数人只安装了CPython,它非常慢(22秒),和流行的Awk解决方案一样快。

基于标准工具的最快解决方案是Perl(15秒)。