我正在寻找一个命令,它将接受(作为输入)多行文本,每行包含一个整数,并输出这些整数的和。
作为一点背景知识,我有一个日志文件,其中包括计时测量。通过grepping的相关行和一点sed重新格式化,我可以列出该文件中的所有时间。我想算出总数。我可以将这个中间输出输出到任何命令,以便进行最终求和。我过去一直使用expr,但除非它在RPN模式下运行,否则我不认为它会处理这个问题(即使这样也会很棘手)。
我怎样才能得到整数的和?
我正在寻找一个命令,它将接受(作为输入)多行文本,每行包含一个整数,并输出这些整数的和。
作为一点背景知识,我有一个日志文件,其中包括计时测量。通过grepping的相关行和一点sed重新格式化,我可以列出该文件中的所有时间。我想算出总数。我可以将这个中间输出输出到任何命令,以便进行最终求和。我过去一直使用expr,但除非它在RPN模式下运行,否则我不认为它会处理这个问题(即使这样也会很棘手)。
我怎样才能得到整数的和?
当前回答
更新的基准
所以我合成了随机分布的100mn个整数
之间的
0^0 - 1
and
8^8 - 1
代码生成器
mawk2 '
BEGIN {
__=_=((_+=_^=_<_)+(__=_*_*_))^(___=__)
srand()
___^=___
do {
print int(rand()*___)
} while(--_) }' | pvE9 > test_large_int_100mil_001.txt
out9: 795MiB 0:00:11 [69.0MiB/s] [69.0MiB/s] [ <=> ]
f='test_large_int_100mil_001.txt'
wc5 < "${f}"
rows = 100000000. | UTF8 chars = 833771780. | bytes = 833771780.
最后一位的奇/偶分布
Odd 49,992,332
Even 50,007,668
AWK -最快的,有很大的优势(可能C更快,我不知道)
in0: 795MiB 0:00:07 [ 103MiB/s] [ 103MiB/s] [============>] 100%
( pvE 0.1 in0 < "${f}" | mawk2 '{ _+=$__ } END { print _ }'; )
7.64s user 0.35s system 103% cpu 7.727 total
1 838885279378716
Perl -相当不错
in0: 795MiB 0:00:10 [77.6MiB/s] [77.6MiB/s] [==============>] 100%
( pvE 0.1 in0 < "${f}" | perl -lne '$x += $_; END { print $x; }'; )
10.16s user 0.37s system 102% cpu 10.268 total
1 838885279378716
Python3——稍微落后于Perl
in0: 795MiB 0:00:11 [71.5MiB/s] [71.5MiB/s] [===========>] 100%
( pvE 0.1 in0 < "${f}" | python3 -c ; )
11.00s user 0.43s system 102% cpu 11.140 total
1 838885279378716
RUBY -不错
in0: 795MiB 0:00:13 [61.0MiB/s] [61.0MiB/s] [===========>] 100%
( pvE 0.1 in0 < "${f}" | ruby -e 'puts ARGF.map(&:to_i).inject(&:+)'; )
15.30s user 0.70s system 101% cpu 15.757 total
1 838885279378716
JQ -慢
in0: 795MiB 0:00:25 [31.1MiB/s] [31.1MiB/s] [========>] 100%
( pvE 0.1 in0 < "${f}" | jq -s 'add'; )
36.95s user 1.09s system 100% cpu 37.840 total
1 838885279378716
DC
- ( had to kill it after no response in minutes)
其他回答
BASH解决方案,如果你想让它成为一个命令(例如,如果你需要经常这样做):
addnums () {
local total=0
while read val; do
(( total += val ))
done
echo $total
}
然后使用:
addnums < /tmp/nums
我对现有的答案做了一个快速的基准测试
只使用标准工具(不好意思像lua或rocket), 都是真正的俏皮话, 能够添加大量的数字(1亿),和 速度很快(我忽略了那些超过一分钟的)。
我总是把数字从1亿加到1亿,这在我的机器上可以在一分钟内完成几个解决方案。
以下是调查结果:
Python
:; seq 100000000 | python -c 'import sys; print sum(map(int, sys.stdin))'
5000000050000000
# 30s
:; seq 100000000 | python -c 'import sys; print sum(int(s) for s in sys.stdin)'
5000000050000000
# 38s
:; seq 100000000 | python3 -c 'import sys; print(sum(int(s) for s in sys.stdin))'
5000000050000000
# 27s
:; seq 100000000 | python3 -c 'import sys; print(sum(map(int, sys.stdin)))'
5000000050000000
# 22s
:; seq 100000000 | pypy -c 'import sys; print(sum(map(int, sys.stdin)))'
5000000050000000
# 11s
:; seq 100000000 | pypy -c 'import sys; print(sum(int(s) for s in sys.stdin))'
5000000050000000
# 11s
Awk
:; seq 100000000 | awk '{s+=$1} END {print s}'
5000000050000000
# 22s
膏& Bc
我的机器内存不足了。它适用于一半大小的输入(5000万个数字):
:; seq 50000000 | paste -s -d+ - | bc
1250000025000000
# 17s
:; seq 50000001 100000000 | paste -s -d+ - | bc
3750000025000000
# 18s
所以我猜1亿个数字大约需要35秒。
Perl
:; seq 100000000 | perl -lne '$x += $_; END { print $x; }'
5000000050000000
# 15s
:; seq 100000000 | perl -e 'map {$x += $_} <> and print $x'
5000000050000000
# 48s
Ruby
:; seq 100000000 | ruby -e "puts ARGF.map(&:to_i).inject(&:+)"
5000000050000000
# 30s
C
为了比较起见,我编译了C版本并进行了测试,只是为了了解基于工具的解决方案有多慢。
#include <stdio.h>
int main(int argc, char** argv) {
long sum = 0;
long i = 0;
while(scanf("%ld", &i) == 1) {
sum = sum + i;
}
printf("%ld\n", sum);
return 0;
}
:; seq 100000000 | ./a.out
5000000050000000
# 8s
结论
C当然是用8秒最快的,但Pypy解决方案只增加了很少的开销,约为11秒的30%。但是,公平地说,Pypy并不是完全标准的。大多数人只安装了CPython,它非常慢(22秒),和流行的Awk解决方案一样快。
基于标准工具的最快解决方案是Perl(15秒)。
普通的bash:
$ cat numbers.txt
1
2
3
4
5
6
7
8
9
10
$ sum=0; while read num; do ((sum += num)); done < numbers.txt; echo $sum
55
#include <iostream>
int main()
{
double x = 0, total = 0;
while (std::cin >> x)
total += x;
if (!std::cin.eof())
return 1;
std::cout << x << '\n';
}
sed 's/^/.+/' infile | bc | tail -1