如何用Java编写(并运行)正确的微基准测试?

我正在寻找一些代码示例和注释,以说明需要考虑的各种事情。

示例:基准测试应该测量时间/迭代还是迭代/时间,为什么?

相关:秒表基准测试是可接受的?


当前回答

我知道这个问题已经被标记为已回答,但我想提到两个帮助我们编写微基准的库

来自谷歌的卡尺

入门教程

http://codingjunkie.net/micro-benchmarking-with-caliper/ http://vertexlabs.co.uk/blog/caliper

来自OpenJDK的JMH

入门教程

避免JVM上的基准测试陷阱 使用JMH进行Java微基准测试 JMH简介

其他回答

Java HotSpot创建者提供的编写微基准测试的技巧:

规则0:阅读一篇关于jvm和微基准测试的著名论文。一个很好的例子是Brian Goetz, 2005年。不要对微基准测试期望过高;它们只测量JVM性能特征的有限范围。

规则1:始终包含一个运行测试内核的预热阶段,足以在计时阶段之前触发所有初始化和编译。(在预热阶段较少的迭代是可以的。经验法则是数万次内循环迭代。)

规则2:始终使用-XX:+PrintCompilation, -verbose:gc等运行,这样您就可以验证编译器和JVM的其他部分在计时阶段没有执行意外的工作。

规则2.1:在计时和预热阶段的开始和结束打印消息,这样您就可以验证在计时阶段没有来自规则2的输出。

规则3:注意-client和-server,以及OSR和常规编译之间的区别。-XX:+PrintCompilation标志报告OSR编译,使用一个at符号表示非初始入口点,例如:Trouble$1::run @ 2(41字节)。如果你追求最好的性能,更倾向于服务器而不是客户端,常规而不是OSR。

规则4:注意初始化效果。不要在计时阶段第一次打印,因为打印会加载和初始化类。不要在预热阶段(或最终报告阶段)之外加载新类,除非您专门测试类加载(在这种情况下只加载测试类)。规则2是你对抗这些影响的第一道防线。

规则5:注意反优化和重新编译的影响。不要在计时阶段第一次使用任何代码路径,因为编译器可能会丢弃并重新编译代码,这是基于先前的乐观假设,即该路径根本不会被使用。规则2是你对抗这些影响的第一道防线。

规则6:使用适当的工具来读取编译器的思想,并期待它生成的代码会让你大吃一惊。在形成是什么使代码更快或更慢的理论之前,自己检查代码。

规则7:减少测量中的噪声。在安静的机器上运行基准测试,并多次运行,丢弃异常值。使用-Xbatch将编译器与应用程序序列化,并考虑设置-XX:CICompilerCount=1以防止编译器与自身并行运行。尽量减少GC开销,设置Xmx(足够大)等于Xms,并在可用的情况下使用UseEpsilonGC。

规则8:使用一个库来进行基准测试,因为它可能更有效,并且已经为此目的进行了调试。例如JMH, Caliper或Bill和Paul的优秀UCSD Java基准。

为了补充其他优秀的建议,我还会注意以下几点:

For some CPUs (e.g. Intel Core i5 range with TurboBoost), the temperature (and number of cores currently being used, as well as thier utilisation percent) affects the clock speed. Since CPUs are dynamically clocked, this can affect your results. For example, if you have a single-threaded application, the maximum clock speed (with TurboBoost) is higher than for an application using all cores. This can therefore interfere with comparisons of single and multi-threaded performance on some systems. Bear in mind that the temperature and volatages also affect how long Turbo frequency is maintained.

也许您可以直接控制的一个更根本的重要方面是:确保您在测量正确的东西!例如,如果您正在使用System.nanoTime()对特定代码进行基准测试,请将对赋值的调用放在有意义的位置,以避免测量您不感兴趣的内容。例如,不要做:

long startTime = System.nanoTime();
//code here...
System.out.println("Code took "+(System.nanoTime()-startTime)+"nano seconds");

问题是,当代码完成时,您不能立即得到结束时间。相反,试试下面的方法:

final long endTime, startTime = System.nanoTime();
//code here...
endTime = System.nanoTime();
System.out.println("Code took "+(endTime-startTime)+"nano seconds");

Java基准测试的重要事项是:

Warm up the JIT first by running the code several times before timing it Make sure you run it for long enough to be able to measure the results in seconds or (better) tens of seconds While you can't call System.gc() between iterations, it's a good idea to run it between tests, so that each test will hopefully get a "clean" memory space to work with. (Yes, gc() is more of a hint than a guarantee, but it's very likely that it really will garbage collect in my experience.) I like to display iterations and time, and a score of time/iteration which can be scaled such that the "best" algorithm gets a score of 1.0 and others are scored in a relative fashion. This means you can run all algorithms for a longish time, varying both number of iterations and time, but still getting comparable results.

我正在写一篇关于。net基准测试框架设计的博客。我有一些以前的帖子,也许能给你一些想法——当然,不是每件事都合适,但其中一些可能是合适的。

基准应该测量时间/迭代还是迭代/时间,为什么?

这取决于你要测试什么。

如果您对延迟感兴趣,则使用时间/迭代,如果您对吞吐量感兴趣,则使用迭代/时间。

在Java中编写微基准测试有许多可能的陷阱。

首先:你必须计算各种随机占用时间的事件:垃圾收集、缓存效果(OS对文件的缓存效果和CPU对内存的缓存效果)、IO等。

第二:对于非常短的时间间隔,您不能相信测量时间的准确性。

第三:JVM在执行时优化代码。因此,在同一个jvm实例中不同的运行将变得越来越快。

My recommendations: Make your benchmark run some seconds, that is more reliable than a runtime over milliseconds. Warm up the JVM (means running the benchmark at least once without measuring, that the JVM can run optimizations). And run your benchmark multiple times (maybe 5 times) and take the median-value. Run every micro-benchmark in a new JVM-instance (call for every benchmark new Java) otherwise optimization effects of the JVM can influence later running tests. Don't execute things, that aren't executed in the warmup-phase (as this could trigger class-load and recompilation).