我一直在深入研究Linux内核的一些部分,发现了这样的调用:

if (unlikely(fd < 0))
{
    /* Do something */
}

or

if (likely(!err))
{
    /* Do something */
}

我找到了它们的定义:

#define likely(x)       __builtin_expect((x),1)
#define unlikely(x)     __builtin_expect((x),0)

我知道它们是为了优化,但它们是如何工作的呢?使用它们可以减少多少性能/大小?至少在瓶颈代码中(当然是在用户空间中),这样做是否值得(可能还会失去可移植性)。


当前回答

它们是给编译器的提示,用于在分支上生成提示前缀。在x86/x64上,它们占用一个字节,因此每个分支最多增加一个字节。至于性能,它完全取决于应用程序——在大多数情况下,处理器上的分支预测器会忽略它们。

编辑:忘了一个他们能真正帮上忙的地方。它可以允许编译器重新排序控制流图,以减少“可能”路径的分支数量。在检查多个退出情况的循环中,这可以有显著的改进。

其他回答

它们是对编译器发出指令的提示,这些指令将导致分支预测倾向于跳转指令的“可能”一侧。这可能是一个巨大的胜利,如果预测是正确的,这意味着跳跃指令基本上是免费的,将采取零周期。另一方面,如果预测是错误的,那么这意味着处理器管道需要刷新,这可能会花费几个周期。只要预测在大多数时候是正确的,这将有利于性能。

就像所有这样的性能优化一样,你应该只在广泛的分析之后进行,以确保代码确实处于瓶颈中,并且可能考虑到微观性质,它正在一个紧密的循环中运行。一般来说,Linux开发人员都很有经验,所以我可以想象他们会这样做。他们不太关心可移植性,因为他们只针对gcc,而且他们对希望生成的程序集有非常接近的想法。

这些宏向编译器提供了关于分支可能走向的提示。如果这些宏可用,它们将扩展为特定于GCC的扩展。

GCC使用这些来优化分支预测。例如,如果您有以下内容

if (unlikely(x)) {
  dosomething();
}

return x;

然后它可以重新构造这段代码,使其更像:

if (!x) {
  return x;
}

dosomething();
return x;

这样做的好处是,当处理器第一次使用分支时,会有很大的开销,因为它可能已经预先加载和执行了代码。当它决定使用分支时,它必须使其无效,并从分支目标开始。

大多数现代处理器现在都有某种分支预测,但这只在您之前已经通过了分支,并且分支仍然在分支预测缓存中时才有帮助。

在这些场景中,编译器和处理器还可以使用许多其他策略。你可以在Wikipedia上找到关于分支预测器如何工作的更多细节:http://en.wikipedia.org/wiki/Branch_predictor

根据Cody的评论,这与Linux无关,但这是对编译器的一个提示。会发生什么取决于体系结构和编译器版本。

Linux中的这个特殊特性在驱动程序中被误用了。正如osgx在hot属性语义中指出的那样,在一个块中调用的任何热函数或冷函数都可以自动提示该条件是否可能。例如,dump_stack()被标记为冷,所以这是多余的,

 if(unlikely(err)) {
     printk("Driver error found. %d\n", err);
     dump_stack();
 }

gcc的未来版本可能会根据这些提示选择性地内联一个函数。也有建议说,它不是布尔值,而是一个分数,就像在最有可能,等等。一般来说,应该优先使用一些替代机制,如冷。没有理由在炎热的道路以外的任何地方使用它。编译器在一种架构上的功能在另一种架构上可能完全不同。

(一般评论-其他答案涵盖了细节)

没有理由因为使用它们而失去可移植性。

你总是可以选择创建一个简单的无效果“内联”或宏,这将允许你在其他平台上使用其他编译器进行编译。

如果您在其他平台上,则无法获得优化的好处。

这些是GCC函数,供程序员向编译器提示给定表达式中最有可能出现的分支条件。这允许编译器构建分支指令,以便在最常见的情况下执行最少的指令。

如何构建分支指令取决于处理器架构。