“缓存友好代码”和“缓存友好”代码之间有什么区别?
如何确保编写缓存高效的代码?
“缓存友好代码”和“缓存友好”代码之间有什么区别?
如何确保编写缓存高效的代码?
当前回答
今天的处理器可以处理许多级别的级联内存区域。因此,CPU芯片上会有一堆内存。它可以快速访问此内存。有不同级别的缓存,每次访问速度都比下一次慢(并且更大),直到您到达不在CPU上且访问速度相对较慢的系统内存。
从逻辑上讲,对于CPU的指令集,您只需要引用一个巨大的虚拟地址空间中的内存地址。当你访问一个单独的内存地址时,CPU会去获取它。在过去,它只会获取那个单独的地址。但今天,CPU将在您请求的位周围获取一堆内存,并将其复制到缓存中。它假设如果你要求一个特定的地址,那么你很可能很快就会要求附近的地址。例如,如果您正在复制缓冲区,您将从连续地址读取和写入数据—一个紧接着另一个。
所以今天当你获取一个地址时,它会检查第一级缓存,看看它是否已经将该地址读取到缓存中,如果它没有找到它,那么这就是缓存未命中,它必须进入下一级缓存才能找到它,直到它最终进入主内存。
缓存友好的代码试图使访问在内存中保持紧密,以便最大限度地减少缓存未命中。
所以一个例子是假设你想要复制一个巨大的二维表格。它在内存中以连续的到达行组织,一行紧接着下一行。
如果您从左到右一次复制一行元素,这将是缓存友好的。如果您决定一次复制一列表,您将复制完全相同的内存量,但这将不利于缓存。
其他回答
需要澄清的是,不仅数据应该是缓存友好的,它对代码也同样重要。这除了分支预处理、指令重新排序、避免实际除法和其他技术之外。
通常,代码越密集,存储它所需的缓存线就越少。这会导致更多缓存线可用于数据。
代码不应该到处调用函数,因为它们通常需要一个或多个自己的缓存线,从而导致数据的缓存线更少。
函数应该从缓存行对齐友好地址开始。尽管有(gcc)编译器开关,但要注意,如果函数很短,那么每个函数占用整个缓存线可能会很浪费。例如,如果三个最常用的函数放在一个64字节的缓存行中,那么这比每个函数都有自己的缓存行时浪费更少,并且导致两个缓存行不可用于其他用途。典型的对齐值可以是32或16。
所以,花一些额外的时间让代码更密集。测试不同的构造,编译并检查生成的代码大小和配置文件。
简单来说:缓存不友好代码与缓存友好代码的典型例子是矩阵乘法的“缓存阻塞”。
朴素矩阵乘法看起来像:
for(i=0;i<N;i++) {
for(j=0;j<N;j++) {
dest[i][j] = 0;
for( k=0;k<N;k++) {
dest[i][j] += src1[i][k] * src2[k][j];
}
}
}
如果N较大,例如,如果N*sizeof(elemType)大于缓存大小,则对src2[k][j]的每次访问都将是缓存未命中。
有许多不同的方法可以优化缓存。这里有一个非常简单的示例:不要在内部循环中读取每个缓存行一个项,而是使用所有项:
int itemsPerCacheLine = CacheLineSize / sizeof(elemType);
for(i=0;i<N;i++) {
for(j=0;j<N;j += itemsPerCacheLine ) {
for(jj=0;jj<itemsPerCacheLine; jj+) {
dest[i][j+jj] = 0;
}
for( k=0;k<N;k++) {
for(jj=0;jj<itemsPerCacheLine; jj+) {
dest[i][j+jj] += src1[i][k] * src2[k][j+jj];
}
}
}
}
如果缓存行大小为64字节,并且我们使用32位(4字节)浮点运算,那么每个缓存行有16个项目。仅通过这种简单的转换,缓存未命中的数量就减少了大约16倍。
Fancier变换对2D平铺进行操作,优化多个缓存(L1、L2、TLB),等等。
谷歌搜索“缓存阻塞”的一些结果:
http://stumptown.cc.gt.atl.ga.us/cse6230-hpcta-fa11/slides/11a-matmul-goto.pdf
http://software.intel.com/en-us/articles/cache-blocking-techniques
一个经过优化的缓存阻塞算法的视频动画。
http://www.youtube.com/watch?v=IFWgwGMMrh0
循环平铺关系非常密切:
http://en.wikipedia.org/wiki/Loop_tiling
准备工作
在现代计算机上,只有最低级别的内存结构(寄存器)可以在单个时钟周期内移动数据。然而,寄存器非常昂贵,大多数计算机核心只有不到几十个寄存器。在存储器频谱(DRAM)的另一端,存储器非常便宜(即实际上便宜数百万倍),但在请求接收数据后需要数百个周期。为了弥补超高速和昂贵以及超慢速和廉价之间的差距,高速缓冲存储器被命名为L1、L2、L3,以降低速度和成本。其想法是,大多数正在执行的代码将经常触及一小组变量,而其余的(一组大得多的变量)则很少触及。如果处理器在一级缓存中找不到数据,那么它会在二级缓存中查找。如果不存在,则为三级缓存,如果不存在则为主内存。这些“失误”中的每一个在时间上都是昂贵的。
(类似于高速缓冲存储器是系统存储器,就像系统存储器是硬盘存储一样。硬盘存储非常便宜,但速度非常慢)。
缓存是减少延迟影响的主要方法之一。套用赫伯·萨特的话(下面的cfr.links):增加带宽很容易,但我们无法买到摆脱延迟的方法。
始终通过内存层次结构检索数据(最小==最快到最慢)。缓存命中/未命中通常是指CPU中最高级别缓存中的命中/未中——最高级别我指的是最大的==最慢的。缓存命中率对性能至关重要,因为每次缓存未命中都会导致从RAM(或更糟……)中提取数据,这需要大量时间(RAM需要数百个周期,HDD需要数千万个周期)。相比之下,从(最高级别)缓存读取数据通常只需要几个周期。
在现代计算机体系结构中,性能瓶颈是离开CPU芯片(例如访问RAM或更高版本)。随着时间的推移,情况只会变得更糟。处理器频率的增加目前与性能的提高不再相关。问题是内存访问。因此,CPU的硬件设计工作目前主要集中于优化缓存、预取、管道和并发。例如,现代CPU在缓存上花费了85%的内存,在存储/移动数据上花费了99%!
关于这个问题,有很多话要说。以下是关于缓存、内存层次结构和正确编程的一些重要参考:
阿格纳·福格的页面。在他的优秀文档中,您可以找到涵盖从汇编到C++等语言的详细示例。如果你喜欢视频,我强烈建议你去看看赫伯·萨特(Herb Sutter)的机器架构演讲(youtube)(特别是12:00及以后!)。Christer Ericson(技术总监@Sony)关于内存优化的幻灯片LWN.net的文章“每个程序员都应该了解内存”
缓存友好代码的主要概念
缓存友好代码的一个非常重要的方面是关于局部性的原则,其目标是将相关数据放在内存中以实现高效缓存。就CPU缓存而言,了解缓存线是很重要的,以了解其工作原理:缓存线是如何工作的?
以下特定方面对于优化缓存非常重要:
时间位置:当访问给定的内存位置时,很可能在不久的将来再次访问相同的位置。理想情况下,此时仍将缓存此信息。空间位置:这是指将相关数据放置在彼此接近的位置。缓存发生在许多级别,而不仅仅是在CPU中。例如,当您从RAM读取数据时,通常会提取比特定要求更大的内存块,因为程序很快就会需要这些数据。HDD缓存遵循同样的思路。特别是对于CPU缓存,缓存线的概念非常重要。
使用适当的c++容器
缓存友好与缓存不友好的一个简单例子是c++的std::vector与std::list。std::vector的元素存储在连续内存中,因此访问它们比访问std::list中的元素更容易缓存,std::列表将其内容存储在各处。这是由于空间位置。
Bjarne Stroustrup在这段youtube视频中给出了一个很好的例子(感谢@Mohammad Ali Baydoun的链接!)。
在数据结构和算法设计中不要忽视缓存
只要可能,尽量调整数据结构和计算顺序,以最大限度地利用缓存。这方面的一种常见技术是缓存阻塞(Archive.org版本),这在高性能计算(例如ATLAS)中非常重要。
了解并利用数据的隐式结构
另一个很简单的例子,很多业内人士有时会忘记,即用于存储二维数组的列主排序(如fortran、matlab)与行主排序(例如c、c++)。例如,考虑以下矩阵:
1 2
3 4
在行主排序中,它存储在内存中,为1 2 3 4;在列主排序中,这将存储为1 3 2 4。很容易看出,不利用这种排序的实现将很快遇到(容易避免!)缓存问题。不幸的是,我经常在我的领域(机器学习)看到这样的东西@MatteoTalia在回答中更详细地展示了这个例子。
当从内存中提取矩阵的某个元素时,它附近的元素也将被提取并存储在缓存行中。如果利用排序,这将导致更少的内存访问(因为后续计算所需的下几个值已经在缓存行中)。
为了简单起见,假设缓存包含一个缓存行,该缓存行可以包含2个矩阵元素,并且当从内存中取出给定元素时,下一个元素也是如此。假设我们要对上面示例2x2矩阵中的所有元素求和(我们称之为M):
利用排序(例如,在c++中首先更改列索引):
M[0][0] (memory) + M[0][1] (cached) + M[1][0] (memory) + M[1][1] (cached)
= 1 + 2 + 3 + 4
--> 2 cache hits, 2 memory accesses
不利用排序(例如,在c++中首先更改行索引):
M[0][0] (memory) + M[1][0] (memory) + M[0][1] (memory) + M[1][1] (memory)
= 1 + 3 + 2 + 4
--> 0 cache hits, 4 memory accesses
在这个简单的示例中,利用排序大约使执行速度加倍(因为内存访问需要比计算总和多得多的周期)。实际上,性能差异可能更大。
避免不可预测的分支
现代体系结构的特点是流水线和编译器正在变得非常擅长重新排序代码,以尽量减少由于内存访问造成的延迟。当关键代码包含(不可预测的)分支时,很难或不可能预取数据。这将间接导致更多缓存未命中。
这在这里解释得很好(感谢@0x90的链接):为什么处理排序数组比处理未排序数组更快?
避免虚拟功能
在c++环境中,虚拟方法在缓存未命中方面是一个有争议的问题(普遍的共识是,在性能方面应尽可能避免使用虚拟方法)。虚拟函数在查找过程中可能会导致缓存未命中,但只有在不经常调用特定函数(否则很可能会被缓存)的情况下才会发生这种情况,因此有些人认为这不是问题。有关此问题的参考,请查看:在C++类中使用虚拟方法的性能成本是多少?
常见问题
在具有多处理器缓存的现代体系结构中,一个常见的问题称为错误共享。当每个处理器试图使用另一个内存区域中的数据并试图将其存储在同一缓存行中时,就会发生这种情况。这会导致缓存行(其中包含另一个处理器可以使用的数据)被一次又一次覆盖。实际上,在这种情况下,不同的线程会导致缓存未命中,从而使彼此等待。另请参见(感谢@Matt提供的链接):如何以及何时调整缓存行大小?
RAM内存缓存不佳的一个极端症状(这可能不是本文中的意思)是所谓的抖动。当进程连续生成需要磁盘访问的页面故障(例如访问不在当前页面中的内存)时,就会发生这种情况。
优化缓存使用率主要取决于两个因素。
参考地点
第一个因素(其他人已经提到)是参考的地方性。然而,引用的地点实际上有两个维度:空间和时间。
空间的
空间维度也可以归结为两件事:首先,我们希望将信息密集地打包,这样在有限的内存中就可以容纳更多的信息。这意味着(例如)您需要在计算复杂性方面进行重大改进,以证明基于由指针连接的小节点的数据结构是正确的。
第二,我们希望将一起处理的信息也位于一起。典型的缓存以“行”方式工作,这意味着当您访问某些信息时,附近地址的其他信息将与我们接触的部分一起加载到缓存中。例如,当我触摸一个字节时,缓存可能会在该字节附近加载128或256个字节。为了利用这一点,您通常希望对数据进行排列,以最大限度地提高同时使用其他数据的可能性。
对于一个非常简单的例子,这可能意味着线性搜索比二进制搜索更具竞争力。一旦从缓存行加载了一个项目,那么使用该缓存行中的其余数据几乎是免费的。只有当数据足够大,二进制搜索可以减少访问的缓存行数时,二进制搜索才会变得明显更快。
时间
时间维度意味着当您对某些数据执行某些操作时,您希望(尽可能)同时对该数据执行所有操作。
既然您已经将其标记为C++,我将指出一个相对不友好的缓存设计的经典示例:std::valarray。valarray重载了大多数算术运算符,所以我可以(例如)说a=b+c+d;(其中a、b、c和d都是valarrays),以便对这些数组进行元素加法。
这个问题是它遍历一对输入,将结果放入一个临时的,遍历另一对输入等等。对于大量数据,一次计算的结果可能会在下一次计算中使用之前从缓存中消失,因此我们最终会在得到最终结果之前重复读取(和写入)数据。如果最终结果的每个元素都类似于(a[n]+b[n])*(c[n]+d[n]);,我们通常更希望读取每个a[n]、b[n]、c[n]和d[n]一次,进行计算,写入结果,递增n并重复,直到完成。2
线路共享
第二个主要因素是避免线路共享。为了理解这一点,我们可能需要备份并稍微看看缓存是如何组织的。最简单的缓存形式是直接映射。这意味着主存储器中的一个地址只能存储在缓存的一个特定位置。如果我们使用映射到缓存中同一位置的两个数据项,则效果很差——每次使用一个数据项时,必须从缓存中清除另一个数据,以便为另一个腾出空间。缓存的其余部分可能为空,但这些项不会使用缓存的其他部分。
为了防止这种情况,大多数缓存都是所谓的“集合关联”。例如,在4路集合关联缓存中,主内存中的任何项目都可以存储在缓存中的4个不同位置中的任意位置。因此,当缓存要加载一个项目时,它会在这四个项目中查找最近最少使用的3个项目,将其刷新到主内存,并在其位置加载新项目。
问题可能相当明显:对于直接映射的缓存,恰好映射到同一缓存位置的两个操作数可能会导致错误行为。N路集合关联缓存将数字从2增加到N+1。将缓存组织为更多的“方式”需要额外的电路,通常运行速度较慢,因此(例如)8192方式集关联缓存也很少是好的解决方案。
最终,这个因素在可移植代码中更难控制。您对数据放置位置的控制通常相当有限。更糟糕的是,从地址到缓存的精确映射在其他类似处理器之间有所不同。然而,在某些情况下,可以做一些事情,比如分配一个大的缓冲区,然后只使用分配的部分来确保数据共享相同的缓存线(即使您可能需要检测到确切的处理器并相应地执行此操作)。
虚假共享
还有一个相关的项目叫做“虚假分享”。这出现在多处理器或多核系统中,其中两个(或多个)处理器/核具有独立的数据,但位于同一缓存线中。这迫使两个处理器/内核协调对数据的访问,即使每个处理器/内核都有自己的独立数据项。特别是如果两个处理器交替修改数据,这可能会导致数据在处理器之间不断穿梭,从而导致速度大幅放缓。通过将缓存组织成更多的“方式”或类似的方式,这是不容易解决的。防止这种情况的主要方法是确保两个线程很少(最好永远不会)修改可能位于同一缓存行中的数据(同时也要注意控制数据分配地址的难度)。
熟悉C++的人可能会想,这是否可以通过表达式模板等方式进行优化。我很肯定答案是肯定的,这是可能的,如果是的话,这可能是一场相当可观的胜利。然而,我不知道有人这样做,而且考虑到valarray的使用量很少,看到有人这么做,我至少会有点惊讶。如果有人想知道valarray(专门为性能而设计的)是如何严重错误的,那就归结为一件事:它确实是为像旧版Crays这样的机器设计的,使用了快速的主内存,没有缓存。对他们来说,这真的是一个近乎理想的设计。是的,我在简化:大多数缓存并没有精确地测量最近最少使用的项目,但它们使用了一些启发式方法,目的是为了接近这一点,而不必为每次访问保留完整的时间戳。
除了@Marc Claesen的答案之外,我认为缓存不友好代码的一个有启发性的经典例子是按列而不是按行扫描C二维数组(例如位图图像)的代码。
在一行中相邻的元素在内存中也是相邻的,因此按顺序访问它们意味着按升序访问它们;这是缓存友好的,因为缓存倾向于预取连续的内存块。
相反,按列访问这样的元素对缓存不友好,因为同一列上的元素在内存中彼此相距很远(特别是,它们的距离等于行的大小),所以当您使用这种访问模式时,您在内存中跳跃,可能会浪费缓存检索内存中附近元素的努力。
而破坏表演所需的一切就是
// Cache-friendly version - processes pixels which are adjacent in memory
for(unsigned int y=0; y<height; ++y)
{
for(unsigned int x=0; x<width; ++x)
{
... image[y][x] ...
}
}
to
// Cache-unfriendly version - jumps around in memory for no good reason
for(unsigned int x=0; x<width; ++x)
{
for(unsigned int y=0; y<height; ++y)
{
... image[y][x] ...
}
}
在具有小缓存和/或使用大阵列的系统中(例如,当前机器上的10+百万像素24bpp图像),这种效果可能非常显著(速度上有几个数量级);因此,如果您必须进行多次垂直扫描,通常最好先将图像旋转90度,然后再执行各种分析,将缓存不友好的代码限制在旋转范围内。