周围有一些数据结构非常有用,但大多数程序员都不知道。他们是哪一个?

每个人都知道链表、二叉树和散列,但比如Skip列表和Bloom过滤器。我想知道更多不太常见但值得了解的数据结构,因为它们依赖于伟大的想法,丰富了程序员的工具箱。

PS:我还对舞蹈链接等技术感兴趣,这些技术巧妙地利用了通用数据结构的财产。

编辑:请尝试包含更详细描述数据结构的页面链接。此外,试着补充几句关于数据结构为什么很酷的话(正如乔纳斯·Kölker已经指出的那样)。此外,尝试为每个答案提供一个数据结构。这将允许更好的数据结构仅根据其投票结果浮到顶部。


尝试,也称为前缀树或临界位树,已经存在了40多年,但仍然相对未知。在“TRASH-一个动态LC trie和哈希数据结构”中描述了一个非常酷的trys用法,它将trie与哈希函数结合在一起。


张开树怎么样?

此外,Chris Okasaki的纯功能数据结构也在脑海中浮现。


以下是一些:

后缀尝试。适用于几乎所有类型的字符串搜索(http://en.wikipedia.org/wiki/Suffix_trie#Functionality). 另请参见后缀数组;它们没有后缀树那么快,但要小得多。飞溅的树木(如上所述)。它们很酷的原因有三个:它们很小:您只需要像在任何二叉树中那样的左右指针(不需要存储节点颜色或大小信息)它们(相对而言)很容易实施它们为一整套“测量标准”提供了最优的摊余复杂度(log n查找时间是每个人都知道的时间)。看见http://en.wikipedia.org/wiki/Splay_tree#Performance_theorems堆排序的搜索树:在树中存储一堆(key,prio)对,这样它就是一个关于关键字的搜索树,并根据优先级进行堆排序。人们可以看到这样一棵树有一个独特的形状(它并不总是完全堆积在左边)。使用随机优先级,它可以为您提供预期的O(log n)搜索时间,IIRC。一个小生境是具有O(1)邻居查询的无向平面图的邻接列表。与其说这是一种数据结构,不如说是一种组织现有数据结构的特定方式。这是如何做到的:每个平面图都有一个节点,其阶数最多为6。选择这样一个节点,将其邻居放在其邻居列表中,将其从图中删除,然后递归直到图为空。当给定一对(u,v)时,在v的邻居列表中查找u,在u的邻居列表上查找v。两者的大小都最多为6,因此这是O(1)。

根据上面的算法,如果u和v是邻居,那么v的列表中不会同时有u和v。如果需要,只需将每个节点缺失的邻居添加到该节点的邻居列表中,但要存储快速查找所需的邻居列表的数量。


空间索引,特别是R-树和KD树,有效地存储空间数据。它们适用于地理地图坐标数据和VLSI位置和路线算法,有时也适用于最近邻搜索。

位阵列紧凑地存储单个位,并允许快速位操作。


Van Emde Boas树。我甚至有一个C++实现,最多支持2^20个整数。


Van Emde Boas树

我想知道它们为什么很酷会很有用。一般来说,“为什么”这个问题是最重要的;)

我的答案是,他们给你O(log-logn)字典,其中包含{1..n}个键,而与使用的键的数量无关。就像重复减半得到O(log n)一样,重复平方得到O(log-log n),这就是vEB树中发生的情况。


Kd-Trees是实时光线跟踪中使用的空间数据结构,它的缺点是需要裁剪与不同空间交叉的三角形。一般来说,BVH更快,因为它们更轻。MX-CIF四叉树,通过将规则四叉树与四叉树边缘的二叉树组合,存储边界框而不是任意点集。HAMT,由于所涉及的常数,访问时间通常超过O(1)个哈希图的分层哈希图。反向索引,在搜索引擎界非常有名,因为它用于快速检索与不同搜索词相关的文档。

大多数(如果不是全部)记录在NIST算法和数据结构词典中


成对堆是一种堆数据结构,具有相对简单的实现和出色的实际摊余性能。


Bloom过滤器:m位的位数组,最初全部设置为0。

要添加一个项,您可以通过k个哈希函数运行它,该函数将在数组中为您提供k个索引,然后将其设置为1。

要检查集合中是否有项目,请计算k个索引并检查它们是否都设置为1。

当然,这给出了一些误报的概率(根据维基百科,大约是0.61^(m/n),其中n是插入项目的数量)。假阴性是不可能的。

删除项是不可能的,但您可以实现计数布隆过滤器,由整数数组和递增/递减表示。


Splay Trees很酷。它们以将最常查询的元素移到更靠近根的方式重新排序。


我喜欢treaps——这是一个简单而有效的想法,即在二进制搜索树上叠加具有随机优先级的堆结构,以平衡它。


二进制决策图(我最喜欢的数据结构,擅长表示布尔方程并解决它们。适用于很多事情)堆(一个树,其中节点的父节点总是与节点的子节点保持某种关系,例如,节点的父级总是大于它的每个子节点(最大堆))优先级队列(实际上只有最小堆和最大堆,有助于维护大量元素的顺序,例如,应该首先删除具有最高值的项目)哈希表(具有各种查找策略和桶溢出处理)平衡的二进制搜索树(每种都有自己的优点)RB树(当以有序方式插入、查找、删除和迭代时,总体良好)Avl树(查找速度比RB快,但其他方面与RB非常相似)Splay树(当最近使用的节点可能被重用时,查找速度更快)融合树(利用快速乘法获得更好的查找时间)B+树(用于数据库和文件系统中的索引,当从索引读取/写入索引的延迟很长时非常有效)。空间索引(非常适合查询点/圆/矩形/线/立方体是否彼此接近或包含在其中)BSP树四叉树八叉树范围树许多相似但略有不同的树木,不同的尺寸区间树(很好地找到重叠区间,线性)图邻接列表(基本上是边的列表)邻接矩阵(表示图的有向边的表,每边一个位。对于图遍历非常快速)

这些是我能想到的。维基百科上还有更多关于数据结构的内容


跳过列表非常整洁。

维基百科跳过列表是一种概率数据结构,基于多个并行、排序的链接列表,其效率与二进制搜索树相当(大多数操作的顺序日志n平均时间)。

它们可以作为平衡树的替代(使用概率平衡而不是严格执行平衡)。它们很容易实现,而且比红黑树更快。我认为他们应该在每一个优秀的程序员工具箱中。

如果你想深入了解跳过列表,这里有一个麻省理工学院算法简介讲座视频的链接。

此外,这里还有一个Java小程序,直观地演示了跳过列表。


绳子:这是一种允许廉价的前缀、子字符串、中间插入和附加的字符串。我真的只使用过一次,但其他结构都不够。常规的字符串和数组前缀对于我们所需要做的事情来说太昂贵了,而且逆转一切都是不可能的。


我认为当您需要将一堆项目划分为不同的集合和查询成员时,不联合集合非常适合。联合和查找操作的良好实施导致摊余成本实际上是恒定的(如果我正确回忆起我的数据结构类,则与阿克曼南函数相反)。


任何有3D渲染经验的人都应该熟悉BSP树。通常,这是一种通过构造3D场景来进行渲染的方法,该方法可以在知道相机坐标和方位的情况下进行管理。

二进制空间分区(BSP)是一种递归细分a的方法通过超平面将空间划分为凸集。该细分产生通过方法表示场景树数据结构的BSP树。换句话说,这是一种方法形状复杂的破碎多边形转化为凸集,或更小多边形完全由非反射角(小于180°). 更一般的描述空间分区,请参见空间分区。最初,提出了这种方法在3D计算机图形方面渲染效率。其他一些应用程序包括执行具有形状的几何操作(构造实体几何),机器人和3D中的碰撞检测计算机游戏和其他计算机涉及处理的应用程序复杂的空间场景。


增强的哈希算法非常有趣。线性哈希很简单,因为它允许一次在哈希表中拆分一个“桶”,而不是重新哈希整个表。这对于分布式缓存特别有用。然而,对于大多数简单的拆分策略,您最终会快速连续地拆分所有存储桶,并且表的负载系数波动非常严重。

我认为螺旋哈希法也很好。与线性哈希一样,一次拆分一个存储桶,存储桶中的记录只有不到一半被放入同一个新存储桶中。它非常干净和快速。然而,如果每个“桶”都由具有类似规格的机器托管,则效率可能很低。为了充分利用硬件,您需要混合使用功能较弱和功能更强的机器。


二进制决策图是我最喜欢的数据结构之一,或者实际上是降序二进制决策图(ROBDD)。

例如,此类结构可用于:

表示项目集合并对这些集合执行非常快速的逻辑运算。任何布尔表达式,旨在查找表达式的所有解

注意,许多问题可以用布尔表达式表示。例如,suduku的解可以表示为布尔表达式。为该布尔表达式构建BDD将立即生成解决方案。


霍夫曼树-用于压缩。


循环或环形缓冲区-用于流式传输等。


计数的未排序平衡树。

非常适合文本编辑器缓冲区。

http://www.chiark.greenend.org.uk/~sgtatham/算法/cbtree.html


我喜欢字符串处理的后缀树和数组,平衡列表的跳过列表,自动平衡树的显示树


看看唐纳德·克努思(Donald Knuth)展示的侧面堆。

http://stanford-online.stanford.edu/seminars/knuth/071203-knuth-300.asx


哈希表的一个有趣的变体叫做布谷鸟哈希。为了处理哈希冲突,它使用多个哈希函数而不是1。通过从主哈希指定的位置删除旧对象,并将其移动到备用哈希函数指定的位置,可以解决冲突。Cuckoo Hashing允许更有效地使用内存空间,因为您只需要3个哈希函数就可以将负载因子提高91%,而且访问时间也很长。


跳过列表实际上非常棒:http://en.wikipedia.org/wiki/Skip_list


远离所有这些图形结构,我只喜欢简单的环形缓冲区。

如果实施得当,您可以在保持性能的同时,甚至可以提高性能,从而大大减少内存占用。


Fast Compact尝试:

Judy数组:用于位、整数和字符串的非常快速且内存高效的有序稀疏动态数组。Judy数组比任何二进制搜索树都更快、更节省内存。HAT-trie:一种基于缓存的字符串数据结构基于磁盘的字符串管理的B次尝试


二项式堆有很多有趣的财产,其中最有用的是合并。


斐波那契堆

它们被用于一些已知的最快算法(渐近)中,用于许多与图相关的问题,例如最短路径问题。Dijkstra的算法在标准二进制堆的O(E log V)时间内运行;使用斐波那契堆将其提高到O(E+V log V),这对于密集图来说是一个巨大的加速。然而,不幸的是,它们有一个很高的恒定因子,往往使它们在实践中不切实际。


我认为标准数据结构的无锁替代方案,即无锁队列、堆栈和列表被忽略了。随着并发性成为更高的优先级,它们变得越来越重要,并且比使用互斥或锁来处理并发读/写更令人钦佩。

以下是一些链接http://www.cl.cam.ac.uk/research/srg/netos/lock-free/http://www.research.ibm.com/people/m/michael/podc-1996.pdf[PDF链接]http://www.boyet.com/Articles/LockfreeStack.html

迈克·阿克顿(Mike Acton)的博客中有一些关于无锁设计和方法的优秀文章


您可以使用最小堆来在恒定时间内找到最小元素,或者使用最大堆来找到最大元素。但如果你想同时做这两项操作呢?可以使用“最小值-最大值”在恒定时间内执行这两个操作。它通过使用最小-最大排序来工作:在连续树级别之间交替进行最小和最大堆比较。


我很惊讶没有人提到Merkle树(即哈希树)。

在许多情况下(P2P程序、数字签名),当您只有部分文件可用时,您需要验证整个文件的哈希。


一个鲜为人知但相当漂亮的数据结构是Fenwick树(有时也称为二进制索引树或BIT)。它存储累积和并支持O(log(n))运算。虽然累积和听起来不太令人兴奋,但它可以用于解决许多需要排序/log(n)数据结构的问题。

IMO的主要卖点是易于实施。在解决算法问题时非常有用,否则将涉及编码红黑/avl树。


看看手指树,特别是如果你是前面提到的纯函数数据结构的粉丝。它们是持久序列的功能表示,支持以摊销的恒定时间访问末端,以及以较小片段的大小按时间对数连接和拆分。

根据原文:

我们的函数2-3指树是Okasaki(1998)介绍的一种通用设计技术的一个实例,称为隐式递归减速。我们已经注意到,这些树是他的隐式deque结构的扩展,用2-3个节点替换对,以提供高效连接和拆分所需的灵活性。

手指树可以用幺半群参数化,使用不同的幺半群将导致树的不同行为。这使手指树可以模拟其他数据结构。


正确的字符串数据结构。几乎每个程序员都满足于一种语言对结构的任何原生支持,而这种支持通常是低效的(尤其是对于构建字符串,你需要一个单独的类或其他东西)。

最糟糕的是将字符串作为C中的字符数组,并依赖NULL字节来确保安全。


Zippers——数据结构的衍生物,可以修改结构,使其具有“光标”的自然概念——当前位置。这些非常有用,因为它们保证了标记不会超出范围——例如在xmonad窗口管理器中使用,以跟踪哪个窗口已聚焦。

令人惊讶的是,您可以通过将微积分技术应用于原始数据结构的类型来派生它们!


嵌套集用于表示关系数据库中的树并对其运行查询。例如,ActiveRecord(RubyonRails的默认ORM)附带了一个非常简单的嵌套集插件,这使得使用树变得微不足道。


我个人认为稀疏矩阵数据结构非常有趣。http://www.netlib.org/linalg/html_templates/node90.html

著名的BLAS库使用这些。当您处理包含100000行和列的线性系统时,使用它们变得至关重要。其中一些还类似于计算机图形中常见的紧凑网格(基本上类似于桶排序网格)。http://www.cs.kuleuven.be/~ares/publications/LD08CFRGRT/LD08CFRGRT.pdf

同样就计算机图形而言,MAC网格有些有趣,但这仅仅是因为它们很聪明。http://www.seas.upenn.edu/~cis665/projects/Liquiation_665_Report.pdf


它非常特定于领域,但半边缘数据结构非常整洁。它提供了一种在多边形网格(面和边)上迭代的方法,这在计算机图形和计算几何中非常有用。


优先级取消队列比维护两个不同排序的独立优先级队列更便宜。http://www.alexandria.ucsb.edu/middleware/javadoc/edu/ucsb/adl/middleware/PriorityDeque.htmlhttp://cphstl.dk/Report/Priority-deque/cphstl-report-2001-14.pdf


增量列表/增量队列在cron或事件模拟器等程序中使用,以确定下一个事件何时应该触发。http://everything2.com/title/delta+列表http://www.cs.iastate.edu/~cs554/lec_notes/delta_clock.pdf


向左倾斜的红黑树。罗伯特·塞奇威克(Robert Sedgewick)于2008年发表的红黑树的一个显著简化的实现(大约是要实现的代码行的一半)。如果您在红黑树的实现方面遇到过困难,请阅读此变体。

与安德森树非常相似(如果不是完全相同)。


不是真正的数据结构;这更像是优化动态分配阵列的一种方式,但Emacs中使用的间隙缓冲区有点酷。


Scapegoat树。普通二叉树的一个典型问题是它们变得不平衡(例如,当按升序插入键时)

平衡二叉树(AKA AVL树)在每次插入后都会浪费大量时间进行平衡。

红黑树保持平衡,但每个节点都需要额外的存储空间。

Scapegoat树像红黑树一样保持平衡,但不需要任何额外的存储。他们通过在每次插入后分析树并进行微小调整来实现这一点。看见http://en.wikipedia.org/wiki/Scapegoat_tree.


BK树或Burkhard Keller树是一种基于树的数据结构,可用于快速查找字符串的近似匹配项。


环境跟踪递归结构。

编译器使用递归但不像树的结构。内部作用域有一个指向封闭作用域的指针,因此嵌套是由内向外的。验证变量是否在范围内是从内部范围到封闭范围的递归调用。

public class Env
{    
    HashMap<String, Object> map;
    Env                     outer;

    Env()
    {
        outer = null;
        map = new HashMap();
    }

    Env(Env o)
    {
        outer = o;
        map = new HashMap();
    }

    void put(String key, Object value)
    {
        map.put(key, value);
    }

    Object get(String key)
    {
        if (map.containsKey(key))
        {
            return map.get(key);
        }
        if (outer != null)
        {
            return outer.get(key);
        }
        return null;
    }

    Env push()
    {
        return new Env(this);
    }

    Env pop()
    {
        return outer;
    }
}

我不确定这个结构是否有名字。我称之为一份由内而外的清单。


有一种巧妙的数据结构,它使用数组来保存元素的数据,但数组在链接列表/数组中链接在一起。

这确实具有这样的优点,即对元素的迭代非常快(比纯链接列表方法更快),并且在内存和/或(去)分配中移动带有元素的数组的成本最低。(正因为如此,此数据结构对于模拟工作非常有用)。

我从这里知道:

http://software.intel.com/en-us/blogs/2010/03/26/linked-list-verses-array/

“……并且一个额外的数组被分配并链接到粒子数组的单元格列表中。这在某些方面类似于TBB实现其并发容器的方式。”(这是关于链接列表与数组的性能)


持久数据结构


其他人已经提出了Burkhard Keller Trees,但我想我可能会再次提及它们,以便插入我自己的实现

http://well-adjusted.de/mspace.py/index.html

周围有更快的实现(参见ActiveState的Python配方或其他语言的实现),但我认为/希望我的代码有助于理解这些数据结构。

顺便说一句,BK和VP树可用于搜索类似字符串。只要距离函数满足几个条件(正、对称、三角形不等式),就可以对任意对象进行相似性搜索。


Splash桌很棒。它们就像一个普通的哈希表,只是它们保证了恒定的时间查找,并且可以处理90%的利用率而不损失性能。它们是布谷鸟哈希(也是一种很棒的数据结构)的推广。它们看起来确实有专利,但和大多数纯软件专利一样,我不会太担心。


铲斗大队

它们在Apache中被广泛使用。基本上,它们是一个在环中围绕自身循环的链接列表。我不确定它们是否在Apache和Apache模块之外使用,但它们适合作为一种很酷但鲜为人知的数据结构。桶是一些任意数据的容器,桶大队是桶的集合。其思想是,您希望能够在结构中的任何点修改和插入数据。

假设您有一个bucket旅,其中包含一个html文档,每个bucket包含一个字符。您希望将所有<和>符号转换为&lt;并且&gt;实体。当您遇到<或>符号时,bucket旅允许您在旅中插入一些额外的bucket,以适应实体所需的额外字符。因为铲斗大队在一个环中,您可以向后或向前插入。这比使用简单的缓冲区要容易得多(在C语言中)。

关于铲斗大队的一些参考信息如下:

Apache Bucket旅参考

Buckets和Brigades简介


我以前和WPL Trees一起过得很好。最小化分支加权路径长度的树变体。权重由节点访问决定,以便频繁访问的节点迁移到更靠近根的位置。不知道它们与八字树相比如何,因为我从未使用过。


球树。只是因为它们让人傻笑。

球树是索引度量空间中的点的数据结构。这是一篇关于构建它们的文章。它们通常用于查找点的最近邻居或加速k均值。


芬威克树。这是一种数据结构,用于计算向量中两个给定的子索引i和j之间的所有元素的总和。简单的解决方案是,从开始时就预先计算总和,不允许更新项目(必须做O(n)工作才能跟上)。

Fenwick Trees允许您在O(logn)中更新和查询,它的工作方式非常简单。芬威克的原始论文对这一点做了很好的解释,可以在这里免费获得:

http://www.cs.ubc.ca/local/reading/proceedings/spe91-95/spe/vol24/issue3/spe884.pdf

它的父亲RQM树也很酷:它允许您保存关于向量的两个索引之间的最小元素的信息,它还可以在O(logn)更新和查询中工作。我喜欢先教RQM,然后教芬威克树。


Hinze和Paterson的2-3手指树是一种功能强大的数据结构瑞士军刀,具有很好的渐近线,适用于各种操作。虽然复杂,但它们比之前的Kaplan和Tarjan通过递归减速实现的持久列表的命令式结构简单得多。

它们作为一个可链接的deque,O(1)访问任意一端,O(log-min(n,m))追加,并提供O(log-main(n),length-n))索引,直接访问序列的任何部分上的单形前缀和。

实现存在于Haskell、Coq、F#、Scala、Java、C、Clojure、C#和其他语言中。

您可以使用它们来实现优先级搜索队列、区间映射、具有快速头部访问的绳索、映射、集合、可链接序列或几乎任何结构,您可以将其表述为在快速可链接/可索引序列上收集单形结果。

我还有一些幻灯片描述了它们的派生和使用。


Gerth Stølting Brodal和Chris Okasaki的自助倾斜二项式堆:

尽管它们的名字很长,但即使在函数设置中,它们也提供了渐近最优的堆操作。

O(1)尺寸,接头,插入件,最小值O(log n)删除最小值

注意,union需要O(1)而不是O(log n)时间,这与数据结构教科书中通常包含的更为知名的堆(如左派堆)不同。与斐波那契堆不同,这些渐近线是最坏的情况,而不是摊销,即使持续使用!

Haskell中有多种实现。

在Brodal提出了一个具有相同渐近线的命令堆之后,它们由Brodal和Okasaki共同导出。


我有时使用反转列表来存储范围,它们通常用于在正则表达式中存储字符类。例如,请参见http://www.ibm.com/developerworks/linux/library/l-cpinv.html

另一个很好的用例是加权随机决策。假设你有一个符号和相关概率的列表,你想根据这些概率随机选择它们

   a => 0.1
   b => 0.5
   c => 0.4

然后,你对所有概率进行一次连续求和:

  (0.1, 0.6, 1.0)

这是你的反转列表。生成一个介于0和1之间的随机数,并查找列表中下一个较高条目的索引。你可以用二进制搜索来实现,因为它是排序的。一旦获得了索引,就可以在原始列表中查找符号。

如果有n个符号,则每个随机选择的符号都有O(n)个准备时间,然后是O(log(n))个访问时间,与权重分布无关。

反转列表的一种变体使用负数来指示范围的端点,这使得计算某一点上有多少范围重叠变得容易。看见http://www.perlmonks.org/index.pl?node_id=841368例如。


工作窃取队列

无锁数据结构,用于在多个线程之间平均分配工作C/C++中工作窃取队列的实现?


B*树

这是一种以更昂贵的插入为代价的高效搜索的B树。


区域四叉树

(引自维基百科)

区域四叉树通过将区域分解为四个相等的象限、子象限等来表示二维空间的分区,每个叶节点包含对应于特定子区域的数据。树中的每个节点要么正好有四个子节点,要么没有子节点(叶节点)。

像这样的四叉树很适合存储空间数据,例如纬度和经度或其他类型的坐标。

这是我在大学里最喜欢的数据结构。对这家伙进行编码并看到它的工作非常酷。如果你正在寻找一个需要思考并且有点偏离常规的项目,我强烈建议你这样做。无论如何,它比通常在数据结构类中分配的标准BST派生工具有趣得多!

事实上,作为奖励,我在这里找到了(弗吉尼亚理工大学的)课堂项目前的演讲笔记(pdf警告)。


Arne Andersson树是红黑树的一种更简单的替代方案,其中只有正确的链接可以是红色的。这大大简化了维护,同时保持了与红黑树相同的性能。原论文给出了一个很好的简短的插入和删除实现。


展开的链接列表是链接列表的变体,它在每个节点中存储多个元素。它可以显著提高缓存性能,同时减少与存储列表元数据(如引用)相关的内存开销。它与B树有关。

record node {
    node next       // reference to next node in list
    int numElements // number of elements in this node, up to maxElements
    array elements  // an array of numElements elements, with space allocated for maxElements elements
}

min-max堆是实现双端优先级队列的堆的变体。它通过简单地更改堆属性来实现这一点:如果偶数(奇数)级别上的每个元素都小于(大于)所有子级和孙子级,则称树为最小-最大排序。级别从1开始编号。

http://internet512.chonbuk.ac.kr/datastructure/heap/img/heap8.jpg


Fenwick树(或二进制索引树)是一个值得添加的工具。如果您有一个计数器数组,并且需要在查询累积计数时不断更新它们(如PPM压缩),Fenwick树将在O(logn)时间内完成所有操作,并且不需要额外的空间。另请参阅本面漆教程,了解详细介绍。


根据Bloom Filter提到的,可删除Bloom Filter(DlBF)在某些方面优于基本计数变体。看见http://arxiv.org/abs/1005.0352


角落缝合的数据结构。根据总结:

拐角缝合是一种用于表示矩形二维对象。看起来特别适合VLSI交互式编辑系统布局。数据结构有两个重要特征:第一,空白明确表示;第二,矩形区域被缝合在他们的角落像一个拼缝被子。此组织快速算法的结果(线性时间或更好),创建、删除、拉伸和压实。算法如下以简化模型VLSI电路和存储器结构要求如下讨论。测量结果表明拐角缝合要求大约三倍尽可能简单的存储空间代表。


Burrows–Wheeler变换(块排序压缩)

它是压缩的基本算法。假设您想压缩文本文件中的行。你会说,如果你对行进行排序,你就失去了信息。但BWT是这样工作的——它通过对输入进行排序,保持整数索引以恢复原始顺序,从而大大降低了熵。


PATRICIA-检索字母数字编码信息的实用算法,D.R.Morrison(1968)。

PATRICIA树与Trie相关。Tries的问题是,当密钥集稀疏时,即当实际密钥形成潜在密钥集的一个子集时,Trie中的许多(大多数)内部节点只有一个后代,这是非常常见的情况。这导致Trie具有较高的空间复杂性。

http://www.csse.monash.edu.au/~合金/瓷砖AlgdS/树/PATRICIA/


我真的很喜欢间隔树。它们允许您获取一组时间间隔(即开始/结束时间或其他时间),并查询哪些时间间隔包含给定时间,或哪些时间间隔在给定时间段内“活动”。查询可以在O(log n)中完成,预处理是O(n log n)。


DAWG是一种特殊的Trie,其中类似的子树被压缩为单亲。我扩展了修改后的DAWG,并提出了一个漂亮的数据结构ASSDAWG(Anagram Search Sorted DAWG)。这种工作方式是,每当将字符串插入DAWG时,首先对其进行桶排序,然后插入,叶节点保存一个额外的数字,指示如果我们从根到达该叶节点,哪些排列是有效的。这有两大优点:

由于我在插入之前对字符串进行排序,并且DAWG自然会折叠类似的子树,所以我得到了高级别的压缩(例如,“吃”、“吃”和“茶”都变成了一条路径a-e-t,在叶节点处有一个数字列表,指示a-e-t的哪些排列是有效的)。搜索给定字符串的变位现在是非常快速和简单的,因为从根到叶的路径使用排列数保存了叶节点处该路径的所有有效变位。


XOR链表使用两个XOR'd指针来减少双链表的存储需求。有点晦涩但整洁!


多边形网格的半边数据结构和翼边。

适用于计算几何算法。


我不确定这个数据结构是否有名字,但是提议的包含在Boost中的tokenmap数据结构有点有趣。这是一个动态调整大小的映射,其中查找不仅是O(1),而且是简单的数组访问。我写了关于这个数据结构的大部分背景材料,其中描述了它如何工作的基本原理。

操作系统使用类似于tokenmap的东西来将文件或资源句柄映射到表示文件或资源的数据结构。


我喜欢缓存不可见的数据结构。其基本思想是以递归更小的块来布局树,以便许多不同大小的缓存可以利用适合它们的块。这导致了从RAM中的L1缓存到从磁盘读取的大块数据的所有缓存的高效使用,而无需了解任何缓存层的大小细节。


我认为保罗·费拉吉纳和乔凡尼·曼奇尼的FM指数真的很酷。尤其是在生物信息学方面。它本质上是一个压缩的全文索引,利用了后缀数组和参考文本的burrows-wheeler变换的组合。可以在不解压缩整个索引的情况下搜索索引。


直角三角形网络(RTIN)

非常简单的自适应细分网格的方法。拆分和合并操作只需要几行代码。


三元搜索树

快速前缀搜索(用于增量自动完成等)部分匹配(当您想查找字符串X汉明距离内的所有单词时)通配符搜索

很容易实施。


使用2个堆栈实现的队列非常节省空间(与使用至少有1个额外指针/引用开销的链接列表不同)。

如何使用两个堆栈实现队列?

当排队人数很大时,这对我来说效果很好。如果我在一个指针上节省了8个字节,这意味着拥有百万条目的队列节省了大约8MB的RAM。


我认为循环排序是一种非常整洁的排序算法。

这是一种排序算法,用于最小化写入总数。这在处理闪存时尤其有用,因为闪存的寿命与写入量成正比。这是维基百科的文章,但我建议转到第一个链接。(视觉效果不错!)


Zobrist Hashing是一个哈希函数,通常用于表示棋盘位置(如国际象棋),但肯定还有其他用途。它的一个优点是它可以随着电路板的更新而逐步更新。


不连续集合森林允许快速的成员查询和联合操作,并且最著名的是在Kruskal的最小生成树算法中使用。

真正酷的是,这两种操作都按阿克曼函数的倒数比例摊销了运行时间,这使其成为“最快”的非恒定时间数据结构。


当我读到一些与RMQ和LCA相关的算法时,我偶然发现了另一种数据结构笛卡尔树。在笛卡尔树中,两个节点之间的最低共同祖先是它们之间的最小节点。将RMQ问题转换为LCA非常有用。