周围有一些数据结构非常有用,但大多数程序员都不知道。他们是哪一个?

每个人都知道链表、二叉树和散列,但比如Skip列表和Bloom过滤器。我想知道更多不太常见但值得了解的数据结构,因为它们依赖于伟大的想法,丰富了程序员的工具箱。

PS:我还对舞蹈链接等技术感兴趣,这些技术巧妙地利用了通用数据结构的财产。

编辑:请尝试包含更详细描述数据结构的页面链接。此外,试着补充几句关于数据结构为什么很酷的话(正如乔纳斯·Kölker已经指出的那样)。此外,尝试为每个答案提供一个数据结构。这将允许更好的数据结构仅根据其投票结果浮到顶部。


当前回答

有一种巧妙的数据结构,它使用数组来保存元素的数据,但数组在链接列表/数组中链接在一起。

这确实具有这样的优点,即对元素的迭代非常快(比纯链接列表方法更快),并且在内存和/或(去)分配中移动带有元素的数组的成本最低。(正因为如此,此数据结构对于模拟工作非常有用)。

我从这里知道:

http://software.intel.com/en-us/blogs/2010/03/26/linked-list-verses-array/

“……并且一个额外的数组被分配并链接到粒子数组的单元格列表中。这在某些方面类似于TBB实现其并发容器的方式。”(这是关于链接列表与数组的性能)

其他回答

不是真正的数据结构;这更像是优化动态分配阵列的一种方式,但Emacs中使用的间隙缓冲区有点酷。

Zippers——数据结构的衍生物,可以修改结构,使其具有“光标”的自然概念——当前位置。这些非常有用,因为它们保证了标记不会超出范围——例如在xmonad窗口管理器中使用,以跟踪哪个窗口已聚焦。

令人惊讶的是,您可以通过将微积分技术应用于原始数据结构的类型来派生它们!

以下是一些:

后缀尝试。适用于几乎所有类型的字符串搜索(http://en.wikipedia.org/wiki/Suffix_trie#Functionality). 另请参见后缀数组;它们没有后缀树那么快,但要小得多。飞溅的树木(如上所述)。它们很酷的原因有三个:它们很小:您只需要像在任何二叉树中那样的左右指针(不需要存储节点颜色或大小信息)它们(相对而言)很容易实施它们为一整套“测量标准”提供了最优的摊余复杂度(log n查找时间是每个人都知道的时间)。看见http://en.wikipedia.org/wiki/Splay_tree#Performance_theorems堆排序的搜索树:在树中存储一堆(key,prio)对,这样它就是一个关于关键字的搜索树,并根据优先级进行堆排序。人们可以看到这样一棵树有一个独特的形状(它并不总是完全堆积在左边)。使用随机优先级,它可以为您提供预期的O(log n)搜索时间,IIRC。一个小生境是具有O(1)邻居查询的无向平面图的邻接列表。与其说这是一种数据结构,不如说是一种组织现有数据结构的特定方式。这是如何做到的:每个平面图都有一个节点,其阶数最多为6。选择这样一个节点,将其邻居放在其邻居列表中,将其从图中删除,然后递归直到图为空。当给定一对(u,v)时,在v的邻居列表中查找u,在u的邻居列表上查找v。两者的大小都最多为6,因此这是O(1)。

根据上面的算法,如果u和v是邻居,那么v的列表中不会同时有u和v。如果需要,只需将每个节点缺失的邻居添加到该节点的邻居列表中,但要存储快速查找所需的邻居列表的数量。

远离所有这些图形结构,我只喜欢简单的环形缓冲区。

如果实施得当,您可以在保持性能的同时,甚至可以提高性能,从而大大减少内存占用。

张开树怎么样?

此外,Chris Okasaki的纯功能数据结构也在脑海中浮现。