我正在学习大O符号的运行时间和摊销时间。我理解O(n)线性时间的概念,这意味着输入的大小成比例地影响算法的增长。。。例如,二次时间O(n2)等也是如此。甚至是通过阶乘增长的算法,如置换生成器,其O(n!)次。

例如,以下函数为O(n),因为算法与其输入n成比例增长:

f(int n) {
  int i;
  for (i = 0; i < n; ++i)
    printf("%d", i);
}

类似地,如果存在嵌套循环,时间将为O(n2)。

但O(log n)到底是什么?例如,说一个完整的二叉树的高度是O(log n)是什么意思?

我确实知道(也许不是很详细)对数是什么,从这个意义上说:log10 100=2,但我不知道如何识别具有对数时间的函数。


当前回答

O(logn)指的是一个函数(或算法,或算法中的步骤),其工作时间与输入大小的对数成正比(大多数情况下通常以2为基数,但并不总是以2为底,在任何情况下,通过big-O符号*,这都是无关紧要的)。

对数函数是指数函数的倒数。换句话说,如果您的输入呈指数增长(而不是通常认为的线性增长),则函数呈线性增长。

O(logn)运行时间在任何一种分而治之的应用程序中都很常见,因为(理想情况下)每次都会将工作减半。如果在每一个除法或征服步骤中,你都在做恒定时间的工作(或不是恒定时间的,但随着时间的增长比O(log n)慢),那么你的整个函数就是O(log)。相当常见的是,每个步骤都需要输入线性时间;这将相当于O(n log n)的总时间复杂度。

二进制搜索的运行时间复杂性是O(logn)的一个例子。这是因为在二进制搜索中,通过将数组分成两半,并且每一步只关注一半,您总是忽略后面每一步的一半输入。每一步都是恒定的时间,因为在二进制搜索中,您只需要将一个元素与关键字进行比较,就可以确定下一步要做什么,而不管您考虑的数组在任何时候都有多大。因此,大约执行log(n)/log(2)步。

合并排序的运行时间复杂性是O(n log n)的一个例子。这是因为每一步都将阵列一分为二,总共约为log(n)/log(2)步。然而,在每一步中,您都需要对所有元素执行合并操作(无论是对n/2个元素的两个子列表执行一次合并操作,还是对n/4个元素的四个子列表执行两次合并操作都是无关紧要的,因为这增加了每一步对n个元素执行合并的必要性)。因此,总复杂度为O(n log n)。

*记住,根据定义,big-O表示法并不重要。同样,通过改变对数的基数规则,不同基数的对数之间的唯一差异是一个常数因子。

其他回答

我无法理解如何使用日志时间标识函数。

对数运行时间函数最常见的属性是:

选择下一个要执行某些操作的元素是多种可能性之一,并且只需要选择一个。

or

执行操作的元素是n的数字

这就是为什么,例如,在电话簿中查找人是O(logn)。你不需要检查电话簿上的每个人,就能找到合适的人;相反,你可以简单地根据他们的名字的字母顺序进行划分和征服,在每个部分中,你只需要探索每个部分的一个子集,就可以最终找到某人的电话号码。

当然,一本更大的电话簿仍然需要更长的时间,但它的增长速度不会像增加电话簿的比例那样快。


我们可以扩展电话簿示例,以比较其他类型的操作及其运行时间。我们将假设我们的电话簿中有具有唯一名称的业务(“黄页”)和可能没有唯一名称的人员(“白页”)。电话号码最多分配给一个人或一家公司。我们还将假设翻到特定页面需要恒定的时间。

以下是我们可能在电话簿上执行的一些操作的运行时间,从最快到最慢:

O(1)(在最坏的情况下):给定企业名称所在的页面和企业名称,找到电话号码。O(1)(在一般情况下):给定一个人的名字和他们的名字所在的页面,找到电话号码。O(log n):给定一个人的名字,在书中你还没有搜索到的部分的中途随机抽取一个点,然后检查这个人的名字是否在这个点上,从而找到电话号码。然后在书中人名所在的部分重复这个过程。(这是对人名的二进制搜索。)O(n):查找电话号码包含数字“5”的所有人。O(n):给定一个电话号码,找到拥有该号码的人或企业。O(n log n):打印机的办公室出现了混乱,我们的电话簿上的所有页面都以随机顺序插入。通过查看每一页上的名字,然后将该页放在新的空电话簿中的适当位置,修正顺序,使其正确。

对于以下示例,我们现在在打印机的办公室。电话簿等待邮寄给每位居民或企业,每个电话簿上都有一个标签,标明应该邮寄到哪里。每个人或企业都有一本电话簿。

O(n log n):我们想让电话簿个性化,所以我们将在他们指定的副本中找到每个人或企业的名字,然后在电话簿中圈出他们的名字,并为他们的惠顾写一封简短的感谢信。O(n2):办公室发生了一个错误,每个电话簿中的每个条目在电话号码末尾都有一个额外的“0”。取出一些白色,去掉每个零。O(n·n!):我们准备好把电话簿装到码头上了。不幸的是,原本要装书的机器人已经失控了:它正在把书按随机顺序放在卡车上!更糟糕的是,它把所有的书都装到卡车上,然后检查它们的顺序是否正确,如果不正确,它就把它们卸下来,重新开始。(这是可怕的bogo类型。)O(nn):你把机器人修好,这样它就能正确地装载东西。第二天,你的一个同事对你开了个玩笑,把装卸台机器人连接到自动打印系统上。每次机器人去装载一本原版书时,工厂打印机都会对所有的电话簿进行重复打印!幸运的是,机器人的错误检测系统足够复杂,当它遇到要加载的复制书时,它不会尝试打印更多的副本,但它仍然必须加载已打印的每一本原始和复制书。

下面的解释是使用完全平衡的二叉树来帮助您理解我们如何获得对数时间复杂度。

二叉树是一种情况,其中大小为n的问题被划分为大小为n/2的子问题,直到我们达到大小为1的问题:

这就是你如何得到O(logn),这是在上面的树上需要完成的工作量,以获得解决方案。

具有O(logn)时间复杂度的常见算法是二进制搜索,其递归关系为T(n/2)+O(1),即在树的每个后续级别上,您将问题分成一半,并执行恒定数量的额外工作。

我一直以来在脑海中想象运行在O(log n)中的算法的最佳方式如下:

如果您将问题大小增加一个乘法量(即将其大小乘以10),则做功仅增加一个加法量。

将此应用于二叉树问题,这样您就有了一个很好的应用程序:如果将二叉树中的节点数加倍,则高度仅增加1(一个加法量)。如果再增加一倍,它仍然只增加了1。(显然,我假设它保持平衡)。这样,当问题规模成倍增加时,你的工作量不会加倍,而只是做了稍微多一点的工作。这就是为什么O(logn)算法非常棒的原因。

O(logN)基本上意味着时间线性上升,而N指数上升。因此,如果计算10个元素需要1秒,则计算100个元素需要2秒,计算1000个元素需要3秒,依此类推。

​当我们进行分而治之的算法(如二进制搜索)时,它是O(logn)。另一个例子是快速排序,每次我们将数组分成两部分,每次都需要O(N)时间才能找到一个枢轴元素。因此,N O(log N)

如果你正在寻找一个基于直觉的答案,我想为你提供两种解释。

想象一下一座很高的山,它的底部也很宽。要到达山顶,有两种方式:一种是一条围绕山顶螺旋延伸的专用通道,另一种是切割出的小露台状雕刻,以提供楼梯。现在,如果第一种方式在线性时间O(n)内到达,则第二种方式是O(logn)。想象一个算法,它接受整数n作为输入,并在时间上与n成比例地完成,那么它是O(n)或θ。