• 什么是堆叠和堆叠?
  • 他们在电脑记忆中身处何方?
  • 它们在多大程度上受到操作系统或语言运行时间的控制?
  • 其范围是什么?
  • 是什么决定了它们的大小?
  • 是什么让一个更快?

当前回答

什么是堆叠?

堆叠是一堆物体, 通常是排列整齐的物体。

Enter image description here

计算机结构中的堆叠是数据以 " 最先进 " 方式添加或删除的内存区域。
在多行应用程序中,每串线索都有自己的堆叠。

什么是堆积物?

堆积成堆的杂乱无章的堆积物,

Enter image description here

在计算结构中,堆积是一个动态分配的内存领域,由操作系统或内存管理库自动管理。
在方案执行期间,堆积物上的内存被分配、分配和调整,并定期调整大小,这可能导致一个称为碎裂的问题。
当内存物体在小空格内分配时,就会发生碎片,而内存物体之间的空格太小,无法再持有更多的内存物体。
净结果为无法用于进一步分配内存的堆积空间的百分比。

两者加在一起

在一个多行应用程序中, 每串线索都有自己的堆叠。 但是, 所有不同的线条都会共享堆叠 。
因为不同的线条在一个多行应用程序中共享堆积, 这还意味着线条之间必须有一些协调, 以免它们试图同时访问和操作堆积中的同一块内存 。

哪个速度更快 堆叠还是堆叠 为什么?

堆叠比堆积要快得多
这是因为记忆在堆叠上分配的方式。
堆疊上的内存分配和移动堆叠指针一样简单。

对于新编程的人来说,
因为堆栈很小, 当您知道数据需要多少内存时, 或者如果您知道数据大小非常小时, 您会想要使用它 。
最好在知道数据需要大量内存时使用堆积, 或者你只是不确定你需要多少内存(如动态数组)。

Java 内存模型

Enter image description here

堆栈是存储本地变量(包括方法参数)的内存区域。当涉及到对象变量时,这些只是堆积中实际对象的引用(指针)。
每次一个对象被即时化时,都会留出一块堆积内存以保持该对象的数据(状态)。由于对象可以包含其他对象,有些数据实际上可以保留这些嵌套对象的引用。

其他回答

最重要的一点是,堆积和堆叠是记忆分配方法的通用术语,可以多种不同方式加以实施,这些术语适用于基本概念。

  • 在一个堆叠的项目中,项目坐在另一堆的上方,按其放置的顺序排列,你只能删除顶端的项目(不折叠整件事情)。

    Stack like a stack of papers

    堆叠的简单性在于您不需要保存包含分配内存每一部分的记录的表格; 您所需要的唯一状态信息是到堆栈尾端的单指针。 要分配和取消分配, 您只需递增和缩减该单指针。 注意: 有时可以安装堆叠, 以开始于内存的顶部, 向下延伸, 而不是向上增长 。

  • 在堆积中,项目放置方式没有特定顺序。您可以按任何顺序接触和删除项目,因为没有明确的“顶部”项目。

    Heap like a heap of licorice allsorts

    高空分配需要完整记录什么是记忆分配,什么是记忆分配,什么不是,以及一些间接维护,以减少碎裂,发现毗连的内存部分大到足以满足要求的大小,等等。 内存可以在离开空闲空间的任何时候进行分配。 有时,内存分配器将执行维护任务,例如通过移动分配的内存或垃圾收集来消除内存的分散性,或者在运行时识别内存不再在范围之内的运行时间并进行分配。

这些图像应该能很好地描述 在堆叠和堆肥中分配和释放记忆的两种方式。

  • 它们在多大程度上受到操作系统或语言运行时间的控制?

    如前所述,堆叠和堆叠是一般术语,可以多种方式实施。呼叫堆叠存储与当前函数相关的信息, 如指向它从哪个函数调用, 以及任何本地变量。 因为函数调用其他函数, 然后返回, 堆叠会增长并缩放, 以便从调用堆栈往下更远的函数中保留信息。 一个程序实际上没有运行时间控制; 它由编程语言、 OS 甚至系统架构决定 。

    堆积是一个通用术语,用于动态和随机分配的任何内存;即失序。内存通常由操作系统分配,应用程序中调用 API 函数来分配。管理动态分配内存需要相当一部分管理费,通常由所用编程语言或环境的运行时间代码处理。

  • 其范围是什么?

    调用堆栈是一个低层次的概念, 以至于它与编程意义上的“ 范围” 无关。 如果您将一些代码拆解, 您将会看到与堆叠部分相对的指针样式引用, 但就更高层次的语言而言, 语言会强制实施它自己的范围规则 。 但是, 堆栈的一个重要方面是, 一旦一个函数返回, 任何本地的函数都会立即从堆叠中解开。 这与您所编程语言是如何工作的有关。 在堆放过程中, 它也很难定义。 范围是由操作系统所暴露的, 但是您的编程语言可能会增加它关于“ 范围” 在您的应用程序中是什么的规则 。 处理器结构和 OS 使用虚拟地址, 处理器可以翻译为物理地址, 并且有页面错误等 。 它们会跟踪哪些页面属于哪个应用程序。 但是, 您从不需要担心这一点, 因为您只是使用你编程语言用于分配和自由记忆的方法, 并检查错误( 如果由于任何原因分配/ 解析失败 ) 。

  • 是什么决定了每个孩子的大小?

    同样,它取决于语言、编译器、操作系统和架构。 堆叠通常是预先分配的, 因为根据定义它必须是连续的内存。 语言编译器或操作系统决定其大小。 您不会在堆叠中存储大量数据, 因此它会足够大, 永远不能被充分利用, 除非在无谓的循环( 例如“ 堆叠溢出 ” ) 或其他不寻常的编程决定下。

    对于任何可以动态分配的东西来说, 堆积是一个通用的术语。 取决于您看它的方式, 它的大小在不断变化。 在现代的处理器和操作系统中, 它的运作方式是非常抽象的, 所以通常你不需要担心它是如何在内心深处运作的, 除了( 在它允许你使用的语言中) 您不能使用你还没有分配到的记忆或者你已经释放的记忆。

  • 是什么让一个更快?

    堆叠速度更快, 因为所有自由内存总是毗连的 。 不需要保存自由内存所有部分的清单, 仅指堆叠当前顶部的单指针。 汇编者通常会将这个指针保存在特殊、 快速的文件中 。登记册登记簿更何况,堆叠上的后续操作通常集中在非常靠近的内存区内,这些内存区在非常低的水平上,对处理器置存的缓存器优化是有好处的。

CPU堆和堆肥与CPU和登记簿如何与记忆工作、机器组合语言如何运作、而不是高层次语言本身有实际联系,即使这些语言能决定小事。

所有现代CPU都与“相同”微处理理论合作: 它们都基于所谓的“ 注册者” 和一些“ 堆叠” 来取得性能。 所有 CPU 从一开始就有堆叠登记簿, 并且他们总是在这里, 正如我所知。 议会语言从一开始就是相同的, 尽管有各种变化... 直到微软及其中间语言(IL) 改变了范式, 有了OO虚拟机组装语言。 因此, 我们将来可以有一些 CLI/ CIL CPU (一个MS项目) 。

CPU有堆叠登记册来加速存取记忆,但与其他登记册相比,这些登记册有限,无法完全获取进程的所有可用内存。 这就是为什么我们谈论堆叠和堆积分配的原因。

简而言之,总的来说,堆积是慢慢的,用于“全球”实例和对象内容,因为堆叠的体积很小,速度很快,用于“本地”变量和参考(隐藏的指针要忘记管理它们)。

所以当我们用一种方法使用新关键字时, 引用( int) 是在堆叠中创建的, 但是对象及其所有内容( 价值类型以及对象) 都在堆积中创建, 如果我记得的话。 但是本地基本值类型和阵列是在堆叠中创建的 。

内存存存取的差别在于单元格参考级别:处理堆积,即整个过程的记忆,在处理CPU登记册方面要求比处理堆叠更为复杂,因为如果我记得,CPU堆叠登记册被用作基地址,因此,处理堆积存存存存取的差别就大于当地“更多”的堆叠。

这就是为什么当我们有非常长或无限的循环电话或循环时, 我们很快地被堆积物溢出, 而不冻结现代电脑上的系统...

C# Heap(ing) Vs Stack(ing) in.NET

Stack vs Heap: 了解差异

C# 储存的静态类内存分配

堆叠和堆放在哪里?

https://en.wikipedia.org/wiki/Memory_management

https://en.wikipedia.org/wiki/Stack_register

大会语文资源:

议会方案拟订教学

Intel 64和IA-32建筑软件开发者手册

堆叠当您调用函数时,该函数的参数加上一些其他间接费用被放在堆栈中。有些信息(例如返回后将到何处)也存储在那里。当您在函数中声明变量时,该变量也分布在堆栈中。

拆分堆栈很简单, 因为您总是按照您分配的反向顺序进行排列。 在输入函数时添加堆叠材料, 当退出时相应数据将被删除。 这意味着您倾向于留在堆叠的小区域内, 除非您调用许多函数来调用其他函数( 或创建循环解决方案 ) 。

堆肥堆积是一个通用的名称, 用于您将创建的数据放在哪里 。 如果您不知道您的程序要创建多少宇宙飞船, 您可能会使用新的( 或商略或等效的) 操作员来创建每艘宇宙飞船 。 此分配将会停留一段时间, 因此我们很可能释放的东西, 与我们创建的顺序不同 。

因此,堆积要复杂得多,因为最终会出现一些未使用的内存区域,这些区域与块状的内存间断 — — 内存会变得支离破碎。 找到您需要的大小的自由内存是一个困难的问题。 这就是为什么应该避免堆积(尽管它仍然经常被使用 ) 。

执行 执行 执行堆叠和堆叠的操作通常要到运行时间/操作系统。 通常游戏和其他功能至关重要的应用程序会创造自己的内存解决方案,从堆叠中抓取大量内存,然后在内部将内存分离出来,以避免依赖操作系统进行内存。

只有当你的记忆用法与常规有很大不同时, 也就是在游戏中, 在一个巨大的操作中加载一个水平, 并且可以在另一个巨大的操作中将整个批量扔掉时, 这才是实际的。

内存物理位置这比你想的要少 因为一种技术叫做虚拟内存这使得您的程序认为您可以访问某位地址, 物理数据在其他地方( 甚至是硬盘上! ) 。 您获得的堆叠地址随着您的呼叫树越深, 顺序越大。 堆放的地址是不可预知的( 具体化) , 坦率地说并不重要 。

其他人直接回答了你的问题,但是,在试图理解堆叠和堆叠时,我认为,考虑传统的UNIX进程的记忆布局(没有线条和线条)是有益的。mmap()- 以基于分配器为基础。记忆管理词汇表网页上有一个内存布局图。

堆堆和堆堆堆传统上位于进程的虚拟地址空间的对面。当访问时,堆堆会自动增长,最多以内核设定的大小(可以与setrlimit(RLIMIT_STACK, ...)))当内存分配器援引brk()sbrk()系统呼叫,绘制更多页的物理内存 进入该过程的虚拟地址空间。

在没有虚拟内存的系统中,例如一些嵌入系统,通常适用同样的基本布局,但堆叠和堆积大小固定。然而,在其他嵌入系统(例如基于微芯片的微控制器)中,程序堆叠是一个单独的内存块,无法通过数据移动指示处理,只能通过程序流指示(调用、返回等)进行间接修改或阅读。多个堆叠。从这个意义上说,堆叠是CPU结构的一个元素。

因为有些答案没有被选中,所以我会贡献我的力量。

令人惊讶的是,没有人提到,不仅在外来语言(邮政(邮政)或平台(英特机Itium)中,而且在互联网上,都能找到多个(即与运行的OS级别线索数量无关)调呼堆叠(即与运行的OS级别线索数量无关)纤维纤维, 绿线以及一些执行《公约》和《公约》共管.

纤维、绿线和合金在许多方面都相似,导致许多混乱。 纤维和绿线之间的区别在于前者使用合作性多任务,而后者可能具有合作性或先发制人(甚至两者兼而有之)的特点。 关于纤维和合金之间的区别,请参看在这里.

无论如何,两种纤维、绿线和共程的目的都具有同时执行的多重功能,但是,平行平行(见这个问题在一个OS级线内,以有组织的方式将控制权相互交替转移。

当使用纤维、绿线或合金时,你通常通常每个函数都有单独的堆叠 。 (在技术上, 不只是堆叠, 而整个执行环境是每个函数。 最重要的是, CPU 注册 。) 对于每串线索, 都有与同时运行的函数一样多的堆叠, 并且线索正在根据程序逻辑执行每个函数之间切换。 当一个函数运行到尾端时, 它的堆叠会被销毁 。 因此,堆叠的数量和寿命是动态的,并且不取决于操作系统级别线索的数量 !

请注意,我说过: "通常通常每个函数有一个单独的堆叠。堆叠无文最引人注意的堆叠式C++的C++实施软 软 软 软 软 体微软 PPPL数(_S)async/await。 (然而, C++'s可恢复功能(a.k.a. " )asyncawait" (C++17提案,可能使用无堆叠的共程。 )

C++标准图书馆的Fibers提案即将提出。还有第三方。图书馆图书馆绿色线在Python和Ruby等语言中极为流行。