在人工智能和机器学习方面,监督学习和无监督学习的区别是什么? 你能举个例子简单地解释一下吗?


当前回答

监督学习基本上是一种技术,其中机器学习的训练数据已经被标记,假设是一个简单的偶数分类器,在训练过程中你已经对数据进行了分类。因此它使用“LABELLED”数据。

相反,无监督学习是一种机器自己标记数据的技术。或者你可以说这是机器从头开始自己学习的情况。

其他回答

监督学习是指你为算法提供的数据被“标记”或“标记”,以帮助你的逻辑做出决策。

示例:贝叶斯垃圾邮件过滤,您必须将一个项目标记为垃圾邮件以优化结果。

无监督学习是一种试图在原始数据之外没有任何外部输入的情况下找到相关性的算法。

例如:数据挖掘聚类算法。

监督式学习:

监督学习算法分析训练数据并产生推断函数,该函数可用于映射新的示例。

我们提供训练数据,我们知道对某个输入的正确输出 我们知道输入和输出之间的关系

问题类别:

回归:预测连续输出中的结果=>将输入变量映射到某个连续函数。

例子:

给一个人的照片,预测他的年龄

分类:在离散输出中预测结果=>映射输入变量到离散类别

例子:

这个肿瘤癌变了吗?

无监督学习:

无监督学习从未被标记、分类或分类的测试数据中学习。无监督学习识别数据中的共性,并根据每个新数据中这些共性的存在与否做出反应。

我们可以根据数据中变量之间的关系对数据进行聚类,从而推导出这种结构。 基于预测结果没有反馈。

问题类别:

聚类:是对一组对象进行分组,使同一组(称为聚类)中的对象彼此之间(在某种意义上)比其他组(聚类)中的对象更相似。

例子:

收集100万个不同的基因,找到一种方法,自动将这些基因分组,这些基因在某种程度上是相似的,或因不同的变量(如寿命、位置、角色等)而相关。

这里列出了常用的用例。

数据挖掘中分类和聚类的区别?

引用:

Supervised_learning

Unsupervised_learning

来自coursera的机器学习

走向数据科学

在监督学习中,为输入x提供预期结果y(即,当输入x时模型应该产生的输出),这通常被称为对应输入x的“类”(或“标签”)。

在无监督学习中,不提供示例x的“类”。因此,无监督学习可以被认为是在未标记的数据集中寻找“隐藏结构”。

监督学习的方法包括:

分类(1R、朴素贝叶斯、决策树学习算法等) 如ID3 CART,等等) 数值预测

无监督学习的方法包括:

聚类(k -均值,层次聚类) 关联规则学习

监督式学习

你有输入x和目标输出t。所以你训练算法泛化到缺失的部分。它被监督是因为目标是给定的。你是管理员,告诉算法:对于例子x,你应该输出t!

无监督学习

虽然分割、聚类和压缩通常是按照这个方向计算的,但我很难给出一个好的定义。

让我们以自动编码器压缩为例。当你只有给定的输入x时,人类工程师是如何告诉算法目标也是x的。所以在某种意义上,这与监督学习没有什么不同。

对于聚类和分割,我不太确定它是否真的符合机器学习的定义(见其他问题)。

我一直认为无监督学习和有监督学习之间的区别是随意的,有点令人困惑。这两种情况之间没有真正的区别,相反,在一系列情况下,算法可以或多或少地“监督”。半监督学习的存在是界限模糊的一个明显例子。

我倾向于认为监督是对算法提供关于应该首选哪些解决方案的反馈。对于传统的监督设置,比如垃圾邮件检测,你告诉算法“不要在训练集上犯任何错误”;对于传统的无监督设置,比如聚类,你告诉算法“彼此接近的点应该在同一个聚类中”。很巧的是,第一种反馈形式比后者更具体。

简而言之,当有人说“有监督”时,想想分类,当他们说“无监督”时,想想聚类,尽量不要过于担心除此之外的问题。