在人工智能和机器学习方面,监督学习和无监督学习的区别是什么? 你能举个例子简单地解释一下吗?


当前回答

监督式学习

训练数据包括输入向量的示例及其相应的目标向量的应用被称为监督学习问题。

无监督学习

在其他模式识别问题中,训练数据由一组输入向量x组成,没有任何对应的目标值。这种无监督学习问题的目标可能是在数据中发现相似的例子组,在这里它被称为聚类

模式识别和机器学习(Bishop, 2006)

其他回答

监督式学习:

监督学习算法分析训练数据并产生推断函数,该函数可用于映射新的示例。

我们提供训练数据,我们知道对某个输入的正确输出 我们知道输入和输出之间的关系

问题类别:

回归:预测连续输出中的结果=>将输入变量映射到某个连续函数。

例子:

给一个人的照片,预测他的年龄

分类:在离散输出中预测结果=>映射输入变量到离散类别

例子:

这个肿瘤癌变了吗?

无监督学习:

无监督学习从未被标记、分类或分类的测试数据中学习。无监督学习识别数据中的共性,并根据每个新数据中这些共性的存在与否做出反应。

我们可以根据数据中变量之间的关系对数据进行聚类,从而推导出这种结构。 基于预测结果没有反馈。

问题类别:

聚类:是对一组对象进行分组,使同一组(称为聚类)中的对象彼此之间(在某种意义上)比其他组(聚类)中的对象更相似。

例子:

收集100万个不同的基因,找到一种方法,自动将这些基因分组,这些基因在某种程度上是相似的,或因不同的变量(如寿命、位置、角色等)而相关。

这里列出了常用的用例。

数据挖掘中分类和聚类的区别?

引用:

Supervised_learning

Unsupervised_learning

来自coursera的机器学习

走向数据科学

监督式学习

在这种情况下,用于训练网络的每个输入模式都是 与输出模式相关联,它是目标或所需的 模式。在学习过程中假定有老师在场 过程,当对网络的计算结果进行比较时 输出和正确的预期输出,以确定误差。的 错误可以用来更改网络参数,从而导致 性能的提高。

无监督学习

在这种学习方法中,目标输出不会呈现给机器 网络。这就好像没有老师来呈现所渴望的 模式,因此,系统通过发现和学习自己 适应输入模式中的结构特征。

监督式机器学习 算法从训练数据集中学习的过程 预测产出。”

预测输出精度与训练数据(长度)成正比

监督学习是指你有输入变量(x)(训练数据集)和输出变量(Y)(测试数据集),你使用一种算法来学习从输入到输出的映射函数。

Y = f(X)

主要类型:

分类(离散y轴) 预测(连续y轴)

算法:

分类算法: 神经网络 Naïve贝叶斯分类器 费雪线性判别 然而, 决策树 超级向量机 预测算法: 最近的邻居 线性回归,多元回归

应用领域:

将电子邮件分类为垃圾邮件 患者是否有 疾病与否 语音识别 预测HR是否会选择特定的候选人 预测股票市场价格

在监督学习中,为输入x提供预期结果y(即,当输入x时模型应该产生的输出),这通常被称为对应输入x的“类”(或“标签”)。

在无监督学习中,不提供示例x的“类”。因此,无监督学习可以被认为是在未标记的数据集中寻找“隐藏结构”。

监督学习的方法包括:

分类(1R、朴素贝叶斯、决策树学习算法等) 如ID3 CART,等等) 数值预测

无监督学习的方法包括:

聚类(k -均值,层次聚类) 关联规则学习

我一直认为无监督学习和有监督学习之间的区别是随意的,有点令人困惑。这两种情况之间没有真正的区别,相反,在一系列情况下,算法可以或多或少地“监督”。半监督学习的存在是界限模糊的一个明显例子。

我倾向于认为监督是对算法提供关于应该首选哪些解决方案的反馈。对于传统的监督设置,比如垃圾邮件检测,你告诉算法“不要在训练集上犯任何错误”;对于传统的无监督设置,比如聚类,你告诉算法“彼此接近的点应该在同一个聚类中”。很巧的是,第一种反馈形式比后者更具体。

简而言之,当有人说“有监督”时,想想分类,当他们说“无监督”时,想想聚类,尽量不要过于担心除此之外的问题。