在人工智能和机器学习方面,监督学习和无监督学习的区别是什么? 你能举个例子简单地解释一下吗?
当前回答
监督学习可以根据训练过程中的学习,将一个新项目标记为训练过的标签之一。您需要提供大量的训练数据集、验证数据集和测试数据集。如果你提供数字的像素图像向量以及带有标签的训练数据,那么它就可以识别数字。
无监督学习不需要训练数据集。在无监督学习中,它可以根据输入向量的差异将项目分组到不同的簇中。如果你提供像素的数字图像向量,并要求它分为10个类别,它可能会这样做。但它知道如何标注,因为你没有提供培训标签。
其他回答
监督学习可以根据训练过程中的学习,将一个新项目标记为训练过的标签之一。您需要提供大量的训练数据集、验证数据集和测试数据集。如果你提供数字的像素图像向量以及带有标签的训练数据,那么它就可以识别数字。
无监督学习不需要训练数据集。在无监督学习中,它可以根据输入向量的差异将项目分组到不同的簇中。如果你提供像素的数字图像向量,并要求它分为10个类别,它可能会这样做。但它知道如何标注,因为你没有提供培训标签。
监督学习,给出数据和答案。
给定被标记为垃圾邮件或非垃圾邮件的电子邮件,学习垃圾邮件过滤器。
给定一个被诊断为患有或没有糖尿病的患者的数据集,学习将新患者分类为患有或没有糖尿病。
无监督学习,给出没有答案的数据,让计算机对事物进行分组。
给定一组在网上找到的新闻文章,将它们分成一组关于同一故事的文章。
给定自定义数据数据库,自动发现细分市场,并将客户分组到不同的细分市场。
参考
监督式学习
你有输入x和目标输出t。所以你训练算法泛化到缺失的部分。它被监督是因为目标是给定的。你是管理员,告诉算法:对于例子x,你应该输出t!
无监督学习
虽然分割、聚类和压缩通常是按照这个方向计算的,但我很难给出一个好的定义。
让我们以自动编码器压缩为例。当你只有给定的输入x时,人类工程师是如何告诉算法目标也是x的。所以在某种意义上,这与监督学习没有什么不同。
对于聚类和分割,我不太确定它是否真的符合机器学习的定义(见其他问题)。
我一直认为无监督学习和有监督学习之间的区别是随意的,有点令人困惑。这两种情况之间没有真正的区别,相反,在一系列情况下,算法可以或多或少地“监督”。半监督学习的存在是界限模糊的一个明显例子。
我倾向于认为监督是对算法提供关于应该首选哪些解决方案的反馈。对于传统的监督设置,比如垃圾邮件检测,你告诉算法“不要在训练集上犯任何错误”;对于传统的无监督设置,比如聚类,你告诉算法“彼此接近的点应该在同一个聚类中”。很巧的是,第一种反馈形式比后者更具体。
简而言之,当有人说“有监督”时,想想分类,当他们说“无监督”时,想想聚类,尽量不要过于担心除此之外的问题。
监督式学习
在这种情况下,用于训练网络的每个输入模式都是 与输出模式相关联,它是目标或所需的 模式。在学习过程中假定有老师在场 过程,当对网络的计算结果进行比较时 输出和正确的预期输出,以确定误差。的 错误可以用来更改网络参数,从而导致 性能的提高。
无监督学习
在这种学习方法中,目标输出不会呈现给机器 网络。这就好像没有老师来呈现所渴望的 模式,因此,系统通过发现和学习自己 适应输入模式中的结构特征。
推荐文章
- 如何从scikit-learn决策树中提取决策规则?
- 数据挖掘中分类和聚类的区别?
- model.eval()在pytorch中做什么?
- 为什么binary_crossentropy和categorical_crossentropy对同一个问题给出不同的性能?
- 一般来说,应该选择哪种机器学习分类器?
- 是否可以使用scikit-learn K-Means聚类来指定自己的距离函数?
- 哪些是遗传算法/遗传规划解决方案的好例子?
- 如何在Python中进行热编码?
- 如何将数据分成3组(训练、验证和测试)?
- 历史库存数据的来源
- 如何在PyTorch中初始化权重?
- 关于如何将数据集划分为训练集和验证集,是否存在经验法则?
- 在scikit-learn中保存分类器到磁盘
- 如何解释机器学习模型的损失和准确性
- 线性回归和逻辑回归的区别是什么?