在人工智能和机器学习方面,监督学习和无监督学习的区别是什么? 你能举个例子简单地解释一下吗?
当前回答
在监督学习中,我们知道输入和输出应该是什么。例如,给定一组汽车。我们得找出哪些是红的,哪些是蓝的。
然而,无监督学习是指我们必须在很少或没有任何关于输出应该如何的想法的情况下找到答案。例如,学习者可以建立一个模型,根据面部模式和单词(如“你在笑什么?”)的相关性来检测人们何时在微笑。
其他回答
监督学习是指你为算法提供的数据被“标记”或“标记”,以帮助你的逻辑做出决策。
示例:贝叶斯垃圾邮件过滤,您必须将一个项目标记为垃圾邮件以优化结果。
无监督学习是一种试图在原始数据之外没有任何外部输入的情况下找到相关性的算法。
例如:数据挖掘聚类算法。
监督式学习
监督学习是我们知道原始输入的输出,即数据被标记,以便在机器学习模型的训练期间,它将了解它需要在给定的输出中检测什么,并且它将指导系统在训练期间检测预先标记的对象,在此基础上,它将检测我们在训练中提供的类似对象。
在这里,算法将知道数据的结构和模式。监督学习用于分类
例如,我们可以有一个不同的物体,其形状是正方形,圆形,三角形,我们的任务是排列相同类型的形状 标记的数据集已经标记了所有的形状,我们将在该数据集上训练机器学习模型,在训练数据集的基础上,它将开始检测形状。
联合国监管下学习
无监督学习是一种最终结果未知的无指导学习,它将对数据集进行聚类,并基于对象的相似属性将对象划分在不同的簇上并检测对象。
算法将在原始数据中搜索不同的模式,并在此基础上对数据进行聚类。无监督学习用于聚类。
例如,我们可以有多种形状的不同物体,正方形,圆形,三角形,所以它会根据对象属性进行分组,如果一个物体有四个边,它会认为它是正方形,如果它有三个边,三角形,如果没有边比圆形,这里的数据没有标记,它会学习自己检测各种形状
监督式学习
无监督学习
例子:
监督式学习:
一袋苹果 一个橙色的袋子 =>构建模型 一个混合了苹果和橘子的袋子。 请分类
无监督学习:
一个混合了苹果和橘子的袋子。 =>构建模型 另一个喜忧参半的情况 请分类
在监督学习中,为输入x提供预期结果y(即,当输入x时模型应该产生的输出),这通常被称为对应输入x的“类”(或“标签”)。
在无监督学习中,不提供示例x的“类”。因此,无监督学习可以被认为是在未标记的数据集中寻找“隐藏结构”。
监督学习的方法包括:
分类(1R、朴素贝叶斯、决策树学习算法等) 如ID3 CART,等等) 数值预测
无监督学习的方法包括:
聚类(k -均值,层次聚类) 关联规则学习
监督式学习
你有输入x和目标输出t。所以你训练算法泛化到缺失的部分。它被监督是因为目标是给定的。你是管理员,告诉算法:对于例子x,你应该输出t!
无监督学习
虽然分割、聚类和压缩通常是按照这个方向计算的,但我很难给出一个好的定义。
让我们以自动编码器压缩为例。当你只有给定的输入x时,人类工程师是如何告诉算法目标也是x的。所以在某种意义上,这与监督学习没有什么不同。
对于聚类和分割,我不太确定它是否真的符合机器学习的定义(见其他问题)。
推荐文章
- 如何从scikit-learn决策树中提取决策规则?
- 数据挖掘中分类和聚类的区别?
- model.eval()在pytorch中做什么?
- 为什么binary_crossentropy和categorical_crossentropy对同一个问题给出不同的性能?
- 一般来说,应该选择哪种机器学习分类器?
- 是否可以使用scikit-learn K-Means聚类来指定自己的距离函数?
- 哪些是遗传算法/遗传规划解决方案的好例子?
- 如何在Python中进行热编码?
- 如何将数据分成3组(训练、验证和测试)?
- 历史库存数据的来源
- 如何在PyTorch中初始化权重?
- 关于如何将数据集划分为训练集和验证集,是否存在经验法则?
- 在scikit-learn中保存分类器到磁盘
- 如何解释机器学习模型的损失和准确性
- 线性回归和逻辑回归的区别是什么?