在人工智能和机器学习方面,监督学习和无监督学习的区别是什么? 你能举个例子简单地解释一下吗?
当前回答
在简单 监督学习是一种机器学习问题,其中我们有一些标签,通过使用这些标签,我们实现了回归和分类等算法。分类应用于我们的输出形式类似于 0或1,真/假,是/否。回归是应用于实际价值的地方,比如房价
无监督学习是一种机器学习问题,其中我们没有任何标签,意味着我们只有一些数据,非结构化数据,我们必须使用各种无监督算法对数据进行聚类(数据分组)
其他回答
例如,训练神经网络通常是监督学习:你告诉网络你输入的特征向量对应于哪个类。
聚类是无监督学习:你让算法决定如何将样本分组到具有共同属性的类中。
另一个无监督学习的例子是Kohonen的自组织地图。
我可以给你们举个例子。
假设您需要识别哪些车辆是汽车,哪些是摩托车。
在监督学习的情况下,你的输入(训练)数据集需要被标记,也就是说,对于你的输入(训练)数据集中的每个输入元素,你应该指定它是代表一辆汽车还是一辆摩托车。
在无监督学习的情况下,你不标记输入。无监督模型将输入聚类到基于相似特征/属性的聚类中。所以,在这种情况下,没有像“car”这样的标签。
监督式学习
监督学习是我们知道原始输入的输出,即数据被标记,以便在机器学习模型的训练期间,它将了解它需要在给定的输出中检测什么,并且它将指导系统在训练期间检测预先标记的对象,在此基础上,它将检测我们在训练中提供的类似对象。
在这里,算法将知道数据的结构和模式。监督学习用于分类
例如,我们可以有一个不同的物体,其形状是正方形,圆形,三角形,我们的任务是排列相同类型的形状 标记的数据集已经标记了所有的形状,我们将在该数据集上训练机器学习模型,在训练数据集的基础上,它将开始检测形状。
联合国监管下学习
无监督学习是一种最终结果未知的无指导学习,它将对数据集进行聚类,并基于对象的相似属性将对象划分在不同的簇上并检测对象。
算法将在原始数据中搜索不同的模式,并在此基础上对数据进行聚类。无监督学习用于聚类。
例如,我们可以有多种形状的不同物体,正方形,圆形,三角形,所以它会根据对象属性进行分组,如果一个物体有四个边,它会认为它是正方形,如果它有三个边,三角形,如果没有边比圆形,这里的数据没有标记,它会学习自己检测各种形状
监督式学习
在这种情况下,用于训练网络的每个输入模式都是 与输出模式相关联,它是目标或所需的 模式。在学习过程中假定有老师在场 过程,当对网络的计算结果进行比较时 输出和正确的预期输出,以确定误差。的 错误可以用来更改网络参数,从而导致 性能的提高。
无监督学习
在这种学习方法中,目标输出不会呈现给机器 网络。这就好像没有老师来呈现所渴望的 模式,因此,系统通过发现和学习自己 适应输入模式中的结构特征。
监督学习:你给出各种标记的示例数据作为输入,以及正确的答案。该算法将从中学习,并开始根据输入预测正确的结果。示例:电子邮件垃圾邮件过滤器
无监督学习:你只提供数据,不告诉任何东西——比如标签或正确答案。算法自动分析数据中的模式。例如:谷歌新闻
推荐文章
- 如何从scikit-learn决策树中提取决策规则?
- 数据挖掘中分类和聚类的区别?
- model.eval()在pytorch中做什么?
- 为什么binary_crossentropy和categorical_crossentropy对同一个问题给出不同的性能?
- 一般来说,应该选择哪种机器学习分类器?
- 是否可以使用scikit-learn K-Means聚类来指定自己的距离函数?
- 哪些是遗传算法/遗传规划解决方案的好例子?
- 如何在Python中进行热编码?
- 如何将数据分成3组(训练、验证和测试)?
- 历史库存数据的来源
- 如何在PyTorch中初始化权重?
- 关于如何将数据集划分为训练集和验证集,是否存在经验法则?
- 在scikit-learn中保存分类器到磁盘
- 如何解释机器学习模型的损失和准确性
- 线性回归和逻辑回归的区别是什么?