在人工智能和机器学习方面,监督学习和无监督学习的区别是什么? 你能举个例子简单地解释一下吗?
当前回答
监督学习基本上是一种技术,其中机器学习的训练数据已经被标记,假设是一个简单的偶数分类器,在训练过程中你已经对数据进行了分类。因此它使用“LABELLED”数据。
相反,无监督学习是一种机器自己标记数据的技术。或者你可以说这是机器从头开始自己学习的情况。
其他回答
我尽量简单点。
监督学习:在这种学习技术中,我们得到一个数据集,系统已经知道该数据集的正确输出。这里,我们的系统通过预测自己的值来学习。然后,它通过使用代价函数来检查其预测与实际输出的接近程度,从而进行准确性检查。
无监督学习:在这种方法中,我们很少或根本不知道我们的结果是什么。因此,我们从不知道变量影响的数据中推导出结构。 我们根据数据中变量之间的关系对数据进行聚类,从而形成结构。 在这里,我们没有基于预测的反馈。
Supervised Learning is basically where you have input variables(x) and output variable(y) and use algorithm to learn the mapping function from input to the output. The reason why we called this as supervised is because algorithm learns from the training dataset, the algorithm iteratively makes predictions on the training data. Supervised have two types-Classification and Regression. Classification is when the output variable is category like yes/no, true/false. Regression is when the output is real values like height of person, Temperature etc.
联合国监督学习是指我们只有输入数据(X),没有输出变量。 这被称为无监督学习,因为与上面的监督学习不同,它没有正确的答案,也没有老师。算法由它们自己的设计来发现和呈现数据中有趣的结构。
无监督学习的类型有聚类和关联。
监督式学习
训练数据包括输入向量的示例及其相应的目标向量的应用被称为监督学习问题。
无监督学习
在其他模式识别问题中,训练数据由一组输入向量x组成,没有任何对应的目标值。这种无监督学习问题的目标可能是在数据中发现相似的例子组,在这里它被称为聚类
模式识别和机器学习(Bishop, 2006)
我可以给你们举个例子。
假设您需要识别哪些车辆是汽车,哪些是摩托车。
在监督学习的情况下,你的输入(训练)数据集需要被标记,也就是说,对于你的输入(训练)数据集中的每个输入元素,你应该指定它是代表一辆汽车还是一辆摩托车。
在无监督学习的情况下,你不标记输入。无监督模型将输入聚类到基于相似特征/属性的聚类中。所以,在这种情况下,没有像“car”这样的标签。
我一直认为无监督学习和有监督学习之间的区别是随意的,有点令人困惑。这两种情况之间没有真正的区别,相反,在一系列情况下,算法可以或多或少地“监督”。半监督学习的存在是界限模糊的一个明显例子。
我倾向于认为监督是对算法提供关于应该首选哪些解决方案的反馈。对于传统的监督设置,比如垃圾邮件检测,你告诉算法“不要在训练集上犯任何错误”;对于传统的无监督设置,比如聚类,你告诉算法“彼此接近的点应该在同一个聚类中”。很巧的是,第一种反馈形式比后者更具体。
简而言之,当有人说“有监督”时,想想分类,当他们说“无监督”时,想想聚类,尽量不要过于担心除此之外的问题。
推荐文章
- 如何从scikit-learn决策树中提取决策规则?
- 数据挖掘中分类和聚类的区别?
- model.eval()在pytorch中做什么?
- 为什么binary_crossentropy和categorical_crossentropy对同一个问题给出不同的性能?
- 一般来说,应该选择哪种机器学习分类器?
- 是否可以使用scikit-learn K-Means聚类来指定自己的距离函数?
- 哪些是遗传算法/遗传规划解决方案的好例子?
- 如何在Python中进行热编码?
- 如何将数据分成3组(训练、验证和测试)?
- 历史库存数据的来源
- 如何在PyTorch中初始化权重?
- 关于如何将数据集划分为训练集和验证集,是否存在经验法则?
- 在scikit-learn中保存分类器到磁盘
- 如何解释机器学习模型的损失和准确性
- 线性回归和逻辑回归的区别是什么?