在人工智能和机器学习方面,监督学习和无监督学习的区别是什么? 你能举个例子简单地解释一下吗?


当前回答

例如,训练神经网络通常是监督学习:你告诉网络你输入的特征向量对应于哪个类。

聚类是无监督学习:你让算法决定如何将样本分组到具有共同属性的类中。

另一个无监督学习的例子是Kohonen的自组织地图。

其他回答

在监督学习中,为输入x提供预期结果y(即,当输入x时模型应该产生的输出),这通常被称为对应输入x的“类”(或“标签”)。

在无监督学习中,不提供示例x的“类”。因此,无监督学习可以被认为是在未标记的数据集中寻找“隐藏结构”。

监督学习的方法包括:

分类(1R、朴素贝叶斯、决策树学习算法等) 如ID3 CART,等等) 数值预测

无监督学习的方法包括:

聚类(k -均值,层次聚类) 关联规则学习

监督式学习

在这种情况下,用于训练网络的每个输入模式都是 与输出模式相关联,它是目标或所需的 模式。在学习过程中假定有老师在场 过程,当对网络的计算结果进行比较时 输出和正确的预期输出,以确定误差。的 错误可以用来更改网络参数,从而导致 性能的提高。

无监督学习

在这种学习方法中,目标输出不会呈现给机器 网络。这就好像没有老师来呈现所渴望的 模式,因此,系统通过发现和学习自己 适应输入模式中的结构特征。

监督学习,给出数据和答案。

给定被标记为垃圾邮件或非垃圾邮件的电子邮件,学习垃圾邮件过滤器。

给定一个被诊断为患有或没有糖尿病的患者的数据集,学习将新患者分类为患有或没有糖尿病。

无监督学习,给出没有答案的数据,让计算机对事物进行分组。

给定一组在网上找到的新闻文章,将它们分成一组关于同一故事的文章。

给定自定义数据数据库,自动发现细分市场,并将客户分组到不同的细分市场。

参考

我可以给你们举个例子。

假设您需要识别哪些车辆是汽车,哪些是摩托车。

在监督学习的情况下,你的输入(训练)数据集需要被标记,也就是说,对于你的输入(训练)数据集中的每个输入元素,你应该指定它是代表一辆汽车还是一辆摩托车。

在无监督学习的情况下,你不标记输入。无监督模型将输入聚类到基于相似特征/属性的聚类中。所以,在这种情况下,没有像“car”这样的标签。

既然你问了这个非常基本的问题,似乎有必要详细说明机器学习本身是什么。

Machine Learning is a class of algorithms which is data-driven, i.e. unlike "normal" algorithms it is the data that "tells" what the "good answer" is. Example: a hypothetical non-machine learning algorithm for face detection in images would try to define what a face is (round skin-like-colored disk, with dark area where you expect the eyes etc). A machine learning algorithm would not have such coded definition, but would "learn-by-examples": you'll show several images of faces and not-faces and a good algorithm will eventually learn and be able to predict whether or not an unseen image is a face.

这个特殊的人脸检测的例子是有监督的,这意味着你的例子必须被标记,或者明确地说哪些是人脸,哪些不是。

在无监督算法中,你的例子没有标记,也就是说你什么都不说。当然,在这种情况下,算法本身不能“发明”人脸是什么,但它可以尝试将数据聚类到不同的组中,例如,它可以区分人脸与风景非常不同,而风景与马非常不同。

Since another answer mentions it (though, in an incorrect way): there are "intermediate" forms of supervision, i.e. semi-supervised and active learning. Technically, these are supervised methods in which there is some "smart" way to avoid a large number of labeled examples. In active learning, the algorithm itself decides which thing you should label (e.g. it can be pretty sure about a landscape and a horse, but it might ask you to confirm if a gorilla is indeed the picture of a face). In semi-supervised learning, there are two different algorithms which start with the labeled examples, and then "tell" each other the way they think about some large number of unlabeled data. From this "discussion" they learn.