在人工智能和机器学习方面,监督学习和无监督学习的区别是什么? 你能举个例子简单地解释一下吗?
当前回答
已经有很多答案可以详细解释这些差异。我在codeacademy上找到了这些动图,它们经常能帮助我有效地解释它们之间的差异。
监督式学习
请注意,训练图像在这里有标签,并且模型正在学习图像的名称。
无监督学习
注意,这里所做的只是分组(聚类),模型不知道任何图像。
其他回答
已经有很多答案可以详细解释这些差异。我在codeacademy上找到了这些动图,它们经常能帮助我有效地解释它们之间的差异。
监督式学习
请注意,训练图像在这里有标签,并且模型正在学习图像的名称。
无监督学习
注意,这里所做的只是分组(聚类),模型不知道任何图像。
既然你问了这个非常基本的问题,似乎有必要详细说明机器学习本身是什么。
Machine Learning is a class of algorithms which is data-driven, i.e. unlike "normal" algorithms it is the data that "tells" what the "good answer" is. Example: a hypothetical non-machine learning algorithm for face detection in images would try to define what a face is (round skin-like-colored disk, with dark area where you expect the eyes etc). A machine learning algorithm would not have such coded definition, but would "learn-by-examples": you'll show several images of faces and not-faces and a good algorithm will eventually learn and be able to predict whether or not an unseen image is a face.
这个特殊的人脸检测的例子是有监督的,这意味着你的例子必须被标记,或者明确地说哪些是人脸,哪些不是。
在无监督算法中,你的例子没有标记,也就是说你什么都不说。当然,在这种情况下,算法本身不能“发明”人脸是什么,但它可以尝试将数据聚类到不同的组中,例如,它可以区分人脸与风景非常不同,而风景与马非常不同。
Since another answer mentions it (though, in an incorrect way): there are "intermediate" forms of supervision, i.e. semi-supervised and active learning. Technically, these are supervised methods in which there is some "smart" way to avoid a large number of labeled examples. In active learning, the algorithm itself decides which thing you should label (e.g. it can be pretty sure about a landscape and a horse, but it might ask you to confirm if a gorilla is indeed the picture of a face). In semi-supervised learning, there are two different algorithms which start with the labeled examples, and then "tell" each other the way they think about some large number of unlabeled data. From this "discussion" they learn.
监督学习可以根据训练过程中的学习,将一个新项目标记为训练过的标签之一。您需要提供大量的训练数据集、验证数据集和测试数据集。如果你提供数字的像素图像向量以及带有标签的训练数据,那么它就可以识别数字。
无监督学习不需要训练数据集。在无监督学习中,它可以根据输入向量的差异将项目分组到不同的簇中。如果你提供像素的数字图像向量,并要求它分为10个类别,它可能会这样做。但它知道如何标注,因为你没有提供培训标签。
机器学习: 它探索了可以从数据中学习并对数据进行预测的算法的研究和构建。这种算法通过从示例输入中构建模型来运行,以便做出数据驱动的预测或作为输出表示的决策,而不是严格地遵循静态的程序指令。
监督式学习: 这是从标记的训练数据推断出函数的机器学习任务。训练数据由一组训练示例组成。在监督学习中,每个例子都是一对,由一个输入对象(通常是一个向量)和一个期望的输出值(也称为监督信号)组成。监督学习算法分析训练数据并产生推断函数,该函数可用于映射新的示例。
由“老师”给计算机提供示例输入和它们期望的输出,目标是学习将输入映射到输出的一般规则。具体来说,有监督学习算法采用一组已知的输入数据和对数据(输出)的已知响应,并训练一个模型来生成对新数据响应的合理预测。
Unsupervised learning: It is learning without a teacher. One basic thing that you might want to do with data is to visualize it. It is the machine learning task of inferring a function to describe hidden structure from unlabeled data. Since the examples given to the learner are unlabeled, there is no error or reward signal to evaluate a potential solution. This distinguishes unsupervised learning from supervised learning. Unsupervised learning uses procedures that attempt to find natural partitions of patterns.
在无监督学习中,没有基于预测结果的反馈,也就是说,没有老师来纠正你。在无监督学习方法下,不提供标记的示例,在学习过程中没有输出的概念。因此,由学习方案/模型来寻找模式或发现输入数据的组
你应该使用无监督学习方法,当你需要一个大的 训练你的模型的数据量,以及意愿和能力 去实验和探索,当然这是一个不太好的挑战 通过更成熟的方法解决。无监督学习就是这样 可以学习比监督更大更复杂的模型 学习。这里有一个很好的例子
.
监督式机器学习 算法从训练数据集中学习的过程 预测产出。”
预测输出精度与训练数据(长度)成正比
监督学习是指你有输入变量(x)(训练数据集)和输出变量(Y)(测试数据集),你使用一种算法来学习从输入到输出的映射函数。
Y = f(X)
主要类型:
分类(离散y轴) 预测(连续y轴)
算法:
分类算法: 神经网络 Naïve贝叶斯分类器 费雪线性判别 然而, 决策树 超级向量机 预测算法: 最近的邻居 线性回归,多元回归
应用领域:
将电子邮件分类为垃圾邮件 患者是否有 疾病与否 语音识别 预测HR是否会选择特定的候选人 预测股票市场价格
推荐文章
- 如何从scikit-learn决策树中提取决策规则?
- 数据挖掘中分类和聚类的区别?
- model.eval()在pytorch中做什么?
- 为什么binary_crossentropy和categorical_crossentropy对同一个问题给出不同的性能?
- 一般来说,应该选择哪种机器学习分类器?
- 是否可以使用scikit-learn K-Means聚类来指定自己的距离函数?
- 哪些是遗传算法/遗传规划解决方案的好例子?
- 如何在Python中进行热编码?
- 如何将数据分成3组(训练、验证和测试)?
- 历史库存数据的来源
- 如何在PyTorch中初始化权重?
- 关于如何将数据集划分为训练集和验证集,是否存在经验法则?
- 在scikit-learn中保存分类器到磁盘
- 如何解释机器学习模型的损失和准确性
- 线性回归和逻辑回归的区别是什么?