在人工智能和机器学习方面,监督学习和无监督学习的区别是什么? 你能举个例子简单地解释一下吗?
当前回答
监督式学习
监督学习是基于对数据样本的训练 来自已分配正确分类的数据源。 这种技术用于前馈或多层 感知器(MLP)模型。这些MLP有三个特点 特点:
一层或多层不属于输入的隐藏神经元 或者网络的输出层,使网络能够学习和 解决任何复杂的问题 神经元活动所反映的非线性为 可微的, 网络的互联模型表现出高度的互联性 连通性。
These characteristics along with learning through training solve difficult and diverse problems. Learning through training in a supervised ANN model also called as error backpropagation algorithm. The error correction-learning algorithm trains the network based on the input-output samples and finds error signal, which is the difference of the output calculated and the desired output and adjusts the synaptic weights of the neurons that is proportional to the product of the error signal and the input instance of the synaptic weight. Based on this principle, error back propagation learning occurs in two passes:
传球前进:
这里,输入向量被呈现给网络。这个输入信号向前传播,一个神经元一个神经元地通过网络,并出现在输出端 网络作为输出信号:y(n) = φ(v(n)),其中v(n)是神经元的诱导局部场,定义为v(n) =Σ w(n)y(n)。在输出层o(n)计算的输出与期望的响应d(n)进行比较,并找到该神经元的误差e(n)。在这一过程中,神经网络的突触权重保持不变。
向后传递:
产生于该层输出神经元的错误信号通过网络向后传播。这将计算每个层中每个神经元的局部梯度,并允许网络的突触权值按照delta规则发生变化,如下:
Δw(n) = η * δ(n) * y(n).
这种递归计算继续进行,对每个输入模式进行向前传递和向后传递,直到网络收敛。
人工神经网络的监督学习模式是有效的,可以解决分类、植物控制、预测、预测、机器人等线性和非线性问题。
无监督学习
Self-Organizing neural networks learn using unsupervised learning algorithm to identify hidden patterns in unlabelled input data. This unsupervised refers to the ability to learn and organize information without providing an error signal to evaluate the potential solution. The lack of direction for the learning algorithm in unsupervised learning can sometime be advantageous, since it lets the algorithm to look back for patterns that have not been previously considered. The main characteristics of Self-Organizing Maps (SOM) are:
它将任意维度的输入信号模式转换为 一维或二维映射,并自适应地执行这种转换 该网络表示具有单一的前馈结构 计算层由一排排排列的神经元组成 列。在表示的每个阶段,每个输入信号都被保留 在适当的情况下, 处理紧密相关信息的神经元是紧密的 它们一起通过突触连接进行交流。
计算层也被称为竞争层,因为该层中的神经元相互竞争变得活跃。因此,这种学习算法被称为竞争算法。SOM中的无监督算法 工作分为三个阶段:
竞争阶段:
对于呈现给网络的每一个输入模式x,计算与突触权值w的内积,竞争层神经元找到一个诱发神经元竞争的判别函数,在欧氏距离上与输入权值向量接近的突触权值向量被宣布为竞争获胜者。这个神经元被称为最佳匹配神经元,
i.e. x = arg min ║x - w║.
合作的阶段:
获胜的神经元决定了合作神经元的拓扑邻域h的中心。这是通过横向相互作用d之间 合作的神经元。这种拓扑邻域在一段时间内减小了它的大小。
适应阶段:
使获胜的神经元及其邻近神经元根据输入模式增加其判别函数的个体值 通过适当的突触权重调整,
Δw = ηh(x)(x –w).
在训练模式重复呈现后,由于邻域更新,神经网络的权重向量倾向于跟随输入模式的分布,因此神经网络在没有监督的情况下进行学习。
自组织模型自然地代表了神经生物学行为,因此被用于许多现实世界的应用,如聚类,语音识别,纹理分割,矢量编码等。
参考。
其他回答
既然你问了这个非常基本的问题,似乎有必要详细说明机器学习本身是什么。
Machine Learning is a class of algorithms which is data-driven, i.e. unlike "normal" algorithms it is the data that "tells" what the "good answer" is. Example: a hypothetical non-machine learning algorithm for face detection in images would try to define what a face is (round skin-like-colored disk, with dark area where you expect the eyes etc). A machine learning algorithm would not have such coded definition, but would "learn-by-examples": you'll show several images of faces and not-faces and a good algorithm will eventually learn and be able to predict whether or not an unseen image is a face.
这个特殊的人脸检测的例子是有监督的,这意味着你的例子必须被标记,或者明确地说哪些是人脸,哪些不是。
在无监督算法中,你的例子没有标记,也就是说你什么都不说。当然,在这种情况下,算法本身不能“发明”人脸是什么,但它可以尝试将数据聚类到不同的组中,例如,它可以区分人脸与风景非常不同,而风景与马非常不同。
Since another answer mentions it (though, in an incorrect way): there are "intermediate" forms of supervision, i.e. semi-supervised and active learning. Technically, these are supervised methods in which there is some "smart" way to avoid a large number of labeled examples. In active learning, the algorithm itself decides which thing you should label (e.g. it can be pretty sure about a landscape and a horse, but it might ask you to confirm if a gorilla is indeed the picture of a face). In semi-supervised learning, there are two different algorithms which start with the labeled examples, and then "tell" each other the way they think about some large number of unlabeled data. From this "discussion" they learn.
监督式学习
监督学习是我们知道原始输入的输出,即数据被标记,以便在机器学习模型的训练期间,它将了解它需要在给定的输出中检测什么,并且它将指导系统在训练期间检测预先标记的对象,在此基础上,它将检测我们在训练中提供的类似对象。
在这里,算法将知道数据的结构和模式。监督学习用于分类
例如,我们可以有一个不同的物体,其形状是正方形,圆形,三角形,我们的任务是排列相同类型的形状 标记的数据集已经标记了所有的形状,我们将在该数据集上训练机器学习模型,在训练数据集的基础上,它将开始检测形状。
联合国监管下学习
无监督学习是一种最终结果未知的无指导学习,它将对数据集进行聚类,并基于对象的相似属性将对象划分在不同的簇上并检测对象。
算法将在原始数据中搜索不同的模式,并在此基础上对数据进行聚类。无监督学习用于聚类。
例如,我们可以有多种形状的不同物体,正方形,圆形,三角形,所以它会根据对象属性进行分组,如果一个物体有四个边,它会认为它是正方形,如果它有三个边,三角形,如果没有边比圆形,这里的数据没有标记,它会学习自己检测各种形状
监督学习,给出数据和答案。
给定被标记为垃圾邮件或非垃圾邮件的电子邮件,学习垃圾邮件过滤器。
给定一个被诊断为患有或没有糖尿病的患者的数据集,学习将新患者分类为患有或没有糖尿病。
无监督学习,给出没有答案的数据,让计算机对事物进行分组。
给定一组在网上找到的新闻文章,将它们分成一组关于同一故事的文章。
给定自定义数据数据库,自动发现细分市场,并将客户分组到不同的细分市场。
参考
我可以给你们举个例子。
假设您需要识别哪些车辆是汽车,哪些是摩托车。
在监督学习的情况下,你的输入(训练)数据集需要被标记,也就是说,对于你的输入(训练)数据集中的每个输入元素,你应该指定它是代表一辆汽车还是一辆摩托车。
在无监督学习的情况下,你不标记输入。无监督模型将输入聚类到基于相似特征/属性的聚类中。所以,在这种情况下,没有像“car”这样的标签。
在监督学习中,我们知道输入和输出应该是什么。例如,给定一组汽车。我们得找出哪些是红的,哪些是蓝的。
然而,无监督学习是指我们必须在很少或没有任何关于输出应该如何的想法的情况下找到答案。例如,学习者可以建立一个模型,根据面部模式和单词(如“你在笑什么?”)的相关性来检测人们何时在微笑。
推荐文章
- 如何从scikit-learn决策树中提取决策规则?
- 数据挖掘中分类和聚类的区别?
- model.eval()在pytorch中做什么?
- 为什么binary_crossentropy和categorical_crossentropy对同一个问题给出不同的性能?
- 一般来说,应该选择哪种机器学习分类器?
- 是否可以使用scikit-learn K-Means聚类来指定自己的距离函数?
- 哪些是遗传算法/遗传规划解决方案的好例子?
- 如何在Python中进行热编码?
- 如何将数据分成3组(训练、验证和测试)?
- 历史库存数据的来源
- 如何在PyTorch中初始化权重?
- 关于如何将数据集划分为训练集和验证集,是否存在经验法则?
- 在scikit-learn中保存分类器到磁盘
- 如何解释机器学习模型的损失和准确性
- 线性回归和逻辑回归的区别是什么?