在人工智能和机器学习方面,监督学习和无监督学习的区别是什么? 你能举个例子简单地解释一下吗?


当前回答

机器学习: 它探索了可以从数据中学习并对数据进行预测的算法的研究和构建。这种算法通过从示例输入中构建模型来运行,以便做出数据驱动的预测或作为输出表示的决策,而不是严格地遵循静态的程序指令。

监督式学习: 这是从标记的训练数据推断出函数的机器学习任务。训练数据由一组训练示例组成。在监督学习中,每个例子都是一对,由一个输入对象(通常是一个向量)和一个期望的输出值(也称为监督信号)组成。监督学习算法分析训练数据并产生推断函数,该函数可用于映射新的示例。

由“老师”给计算机提供示例输入和它们期望的输出,目标是学习将输入映射到输出的一般规则。具体来说,有监督学习算法采用一组已知的输入数据和对数据(输出)的已知响应,并训练一个模型来生成对新数据响应的合理预测。

Unsupervised learning: It is learning without a teacher. One basic thing that you might want to do with data is to visualize it. It is the machine learning task of inferring a function to describe hidden structure from unlabeled data. Since the examples given to the learner are unlabeled, there is no error or reward signal to evaluate a potential solution. This distinguishes unsupervised learning from supervised learning. Unsupervised learning uses procedures that attempt to find natural partitions of patterns.

在无监督学习中,没有基于预测结果的反馈,也就是说,没有老师来纠正你。在无监督学习方法下,不提供标记的示例,在学习过程中没有输出的概念。因此,由学习方案/模型来寻找模式或发现输入数据的组

你应该使用无监督学习方法,当你需要一个大的 训练你的模型的数据量,以及意愿和能力 去实验和探索,当然这是一个不太好的挑战 通过更成熟的方法解决。无监督学习就是这样 可以学习比监督更大更复杂的模型 学习。这里有一个很好的例子

.

其他回答

监督式学习:

监督学习算法分析训练数据并产生推断函数,该函数可用于映射新的示例。

我们提供训练数据,我们知道对某个输入的正确输出 我们知道输入和输出之间的关系

问题类别:

回归:预测连续输出中的结果=>将输入变量映射到某个连续函数。

例子:

给一个人的照片,预测他的年龄

分类:在离散输出中预测结果=>映射输入变量到离散类别

例子:

这个肿瘤癌变了吗?

无监督学习:

无监督学习从未被标记、分类或分类的测试数据中学习。无监督学习识别数据中的共性,并根据每个新数据中这些共性的存在与否做出反应。

我们可以根据数据中变量之间的关系对数据进行聚类,从而推导出这种结构。 基于预测结果没有反馈。

问题类别:

聚类:是对一组对象进行分组,使同一组(称为聚类)中的对象彼此之间(在某种意义上)比其他组(聚类)中的对象更相似。

例子:

收集100万个不同的基因,找到一种方法,自动将这些基因分组,这些基因在某种程度上是相似的,或因不同的变量(如寿命、位置、角色等)而相关。

这里列出了常用的用例。

数据挖掘中分类和聚类的区别?

引用:

Supervised_learning

Unsupervised_learning

来自coursera的机器学习

走向数据科学

机器学习: 它探索了可以从数据中学习并对数据进行预测的算法的研究和构建。这种算法通过从示例输入中构建模型来运行,以便做出数据驱动的预测或作为输出表示的决策,而不是严格地遵循静态的程序指令。

监督式学习: 这是从标记的训练数据推断出函数的机器学习任务。训练数据由一组训练示例组成。在监督学习中,每个例子都是一对,由一个输入对象(通常是一个向量)和一个期望的输出值(也称为监督信号)组成。监督学习算法分析训练数据并产生推断函数,该函数可用于映射新的示例。

由“老师”给计算机提供示例输入和它们期望的输出,目标是学习将输入映射到输出的一般规则。具体来说,有监督学习算法采用一组已知的输入数据和对数据(输出)的已知响应,并训练一个模型来生成对新数据响应的合理预测。

Unsupervised learning: It is learning without a teacher. One basic thing that you might want to do with data is to visualize it. It is the machine learning task of inferring a function to describe hidden structure from unlabeled data. Since the examples given to the learner are unlabeled, there is no error or reward signal to evaluate a potential solution. This distinguishes unsupervised learning from supervised learning. Unsupervised learning uses procedures that attempt to find natural partitions of patterns.

在无监督学习中,没有基于预测结果的反馈,也就是说,没有老师来纠正你。在无监督学习方法下,不提供标记的示例,在学习过程中没有输出的概念。因此,由学习方案/模型来寻找模式或发现输入数据的组

你应该使用无监督学习方法,当你需要一个大的 训练你的模型的数据量,以及意愿和能力 去实验和探索,当然这是一个不太好的挑战 通过更成熟的方法解决。无监督学习就是这样 可以学习比监督更大更复杂的模型 学习。这里有一个很好的例子

.

监督式学习

监督学习是基于对数据样本的训练 来自已分配正确分类的数据源。 这种技术用于前馈或多层 感知器(MLP)模型。这些MLP有三个特点 特点:

一层或多层不属于输入的隐藏神经元 或者网络的输出层,使网络能够学习和 解决任何复杂的问题 神经元活动所反映的非线性为 可微的, 网络的互联模型表现出高度的互联性 连通性。

These characteristics along with learning through training solve difficult and diverse problems. Learning through training in a supervised ANN model also called as error backpropagation algorithm. The error correction-learning algorithm trains the network based on the input-output samples and finds error signal, which is the difference of the output calculated and the desired output and adjusts the synaptic weights of the neurons that is proportional to the product of the error signal and the input instance of the synaptic weight. Based on this principle, error back propagation learning occurs in two passes:

传球前进:

这里,输入向量被呈现给网络。这个输入信号向前传播,一个神经元一个神经元地通过网络,并出现在输出端 网络作为输出信号:y(n) = φ(v(n)),其中v(n)是神经元的诱导局部场,定义为v(n) =Σ w(n)y(n)。在输出层o(n)计算的输出与期望的响应d(n)进行比较,并找到该神经元的误差e(n)。在这一过程中,神经网络的突触权重保持不变。

向后传递:

产生于该层输出神经元的错误信号通过网络向后传播。这将计算每个层中每个神经元的局部梯度,并允许网络的突触权值按照delta规则发生变化,如下:

Δw(n) = η * δ(n) * y(n).

这种递归计算继续进行,对每个输入模式进行向前传递和向后传递,直到网络收敛。

人工神经网络的监督学习模式是有效的,可以解决分类、植物控制、预测、预测、机器人等线性和非线性问题。

无监督学习

Self-Organizing neural networks learn using unsupervised learning algorithm to identify hidden patterns in unlabelled input data. This unsupervised refers to the ability to learn and organize information without providing an error signal to evaluate the potential solution. The lack of direction for the learning algorithm in unsupervised learning can sometime be advantageous, since it lets the algorithm to look back for patterns that have not been previously considered. The main characteristics of Self-Organizing Maps (SOM) are:

它将任意维度的输入信号模式转换为 一维或二维映射,并自适应地执行这种转换 该网络表示具有单一的前馈结构 计算层由一排排排列的神经元组成 列。在表示的每个阶段,每个输入信号都被保留 在适当的情况下, 处理紧密相关信息的神经元是紧密的 它们一起通过突触连接进行交流。

计算层也被称为竞争层,因为该层中的神经元相互竞争变得活跃。因此,这种学习算法被称为竞争算法。SOM中的无监督算法 工作分为三个阶段:

竞争阶段:

对于呈现给网络的每一个输入模式x,计算与突触权值w的内积,竞争层神经元找到一个诱发神经元竞争的判别函数,在欧氏距离上与输入权值向量接近的突触权值向量被宣布为竞争获胜者。这个神经元被称为最佳匹配神经元,

i.e. x = arg min ║x - w║.

合作的阶段:

获胜的神经元决定了合作神经元的拓扑邻域h的中心。这是通过横向相互作用d之间 合作的神经元。这种拓扑邻域在一段时间内减小了它的大小。

适应阶段:

使获胜的神经元及其邻近神经元根据输入模式增加其判别函数的个体值 通过适当的突触权重调整,

 Δw = ηh(x)(x –w).

在训练模式重复呈现后,由于邻域更新,神经网络的权重向量倾向于跟随输入模式的分布,因此神经网络在没有监督的情况下进行学习。

自组织模型自然地代表了神经生物学行为,因此被用于许多现实世界的应用,如聚类,语音识别,纹理分割,矢量编码等。

参考。

监督学习是指你为算法提供的数据被“标记”或“标记”,以帮助你的逻辑做出决策。

示例:贝叶斯垃圾邮件过滤,您必须将一个项目标记为垃圾邮件以优化结果。

无监督学习是一种试图在原始数据之外没有任何外部输入的情况下找到相关性的算法。

例如:数据挖掘聚类算法。

在监督学习中,我们知道输入和输出应该是什么。例如,给定一组汽车。我们得找出哪些是红的,哪些是蓝的。

然而,无监督学习是指我们必须在很少或没有任何关于输出应该如何的想法的情况下找到答案。例如,学习者可以建立一个模型,根据面部模式和单词(如“你在笑什么?”)的相关性来检测人们何时在微笑。