在人工智能和机器学习方面,监督学习和无监督学习的区别是什么? 你能举个例子简单地解释一下吗?
当前回答
机器学习是一个让机器模仿人类行为的领域。
你训练机器就像训练婴儿一样。人类学习、识别特征、识别模式并训练自己的方式,就像你通过输入各种特征的数据来训练机器一样。机器算法识别数据中的模式,并将其分类到特定的类别。
机器学习大致分为两类,有监督学习和无监督学习。
监督学习是一个概念,你有相应的目标值(输出)的输入向量/数据。另一方面,无监督学习的概念是只有输入向量/数据,没有任何相应的目标值。
监督学习的一个例子是手写数字识别,其中有对应数字[0-9]的数字图像,而非监督学习的一个例子是根据购买行为对客户进行分组。
其他回答
监督式机器学习 算法从训练数据集中学习的过程 预测产出。”
预测输出精度与训练数据(长度)成正比
监督学习是指你有输入变量(x)(训练数据集)和输出变量(Y)(测试数据集),你使用一种算法来学习从输入到输出的映射函数。
Y = f(X)
主要类型:
分类(离散y轴) 预测(连续y轴)
算法:
分类算法: 神经网络 Naïve贝叶斯分类器 费雪线性判别 然而, 决策树 超级向量机 预测算法: 最近的邻居 线性回归,多元回归
应用领域:
将电子邮件分类为垃圾邮件 患者是否有 疾病与否 语音识别 预测HR是否会选择特定的候选人 预测股票市场价格
我一直认为无监督学习和有监督学习之间的区别是随意的,有点令人困惑。这两种情况之间没有真正的区别,相反,在一系列情况下,算法可以或多或少地“监督”。半监督学习的存在是界限模糊的一个明显例子。
我倾向于认为监督是对算法提供关于应该首选哪些解决方案的反馈。对于传统的监督设置,比如垃圾邮件检测,你告诉算法“不要在训练集上犯任何错误”;对于传统的无监督设置,比如聚类,你告诉算法“彼此接近的点应该在同一个聚类中”。很巧的是,第一种反馈形式比后者更具体。
简而言之,当有人说“有监督”时,想想分类,当他们说“无监督”时,想想聚类,尽量不要过于担心除此之外的问题。
例如,训练神经网络通常是监督学习:你告诉网络你输入的特征向量对应于哪个类。
聚类是无监督学习:你让算法决定如何将样本分组到具有共同属性的类中。
另一个无监督学习的例子是Kohonen的自组织地图。
监督学习:你给出各种标记的示例数据作为输入,以及正确的答案。该算法将从中学习,并开始根据输入预测正确的结果。示例:电子邮件垃圾邮件过滤器
无监督学习:你只提供数据,不告诉任何东西——比如标签或正确答案。算法自动分析数据中的模式。例如:谷歌新闻
监督式学习:
监督学习算法分析训练数据并产生推断函数,该函数可用于映射新的示例。
我们提供训练数据,我们知道对某个输入的正确输出 我们知道输入和输出之间的关系
问题类别:
回归:预测连续输出中的结果=>将输入变量映射到某个连续函数。
例子:
给一个人的照片,预测他的年龄
分类:在离散输出中预测结果=>映射输入变量到离散类别
例子:
这个肿瘤癌变了吗?
无监督学习:
无监督学习从未被标记、分类或分类的测试数据中学习。无监督学习识别数据中的共性,并根据每个新数据中这些共性的存在与否做出反应。
我们可以根据数据中变量之间的关系对数据进行聚类,从而推导出这种结构。 基于预测结果没有反馈。
问题类别:
聚类:是对一组对象进行分组,使同一组(称为聚类)中的对象彼此之间(在某种意义上)比其他组(聚类)中的对象更相似。
例子:
收集100万个不同的基因,找到一种方法,自动将这些基因分组,这些基因在某种程度上是相似的,或因不同的变量(如寿命、位置、角色等)而相关。
这里列出了常用的用例。
数据挖掘中分类和聚类的区别?
引用:
Supervised_learning
Unsupervised_learning
来自coursera的机器学习
走向数据科学
推荐文章
- 如何从scikit-learn决策树中提取决策规则?
- 数据挖掘中分类和聚类的区别?
- model.eval()在pytorch中做什么?
- 为什么binary_crossentropy和categorical_crossentropy对同一个问题给出不同的性能?
- 一般来说,应该选择哪种机器学习分类器?
- 是否可以使用scikit-learn K-Means聚类来指定自己的距离函数?
- 哪些是遗传算法/遗传规划解决方案的好例子?
- 如何在Python中进行热编码?
- 如何将数据分成3组(训练、验证和测试)?
- 历史库存数据的来源
- 如何在PyTorch中初始化权重?
- 关于如何将数据集划分为训练集和验证集,是否存在经验法则?
- 在scikit-learn中保存分类器到磁盘
- 如何解释机器学习模型的损失和准确性
- 线性回归和逻辑回归的区别是什么?