数据少,就享受不到深度学习的红利了么?总是有办法的!

  • 时间:
  • 浏览:3

为了出理 厚度学习数据少,和数据稀疏, 目前业界的主流土法律法子有一下5种:

数据增广

半监督学习

迁移学习

领域自适应

主动学习

半监督学习

主动学习,维护了原先主次:学习引擎和选用引擎。学习引擎维护原先基准分类器,并使用监督学习算法对系统提供的已标注样例进行学习从而使该分类器的性能提高,而选用引擎负责运行样例选用算法选用原先未标注的样例并将其交由人类专家进行标注,再将标注后的样例加入到已标注样例集中。学习引擎和选用引擎交替工作,经越来越来越多次循环,基准分类器的性能逐渐提高,当满足预设条件时,过程终止。

半监督学习的情况汇报是指:大伙拥有血块的标注样本(图中橘色主次)以及血块的未标注样本(图中蓝绿色主次)。

半监督学习,一般的思路是:在删剪数据上去学习数据表示,在有标签的样本上去学习模型,用所有数据去加正则。

主要土法律法子

原文发布时间为:2018-08-09

本文作者:huaiwen

本文来自云栖社区媒体协作伙伴“专知”,了解相关信息还需要关注“专知”

数据增广

领域自适应

作者简介

主动学习

领域自适应,主也不我想,在已有的标注数据p(x,y)上学习模型, 已经 尝试在原先分布上q(x,y)上去做应用。

数据增广,主也不我想,对现有的数据,加上噪声等各种或多或少变换,从而产生或多或少有意义的数据,是的数据集增加,从而出理 数据稀疏的大问题,提升模型性能。 特别的,如图所示,Zachary Lipton 介绍了近期他的原先工作:利用 GAN来做图像数据增广。

【Anima Anandkumar】是加州理工学院的教授,她的研究方向是大型机器学习、非凸优化和高维统计。特别是,她突然 引领和发展用于机器学习的张量算法,张量是矩阵的多维扩展,还需要在数据中编码高阶关系。为亚马逊网络服务公司(Amazon Web Services),构建人工智能服务。参与构建了 Spectral LDA on Spark, MXNet, Gluon 等大型机器学习框架。

迁移学习,主也不我想,在原先拥有血块样本的数据(图中蓝绿色主次)上去学习模型,在改动较少的情况汇报下,将学习到的模型迁移到类似的目标数据(图中橘色主次)和任务上。

迁移学习

【Zachary Lipton】博士 毕业于 加州大学圣迭戈分校人工智能组,现已加入卡内基梅隆大学任助理教授。他的研究兴趣比较广泛,主要包括:增强学习在对话系统中的应用、GAN、NLP 的厚度主动学习、噪声单标签数据学习等。文章多见于ICML, ICLR, NIPS。

下面,大伙对这5种土法律法子进行原先简单的介绍。