机器学习入门之机器学习理论三部曲
小标 2019-01-22 来源 : 阅读 696 评论 0

摘要:本文主要向大家介绍了机器学习入门之机器学习理论三部曲,通过具体的内容向大家展现,希望对大家学习机器学习入门有所帮助。

本文主要向大家介绍了机器学习入门之机器学习理论三部曲,通过具体的内容向大家展现,希望对大家学习机器学习入门有所帮助。

一、《机器学习理论三部曲》—— 引言 (Part I )

本文由北邮@爱可可-爱生活老师推荐,阿里云云栖社区组织翻译。

以下为译文

大多数人在小的时候被魔术师以及魔术技巧所迷住,并想弄明白其中的奥秘。有些人会带着这份迷恋研究到更深处并学习魔术技巧,有些人会接受专业的训练,而其他人会继续平庸下去。我在年幼时也尝试过魔术技巧并沉迷于其中,然而后来学习的是另外一种魔术,称作计算机编程。

编程确实酷似魔法, 和魔术一样,自学的现象在计算机编程世界占了上风。在过去的两年计算机开发者调查显示,超过一半的开发者是无师自通。我是在全职工作外学习这些计算机科学知识,当你已经工作后再尝试学习这些科目会是相当大的一个挑战。

如今我们可以找到很多关于计算机科学的视频、文章、博客以及自定进度点播MOOC课程,这几乎涉及每个方面。其中很多写的很详细并解释得很清楚,而且可以自由访问。这些资源的存在使得自我学习过程更加全面,使工作/生活/学习的平衡更易于管理,不幸的是,这并不是学习编程的完全正确趋势。

机器学习

虽然在大二就开始自学机器学习,但当毕业后才意识到自己错过了许多基础知识。所以在同样情形下,我很高兴发现自己避免了这种情况的发生,但机器学习理论不像计算机科学世界那么容易驯服。虽然互联网上充满了学习资源,但理论方面的内容是不一样的。即使你可以找到书籍、讲义、甚至是全部的讲座,但大多数不能像一系列博客、短视频或者MOOC提供的灵活性。

本文根据作者本身学习计算机科学的经验,给出了学习机器学习理论的这一系列文章,能够填补自主学习机器学习的理论与实践之间的差距,从而在征途上少一些艰辛。

这个系列是为了谁?

该系列意图是为了给机器学习理论方面提供简单的介绍,这将会对你是有利的,如果你是:

l  机器学习的从业者,并想深入了解详细过程;

l  机器学习的学生,尝试深入钻研机器学习理论并会喜欢一些宽松政策;

如果你是机器学习的初学者,这可能不是你的最佳起点。使用实际教程开始会更好。当你掌握了机器学习实践的窍门后,如果你觉得有必要,可以回到这里。

先决条件

理论需要数学知识,机器学习的理论也不例外。但是由于这仅仅是为了简单的介绍,不会钻研太深的数学分析,将更加注重理论的直觉与足够的数学知识以为了保持严谨。

大多数所需要的知识是:概率和随机变量,和微积分的基本知识。

注意事项

我仍然不是这个领域的专家,所以当你在这个系列中发现一些错误,请让我知道;

这仅仅是一个简单介绍,如果你想真正理解该领域,在阅读该系列的同时也要努力工作;

现在将机器学习问题快速公式化,以便建立起数学模型和框架

形式化学习问题

在这个系列中,将主要侧重有监督学习问题,数据集https://yqfile.alicdn.com/cfced9e187595ae164c5b0284f521f9b3fd4c4f4.png,其中xi是特征向量,yi是标签,问题是给定xi,怎么得到yi的值。比如说xi是具体医学测量结果的特征向量,yi是病人是否为糖尿病,我们希望从给定的医学测试结果中诊断是否患有糖尿病。

为了建立理论框架,重新梳理下已经知道的内容

1  知道从众多人口中随机采样的数据集中的值(xi,yi),具体的例子中的数据集是从众多可能患者中随机采样得到

将该例子公式化,两个随机变量X和Y表示xi与yi,且概率分布分别为P(X)和P(Y);

2  我们知道X与Y之间有一些规则,并希望任意的XY对都能符合该规则,定义该规则,正式将其称为空间,X是从输入空间X中取值得到,Y是从输出空间Y取值得到;

3  特征值与标签之间有一定的联系,在某种程度上,特征值决定标签值,或者说Y的值是以X值为条件;

正式地,将其称作条件概率P(Y|X),利用该概率可以得到其联合概率密度P(X|Y);







根据这三点,可以定义统计模型,下图形式化的描述了模型的处理过程







目标函数

机器学习过程的根本任务是理解条件概率分布P(Y|X)的性质,为了避免麻烦,下面介绍一些简单的工作。

可以使用均值和方差分解一个随机变量,均值是随机变量的中心,方差是测量随机变量在均值周围是如何分布。假设给定随机变量V和W,则







其中E[V|W]是随机变量V给W的条件均值,该均值可以将V的值分解为两部分。任意W与V的相关联值(wi,vi)的关系可以定义如下







ζ表示噪声变量ζ的值,称为噪声分量,同样地定义统计模型(xi,yi)







其f : X → Y的函数定义如下







即条件概率是输入空间X映射到输出空间Y的函数,使用下列公式表示特征与标签的联系







目标函数为f=f(x),统计模型简化为







机器学习的任务简化为估计函数f。

假设

由于要对现存的每个函数进行评估,因此尝试对函数f进行假设,定义函数可能的空间为假设空间H。

如果假设函数f是来自ax+b,可以定义假设空间H为







这是所有函数h映射输入空间到输出空间的集合,机器学习的任务现在是从H中挑选出一个具体的函数h,该函数能够最好的估计目标函数f。

损失函数

损失函数是用来评估假设函数估计目标函数的效果如何,定义损失函数(代价函数)







该函数是将从特征向量x中得到的估计标签y与真实标签y的差距







使用损失函数可以计算假设函数h对整个数据集的性能,分类错误或者经验风险定义为







在这里不称作经验误差的原因是如果使用E表示误差,这会导致与期望值E标记的混乱,因此使用风险和R代替。通过定义的经验误差,机器学习过程需要选择最小的Remh(h)作为目标函数f的最优估计。

泛化误差

我们的目标是学习总体数据集的概率分布,这意味着假设应该对采样出的新数据也会有低的错误。这也说明这些表现好的假设在总体概率分布上有好的泛化,定义泛化误差:







学习问题是否可解?

如果Remp(h)和R(h)非常接近,那么学习问题可解。问题转化为计算下述概率:







公式表示R与Remp之间的绝对差的最小上界大于https://yqfile.alicdn.com/c46fe657687292c24ec56787bfee66d8f95aec0a.png的概率,若该概率足够小,则学习问题可解。

参考文献:

l James, Gareth, et al. An introduction to statistical learning. Vol. 6. New York:springer, 2013.

l Friedman, Jerome, Trevor Hastie, and Robert Tibshirani. The elements of statistical learning. Vol. 1. Springer, Berlin: Springer series in statistics, 2001.

l Mohri, Mehryar, Afshin Rostamizadeh, and Ameet Talwalkar. Foundations of machine learning. MIT press, 2012.

l Abu-Mostafa, Y. S., Magdon-Ismail, M., & Lin, H. (2012). Learning from data: ashort course

文章原标题《Machine Learning Theory - Part I》,作者:Mostafa Samir,译者:海棠

文章为简译,更为详细的内容,请查看原文

————————————————————————————————

二、《机器学习理论三部曲》—— 泛化界限 (Part II )

本文由北邮@爱可可-爱生活老师推荐,阿里云云栖社区组织翻译。

以下为译文:

上节总结到最小化经验风险不是学习问题的解决方案,并且判断学习问题可解的条件是求:







在本节中将深度调查研究该概率,看其是否可以真的很小。

独立同分布

为了使理论分析向前发展,作出一些假设以简化遇到的情况,并能使用从假设得到的理论推理出实际情况。

我们对学习问题作出的合理假设是训练样本的采样是独立同分布的,这意味着所有的样本是相同的分布,并且每个样本之间相互独立。

大数法则

如果重复一个实验很多次,这些实验的平均值将会非常接近总体分布的真实均值,这被称作大数规则,若重复次数是有限次m,则被称作弱大数法则,形式如下:







将其用在泛化概率上,对于单假设h有







hoeffding不等式

集中不等式提供了关于大数法则是如何变化的更多信息,其中一个不等式是Heoffding不等式:







将其应用到泛化概率上,假设错误限定在0和1之间,则对于假设h有







这意味着训练与泛化误差之间的差大于







的概率是随着数据集的大小成指数衰减。

泛化界限:第一次尝试

为了针对整个假设空间都有泛化差距大于







,表示如下:







使用布尔不等式,可以得到







使用Heoffding不等式分析,能够准确知道概率界限,以下式结束:







置信度1-δ有







使用基本代数知识,用δ表示







得到:







上式就是第一次泛化界限,该式表明泛化错误是受到训练误差加上以假设空间大小和数据集大小的函数的限定。

检验独立性假设

首先需要问自己是否每一个可能的假设都需要考虑?答案是简单的,由于学习算法需要搜索整个假设空间以得到最优的解决方案,尽管这个答案是正确的,我们需要更正式化的答案:

泛化不等式的公式化揭示了主要的原因,需要处理现存的上确界,上确界保证了存在最大泛化差距大于







的可能性。如果忽略某个单假设,则可能会错过“最大泛化差距”并失去这一优势,这不是我们能够承担的,因此需要确保学习算法永远不会落在一个有最大泛化差距大于







的假设上。







从上图可以看出是二分类问题,很明显彩色线产生的是相同的分类,它们有着相同的经验风险。如果只对经验风险感兴趣,但是需要考虑样本外的风险,表示如下:







为了确保上确界要求,需要考虑所有可能的假设。现在可以问自己,每一个有大泛化差距的假设事件可能是互相独立的吗?如果上图红线假设有大的泛化差距大于







,那么可以肯定的是在该区域的每个假设也都会有。







这对我们的数学分析是没有帮助的,由于区域之间看起来取决于样本点的分布,因此没有方法在数学上精确获取这些依赖性,于是这些统一的界限和独立假设看起来像是我们能够做的最佳近似,但它高估了概率并使得这些界限非常接近,性能不好。

对称引理

假设训练集是独立同分布,但不是只考虑数据集S的部分,假设有另外的数据集S’,大小为m,将其称作ghost数据集。使用ghost数据集可以证明:







该式意味着最大泛化差距大于







的概率几乎是S与S’之间的经验风险差概率大于







的两倍,这被称作对称引理。

生长函数

如果我们有许多假设有着相同的经验风险,可以放心地选择其中一个作为整个群的代表,将其称作有效假设并抛弃其它的假设。

假设在







中的假设的独立性与之前在H的假设一样,使用一致限可以得到:







定义不同S数据集的标签值的最大数作为生长函数,对于二元分类情况,可以看到:







但由于是指数形式,随着m的增大而快速增长,这会导致不等式变坏的几率变得更快。

VC维

如果一个假设空间确实能够在数据点集上产生概率标签,我们可以说该假设空间打碎了该数据点集。但任何假设空间能打碎任何尺寸的数据集吗?下图展示的是2D的线性分类器有多少种方法标记3点(左边)和4点(右边)。







事实上,没有2D线性分类分类器可以打散任何4点的数据集,因为总是会有两个标签不能被线性分类器生成,如下图所示:







从图中的判定边界,可清晰知道没有线性分类器能产生这样的标签,因为没有线性分类器能够以这样的方式划分空间,这一事实能够用来获得更好的限定,这使用Sauer引理:

如果假设空间H不能打算任何大小超过k的数据集,那么有







K是空间H能够打碎的最大数量点,也被称作Vapnik-Chervonenkis-dimension或者VC维数。

生长函数的界限是通过sauer引理提供的,确实是比之前的指数形式好很多,运用代数运算,能够证明:







这样我们能够针对生长函数使用VC维数作为其替身,







将会是复杂度或者假设空间丰富度的测量。


本文由职坐标整理并发布,希望对同学们有所帮助。了解更多详情请关注职坐标人工智能机器学习频道!


本文由 @小标 发布于职坐标。未经许可,禁止转载。
喜欢 | 0 不喜欢 | 0
看完这篇文章有何感觉?已经有0人表态,0%的人喜欢 快给朋友分享吧~
评论(0)
后参与评论

您输入的评论内容中包含违禁敏感词

我知道了

助您圆梦职场 匹配合适岗位
验证码手机号,获得海同独家IT培训资料
选择就业方向:
人工智能物联网
大数据开发/分析
人工智能Python
Java全栈开发
WEB前端+H5

请输入正确的手机号码

请输入正确的验证码

获取验证码

您今天的短信下发次数太多了,明天再试试吧!

提交

我们会在第一时间安排职业规划师联系您!

您也可以联系我们的职业规划师咨询:

小职老师的微信号:z_zhizuobiao
小职老师的微信号:z_zhizuobiao

版权所有 职坐标-一站式IT培训就业服务领导者 沪ICP备13042190号-4
上海海同信息科技有限公司 Copyright ©2015 www.zhizuobiao.com,All Rights Reserved.
 沪公网安备 31011502005948号    

©2015 www.zhizuobiao.com All Rights Reserved

208小时内训课程