机器学习入门之机器学习算法面试口述(7)—分类小结
小标 2018-09-29 来源 : 阅读 1702 评论 0

摘要:本文主要向大家介绍了机器学习入门之机器学习算法面试口述(7)—分类小结,通过具体的内容向大家展现,希望对大家学习机器学习入门有所帮助。

本文主要向大家介绍了机器学习入门之机器学习算法面试口述(7)—分类小结,通过具体的内容向大家展现,希望对大家学习机器学习入门有所帮助。

       

这个系列是为了应对找工作面试时面试官问的算法问题,所以只是也谢算法的简要介绍,后期会陆续补充关于此

算法的常见面问题。
 分类的概念就说了,分类一般分为两个阶段:学习阶段以及分类阶段;
  常用的分类方法有:
1、决策树
  决策树不需要任何领域的知识或者参数的设置,其可以处理高维数据,简单快速。
若分类的数据是连续的,则需要插入分裂点将数据离散化;树建立的过程中,需要按照一定的
规则选择分裂的属性,可以有信息的增益、增益率、基尼指数等等,不同的规则对应的决策树,
如前面三种分别对应ID3、C4.5、CART。
树的建立过程中或则建立后可能需要对树进行剪枝;树的剪枝分为先剪枝和后剪枝,先剪枝是
提前停止书的构造,而后剪枝是将完全生长的树减去子树。
  以上的几种方法都只能适用于能贮存于内存的数据,若是数据量过大,这几种方法都不行
(可以考虑RainForest)!具体关于决策树可以见前面的博文。
//blog.csdn.net/xwchao2014/article/details/47979167

2、贝叶斯方法(朴素贝叶斯以及贝叶斯信念网络)
这个方法前面博文中已经写得很详细了,可以参考下。其实也就是一个贝叶斯公式。。。
//blog.csdn.net/xwchao2014/article/details/47977283

3、组合分类方法
  两种常用的组合分类方法:装袋与提升
装袋:比如投票,每一票的权重都是相同的;
提升:与装袋不同的是其每一票的权重是不同的,比如AdaBoost;
当然还有就是也比较出名的随机森林(这个还没看,这个之后补上)!
关于AdaBoost可以看前面的博文,下面会给出链接:
//blog.csdn.net/xwchao2014/article/details/47953353

4、基于规则的分类
使用IF-THEN规则分类
覆盖率与准确率

数据集D,规则R覆盖的元祖数Ncovers,其中正确的为Ncorrect则
coverage(R) = Ncovers / |D|, accuracy(R) = Ncorrect / Ncovers

当多个规则同时触发时,可以使用下面两个方式决定哪个规则先响应
1.规模序:选择条件最苛刻的(一般为条件最多的);
2.规则序:事先定义了优先级。

从树的跟到叶节点的路径创建一个规则,这样的规则是互斥(不存在冲突)以及穷举
的(存在所有的规则)。

规则集的修改:不能提高规则的估计准确率的任何条件都应该被剪掉。
 

使用顺序覆盖算法的规则归纳
一般的策略是:一次学习一个规则,每学习一个规则就删除该规则覆盖的元组,并在剩下
的元组中重该过程。

模型的评估与选择
可以参考决策树;
交叉验证
k-折交叉验证:将数据分组,每次留出一组作为验证集
留一:每次使用一个样本作为验证集
自助法
有放回的均匀抽样,常用的有。632自助法(数据的63.2%出现在自助样本中)

5、后向传播分类
神经网络是一组连接的输入/输出单元,其中每个连接与一个权重相关联,通过调整权重,预
测输入元组的类别。其优点是抗噪性能好,分类能力比较强,缺点是知识的表示比较不容易。

前馈网络
输入层 + 隐藏层 + 输出层(没有一个反向传播的过程)。
理论上:给足够多的训练样本以及隐藏单元,可以逼近任意函数。
后向传播
比前馈网络多了一个后向传播的过程;整体步骤如下
1、初始化权重; 2、前向传播; 3、后向传播误差,更新数据;
算法结束的终止条件:1、周期内所有权重的更新值小于某一值;
2、迭代次数达到某一预先设定好的值;

6、SVM(支持向量机)
这个可以参考前面的博文//blog.csdn.net/xwchao2014/article/details/47948063
或则网上有个SVM的三重境界写的蛮详细,可以看看;

7、使用频繁模式分类
1,、关联分析; 2、基于有区别力的频繁模式分类; -> 这两个现在不写了,后面的文章会
详细写这两个
 
以上的这些方法都是急切学习法,也就是说在分类数据前,已经建立好了模型,主要的工作
是在模型的建立上面;下面说一下惰性学习法;

惰性学习法——给定一个训练元祖,知识简单的存储它,并一直等待,知道给定一个
检验元组时才进行泛化;
1、基于K-近邻
      
计算所有数据与给定标号点的距离,离哪个近则归于哪一类(计算量太大);
2、基于案例的推理
首先检查是否存在同样的训练案例,如存在则直接返回对应的结果;
若是找不到,则搜索具有雷士的新案例和组合解的合适方法;

其他的分类方法
1、遗传算法
交叉、变异、最合适的规则及后代
2、粗糙集算法
上近似以及下近似的概念;
3、模糊集的方法
允许处理模糊的、不精确的事实,是一种软分类

对于多分类的问题可以组合几个二分类!

半监督分类
 使用有标号的数据与无标号的数据构造分类器;
假设存在数据:
有标号的数据Xl = {(x1,y1),(x2,y2),......(xk,yk)};
无标号的数据Xu = {xk+1,....xn};
1、自我训练
先使用有标号的数据构造分类器,将构造好的分类器对无标号的数据进行分类,将分类结果中
最有把握的分类数据及其分类标号加入到有标号的数据中,重复训练与分类;
  可能会强化错误,这是其一个缺点;

2、协同训练
两个或则多个分类器互相教学;
对数据Xl,定义两个不重叠的特征集,训练两个不同的分类器,f1,f2,使用这两个分类器对Xu
进行分类,将最有把握的(x,f1(x))添加到f2中的有标号的数据中,将最有把我的(x,f2(x))
添加到f1中的有标号的数据中;重复整个过程;

3、主动学习
适用于数据丰富,但是类标号稀缺或则获取昂贵的情况。
设D为小子集的有标号的数据集,这个小子集定义为L,从L开始为初始训练集,之后使用一个
查询函数从(D-L)中精心选择一个或者多个样本像一位智者询问其标号,之后加入到L中去;
这个方法的问题在于如何选择被询问的元,可以使用不确定抽样、决策论等方面的知识。

4、迁移学习
从一个或则多个源任务提取知识,并将这种知识用于目标任务(分类器的构造需要较少的训练
数据和较少的训练时间);
假定老数据大部分有用,通过自动调整赋予训练原组的权重,过滤掉与新数据很不相同的老数
据的影响;迁移学习的难点在于负迁移的情况的出现(负迁移是指新分类器的性能比完全不迁
移的效果还差)!

本文由职坐标整理并发布,希望对同学们有所帮助。了解更多详情请关注职坐标人工智能机器学习频道!

本文由 @小标 发布于职坐标。未经许可,禁止转载。
喜欢 | 0 不喜欢 | 0
看完这篇文章有何感觉?已经有0人表态,0%的人喜欢 快给朋友分享吧~
评论(0)
后参与评论

您输入的评论内容中包含违禁敏感词

我知道了

助您圆梦职场 匹配合适岗位
验证码手机号,获得海同独家IT培训资料
选择就业方向:
人工智能物联网
大数据开发/分析
人工智能Python
Java全栈开发
WEB前端+H5

请输入正确的手机号码

请输入正确的验证码

获取验证码

您今天的短信下发次数太多了,明天再试试吧!

提交

我们会在第一时间安排职业规划师联系您!

您也可以联系我们的职业规划师咨询:

小职老师的微信号:z_zhizuobiao
小职老师的微信号:z_zhizuobiao

版权所有 职坐标-一站式IT培训就业服务领导者 沪ICP备13042190号-4
上海海同信息科技有限公司 Copyright ©2015 www.zhizuobiao.com,All Rights Reserved.
 沪公网安备 31011502005948号    

©2015 www.zhizuobiao.com All Rights Reserved

208小时内训课程