机器学习入门之机器学习总结--andrew ng视频(1)
小标 2018-11-08 来源 : 阅读 837 评论 0

摘要:本文主要向大家介绍了机器学习入门之机器学习总结--andrew ng视频(1),通过具体的内容向大家展现,希望对大家学习机器学习入门有所帮助。

本文主要向大家介绍了机器学习入门之机器学习总结--andrew ng视频(1),通过具体的内容向大家展现,希望对大家学习机器学习入门有所帮助。

由于毕设是关于机器学习的,所以有在学习一些关于机器学习的内容。

起步是先看Andrew ng 的视频,这一周的总结如下。
首先,机器学习分为监督学习和非监督学习。
而我的理解是监督学习是有标准的,即你可以对你的结果以他之前的一些数据作为标准进行判断,所谓监督。监督问题也分为分类和回归问题。分类即结果是一些离散值,回归问题是结果是一些连续值。
对于非监督学习即是给出一些数据集,您能找到他们的结构吗,即并没有所谓的标准,分为聚类和非聚类问题。
最开始是接触线性回归。
training set-->learning algorithm
input-->hypothesis-->output
m个训练例子,x(input)即是特征或者变量,y(output)为目标变量,一般来说X可以一个或者多个。
先来讨论一个x的情况:
h(x) = θ0 + θ1*x;
cost function J(θ) = 1/2m*∑(h(xi)-yi)2  (i-->1:m)
找到 θ0和θ1使得J(θ)最小。当这两值都不为0时,可以得到一三维曲面。
使J(θ)最小,我们可以使用gradient descent 的方法:
θj := θj - α*?/?θjJ(θ0,θ1)   同步更新每个θ
α为学习率,确定步子迈多大。
然后对于多特征(多x)的相应内容:
然后一些对于线性代数的知识的回顾。矩阵与向量,矩阵的转置,求逆之类的。矩阵的乘法不满足交换律和消去律。
 X为一矩阵,m位训练例数,n为特征数,Xj(i)为在第i个训练例中的特征j 的值,X(i)为在第i个训练例中所有的特征的值,为一列值
h(x) = θ0 + θ1*x1+θ2*x2+θ3*x3+....+θn*xn;
所以我们在x的最开始加全是1的一行,来达到h(θ) = θT*X的效果。
在实行gradient descent 的方法时,我们以以下公式同步更新:
θj := θj - α*(1/m)∑(hθ(x(i))-y(i))xj(i)   (i-->1:m)

对于特征范围不一的问题,我们可以用 feature scaling,即特征缩放的方法来解决。

mean normalization:x1 <--(x1-avg)/range
而且还有区别于gradient descent的方法来求最终θ值
Normal Equation(正规方程):
直接得到θ值。
θ = (XTX)-1XTy(当n大(n>10000)时不适用,时间消耗太大)
特征处理:删除多余或者无用特征
以及Octave的使用

本文由职坐标整理并发布,希望对同学们有所帮助。了解更多详情请关注职坐标人工智能机器学习频道!

本文由 @小标 发布于职坐标。未经许可,禁止转载。
喜欢 | 0 不喜欢 | 0
看完这篇文章有何感觉?已经有0人表态,0%的人喜欢 快给朋友分享吧~
评论(0)
后参与评论

您输入的评论内容中包含违禁敏感词

我知道了

助您圆梦职场 匹配合适岗位
验证码手机号,获得海同独家IT培训资料
选择就业方向:
人工智能物联网
大数据开发/分析
人工智能Python
Java全栈开发
WEB前端+H5

请输入正确的手机号码

请输入正确的验证码

获取验证码

您今天的短信下发次数太多了,明天再试试吧!

提交

我们会在第一时间安排职业规划师联系您!

您也可以联系我们的职业规划师咨询:

小职老师的微信号:z_zhizuobiao
小职老师的微信号:z_zhizuobiao

版权所有 职坐标-一站式IT培训就业服务领导者 沪ICP备13042190号-4
上海海同信息科技有限公司 Copyright ©2015 www.zhizuobiao.com,All Rights Reserved.
 沪公网安备 31011502005948号    

©2015 www.zhizuobiao.com All Rights Reserved

208小时内训课程