自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(6)
  • 收藏
  • 关注

原创 学习笔记:机器学习--2.2过拟合和正规化

这是机器学习的第二章第二节:过拟合(Overfitting)和正规化(Regularization)通过这一节的学习我们将理解并学会如何对Linear regression和Logistic regression的Cost function进行正规化操作,使其达到更优异的效果(able to generalize to new examples more effective)。更新的函数如下:...

2018-07-20 06:39:56 444 1

原创 学习笔记:机器学习--2.1逻辑回归模型

这是机器学习第二章第一节:Classification(分类) and Logistic regression model(逻辑回归模型)第一章中介绍了机器学习中基于监督式学习(Supervised learning)下的线性回归(Linear regression)模型,根据一组连续的数据来判断任意给定新的一个数据对应的结果。在第二章中我们将学习Supervised learning下的另一...

2018-07-19 06:49:04 326 1

原创 学习笔记:机器学习--1.4正规方程求解\(\theta\)值

这是机器学习的第一章第四节:通过Normal Equation(正规方程)求解\(\theta\)在学习本节过程中,仍将提及到高等数学中矩阵的相关内容通过这一节的学习将会了解另一种计算\(\theta\)值的方法,即Normal Equation。在上一节中,我们学习了Gradient descent方法循环求解\(\theta\)值,通过每一次循环逐渐逼近\(\theta\)值的最优解...

2018-07-16 04:19:12 1149 1

原创 学习笔记:机器学习--1.3多变量的梯度下降法

这时机器学习的第一章第三节:Gradient descent for Multiple variables(多变量的梯度下降法)在学习本节过程中,将会涉及到高等数学中矩阵的相关知识通过这一节的学习将会了解第一节中函数1.1.1,函数1.1.2和第二节中公式1.2.1在多个自变量\(x\)与多个parameter \(\theta_i\)的情况下的具体计算方法。首先解释\(x_j^{(i)},y_j...

2018-07-14 11:25:18 3578 1

原创 学习笔记:机器学习--1.2梯度下降法

这是机器学习的第一章第二节:Gradient descent(梯度下降法)通过这一节的学习将会了解到以下一个公式的含义:公式2.1:\theta_j := \theta_j - \alpha\frac{\partial }{\partial \theta_j}J(\theta_0,\theta_1)通过第一节(Cost function)的学习,我们知道了函数1.1(Hypothesis)并且知道...

2018-07-14 01:10:09 237

原创 学习笔记:机器学习--1.1代价函数

目前在学习Coursera的Machine Learning课程,决定做一份笔记以便记录学习情况。这是机器学习的第一章第一节:Cost Function(代价函数)通过这一节的学习将会了解到以下两个函数公式的含义:函数1-Hypothesis:\(h_\theta (x)=\theta _0+\theta_1x\)函数2-Cost function:\(\displaystyle J(\theta...

2018-07-13 08:08:25 425

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除