自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+

小王子快跑

改变你能改变的

  • 博客(12)
  • 收藏
  • 关注

原创 降维 (Dimensionality Reduction)

文章目录1. 目标一:数据压缩2. 目标二:数据可视化1. 目标一:数据压缩第二种类型的无监督学习问题,称为降维。有几个不同的的原因可能想要做降维。一是数据压缩,数据压缩不仅允许压缩数据,它也加快学习算法。作为一种生动的例子,收集的数据集有许多特征:假设未知两个的特征:x1x_1x1​:长度:用厘米表示;x2x_2x2​:是用英寸表示同一物体的长度。所以,这给了高度冗余表示,也许不是两个分开的特征x1x_1x1​和x2x_2x2​,这两个基本的长度度量,也许想要做的是减少数据到一维,只有一个数测

2021-09-30 12:36:25 617

原创 机器学习 - 主成分分析法 (PCA)

在**PCA**中,要做的是找到一个方向向量(**Vector direction**),当把所有的数据都投射到该向量上时,希望投射平均均方误差能尽可能地小。方向向量是一个经过原点的向量,而投射误差是从特征向量向该方向向量作垂线的长度。问题是要将$n$维数据降至$k$维,目标是找到向量$u^{(1)}$,$u^{(2)}$,...,$u^{(k)}$使得总的投射误差最小。主成分分析与线性回顾的比较:

2021-09-30 12:35:21 10098

原创 聚类参考资料

文章目录1.相似度/距离计算方法总结(1). 闵可夫斯基距离 Minkowski(其中欧式距离:p=2p=2p=2)(2). 杰卡德相似系数(Jaccard)(3). 余弦相似度(cosine similarity)(4). Pearson皮尔逊相关系数2.聚类的衡量指标(1). 均一性:ppp(2). 完整性:rrr(3). V-measure(4). 轮廓系数(5). ARI1.相似度/距离计算方法总结(1). 闵可夫斯基距离 Minkowski(其中欧式距离:p=2p=2p=2)dist(X,Y

2021-09-21 18:52:29 142

原创 机器学习 - 聚类 (Clustering)

**K-均值**是最普及的聚类算法,算法接受一个未标记的数据集,然后将数据聚类成不同的组。**K-均值**是一个迭代算法,假设想要将数据聚类成n个组,其方法为:1. 首先选择$K$个随机的点,称为**聚类中心**(**cluster centroids**);2. 对于数据集中的每一个数据,按照距离$K$个中心点的距离,将其与距离最近的中心点关联起来,与同一个中心点关联的所有点聚成一类。3. 计算每一个组的平均值,将该组所关联的中心点移动到平均值的位置。重复步骤2、3直至中心点不再变化。

2021-09-21 18:51:27 866

原创 机器学习 - 支持向量机 (Support Vector Machines)

文章目录1. 优化目标2. 大边界的直观理解 (Large Margin Intuition)1. 优化目标这里的假设函数是缘自逻辑回归(Logistic),它也就是用到了 sigmoidsigmoidsigmoid 函数图像如上。其中, zzz 表示θTx\theta^TxθTx。在逻辑回归中:如果有一个 y=1y=1y=1的样本,希望hθ(x){{h}_{\theta }}\left( x \right)hθ​(x) 趋近1,这样代价函数 JJJ 才会最小, 从而正确地将此样本分类。在 sigm

2021-09-17 09:07:02 199

原创 性能度量 - 对学习器泛化能力的评估

如何计算“测试误差”? 需要利用性能度量,例如:均方差,错误率等,即“测试误差”的一个评价标准。有了评估方法和性能度量,就可以计算出学习器的“测试误差”,但由于“测试误差”受到很多因素的影响,例如:算法随机性或测试集本身的选择。1. 最常见的性能度量 - 错误率与精度2. 查准率/查全率/F13. ROC与AUC4. 代价敏感错误率与代价曲线

2021-09-16 12:27:25 1606

原创 偏差与方差 (Bias and variance)

当运行一个学习算法时,如果这个算法的表现不理想,那么多半是出现两种情况:要么是偏差比较大,要么是方差比较大。换句话说,出现的情况要么是欠拟合,要么是过拟合问题。训练集误差和交叉验证集误差近似时:偏差/欠拟合交叉验证集误差远大于训练集误差时:方差/过拟合

2021-09-16 10:32:02 222

原创 梯度下降 (Gradient Descent)

梯度下降是一个用来求函数最小值的算法,将使用梯度下降算法来求出代价函数.梯度下降背后的思想是:开始时随机选择一个参数的组合$\left( {\theta_{0}},{\theta_{1}},......,{\theta_{n}} \right)$,计算代价函数,然后寻找下一个能让代价函数值下降最多的参数组合。持续这么做直到找到一个局部最小值(**local minimum**),因为并没有尝试完所有的参数组合,所以不能确定得到的局部最小值是否便是全局最小值(**global minimum**),选择不同的

2021-09-11 11:01:42 3582

原创 机器学习 - 逻辑回归 (Logistic Regression)

1. 逻辑回归(Logistic Regression)1.1 分类问题在这个以及接下来的几个视频中,开始介绍分类问题。在分类问题中,你要预测的变量 yyy 是离散的值,我

2021-09-05 15:31:54 163

原创 机器学习 - 反向传播算法 (BP)

1、sigmoid函数1.1 从指数函数到sigmoidsigmoid函数,也就是s型曲线函数,如下:函数: $ f(z) = 1\frac{1}{1+e^(-2)} $上面是我们常见的形式,虽然知道这样的形式,也知道计算流程,不够感觉并不太直观,下面来分析一下。1.2 对数函数与sigmoid2、sigmoid函数求导3、神经网络损失函数求导...

2021-08-28 10:40:06 678

转载 Sigmoid函数与损失函数求导

1. sigmoid函数sigmoid函数,也就是s型曲线函数,如下:函数:f(z)=11+e−zf(z)=\frac{1}{1+e^{-z}}f(z)=1+e−z1​导数:f′(z)=f(z)(1−f(z))f'(z)=f(z)(1-f(z))f′(z)=f(z)(1−f(z))上面是我们常见的形式,虽然知道这样的形式,也知道计算流程,不够感觉并

2021-08-27 19:04:16 1605

原创 撰写全英文EI会议论文值得注意的要点!

首先,EI会议论文有用吗?当然是有用的,EI是国际上三大检索系统之一,所以EI论文肯定是有用的,是受认可的,但EI检索的不单单是学术期刊,还有学术会议,期刊论文和会议论文是不同的,总体来说,EI的期刊论文比会议论文认可度更高一些,EI会议论文有些争议比较大。EI会议论文写作与一般的期刊论文不同,它有以下几个要点:1、必须是英文2、文章尽量做到有图或者表格,不能是单纯理论阐述3、文章尽量写成偏向工程技术方向,如果是社会科学类论文,尽量不要完全写成文科方面的论文,融入一些工程技术类成分进去4、文章篇

2020-08-31 19:50:10 6617 1

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除