自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(17)
  • 收藏
  • 关注

转载 目标跟踪(一)DSST

算法思想:算法设计了两个一致的相关滤波器,分别实现目标的跟踪和尺度变换,定义为位置滤波器和尺度滤波器,前者进行当前帧目标的定位,后者进行当前帧目标尺度的估计。两个滤波器是相对独立的,从而可以选择不同的特征种类和特征计算方式来训练和测试。文中指出该算法亮点是尺度估计的方法可以移植到任意算法中去。 ...

2018-09-05 07:54:14 993

转载 卷积神经网络(2)目标检测系列学习笔记(RCNN系列+YOLO系列)

1.RCNN(1)候选区域选择https://blog.csdn.net/guoyunfei20/article/details/78723646RegionProposal是一类传统的区域提取方法(selective search),可以看做不同宽高的滑动窗口(1-2k)个,通过窗口滑动获得潜在的目标图像。然后进行归一化,作为CNN的标准输入。step0:生成区域集Rst...

2018-09-04 13:02:43 5178

转载 卷积神经网络(1)分类注意点

几个重要的概念1.激活函数:非线性一般用relu,不用sigmoid,因为sigmoid求导可能导致梯度为0.2.softmax 函数我们知道max,假如有两个数,a和b,并且a>b,如果取max,那么就直接取a,没有第二种可能。但这样会造成分值小的那个饥饿。所以我希望分值大的那一项经常取到,分值小的那一项偶尔也可以取到,那么我用softmax就可以了。现在还是a...

2018-09-01 19:57:02 2097

转载 机器学习十大算法(零)KNN

KNN是通过测量不同特征值之间的距离进行分类。它的思路是:如果一个样本在特征空间中的k个最相似样本中的大多数属于某一个类别,则该样本也属于这个类别,其中K通常是不大于20的整数。KNN算法中,所选择的邻居都是已经正确分类的对象。在KNN中,算法的结果很大程度取决于K的选择。在KNN中,通过计算对象间距离来作为各个对象之间的非相似性指标,避免了对象之间的匹配问题,在这里距离一般使用欧氏距离或...

2018-08-31 11:36:22 151

转载 机器学习十大算法(五)SVM

一 简介支持向量机是一种二分类模型,他的目的是寻找一个超平面来对样板进行分割,分割的原则是间隔最大化,最终转化为一个凸二次规划的问题来求解。由简至繁的模型包括:1.当训练样本线性可分时,通过硬间隔最大化,学习一个线性可分支持向量机。2.当训练样本近似线性可分时,通过软间隔最大化,学习一个线性支持向量机。3.当训练样本线性不可分时,通过核技巧和软间隔最大化,学习一个非线性支持向量机。...

2018-08-31 11:13:58 794

转载 图像特征(四) 霍夫变换

霍夫变换是一种特征检测。例如:线条。他的算法流程大致如下,给定一个物件,要辨别的形状的种类,算法会在参数空间中执行投票来决定物体的形状,而这是由累加空间里的局部最大值决定。霍夫变换最初被设计成用来检测能够精确的解析定义的形状(例如直线,圆等)。在这些情况下,我们可以通过对于形状信息的充分了解来找出他们在图像中的位置和方向。而广义霍夫变换在霍夫变换的基础上根据模板匹配的原理进行了调整,广义霍夫变...

2018-08-30 08:19:40 2771

转载 图像特征(四)hash特征

感知哈希算法:1.基于低频的均值哈希一张图片就是一个二维信号,它包含了不同频率的成分。如下图所示,亮度变化小的区域是低频成分,它描述大范围的信息。而亮度变化剧烈的区域(比如物体的边缘)就是高频的成分,它描述具体的细节。或者说高频可以提取图片详细的信息,而低频可以提供一个框架。而一张大的,详细的图片有很高的频率,而小图片缺乏图像细节,所以都是低频的。所以我们平时的下采样,也就是缩小图...

2018-08-28 16:59:50 3947

转载 图像特征(三) Haar-Like特征

Haar-like特征Haar-like特征最早应用于人脸表示,Haar特征分为三类:边缘特征、线性特征和对角特征,组合成特征模板。特征模板内有白色和黑色两种矩形,并定义该模板的特征值为白色矩形像素和减去黑色矩形像素和。Haar特征值反映了图像的灰度变化情况。例如:脸部的一些特征能由矩形特征简单的描述,如:眼睛要比脸颊颜色要深,鼻梁两侧要比鼻梁颜色要深,嘴巴比周围颜色要深等。但矩形特征只对一些...

2018-08-28 16:06:24 3386

转载 机器学习十大算法(二) 朴素贝叶斯分类器

概念朴素贝叶斯最核心的部分是贝叶斯法则,而贝叶斯法则的基石是条件概率。这里c表示类别,输入待判断数据,式子给出要求解的某一类概率。我们的最终目的是比较各类别的概率值大小。应用文本分类我们的训练集由正常的文档和侮辱性文档组成,能反映侮辱性文档的是侮辱性词汇的出现频率。词集模型:对于给定文档,只统计某个侮辱性词汇是否在本文档中出现。词袋模型:对于给定文档,统计某个侮辱性...

2018-08-28 11:08:14 366

转载 图像特征(二) LBP特征

局部二值模式(LBP):是一种能够有效的度量和提取图像局部纹理信息的算子,具有旋转不变形和灰度不变性等显著的优点。它是人脸识别中一种提取特征的重要方法,具有对光照不敏感的特性,但是对姿态和表情的鲁棒性不强。一  LBP编码:LBP编码是一种局部特征描述子。以一个像素为中心,r为半径,选取该圆周上的8个点,比较这8个点与中心店像素值的大小,若大于中心点像素值,则记为1,否则记为0.然后沿顺时...

2018-08-26 15:19:29 1944

转载 图像特征 (一) HOG特征

HOG方向梯度直方图,这里分解为方向梯度和直方图。一 方向梯度:在单变量的实值函数的情况,梯度只是导数,或者对于一个线性函数,也就是线的斜率。在图像梯度的概念也是像素值变化最快的方向,把边缘(在图像合成中单一物体的轮廓叫做边缘)引入进来,边缘与梯度保持垂直方向。用以下公式计算该像素点的梯度大小和方向。二 直方图三 方向梯度直方图HOG的提取HOG主要应用于行人检...

2018-08-26 14:28:34 4997 1

转载 机器学习十大算法

有监督学习:在特定数据集有标注的情况下,需要对其他实例进行预测。无监督学习:给定未标记的数据集。强化学习:介于这两者之间,每种预测步骤或动作都有一定形式的反馈,单数没有精确的标签或错误信息。监督学习0.knn1.决策树:分为回归树跟分类树。2.朴素贝叶斯分类器:3.普通最小二乘法:4.逻辑回归:5.支持向量机:二元分类算法。给定N维空间中两种类型的点,SVM生成...

2018-08-26 13:21:45 238

转载 传统分类检测识别实例(一 人脸识别-Eigenface)

特征脸(Eigenface)理论基础-主成分分析(PCA)步骤一:获取包含M张人脸图像的集合S。在我们的例子里有25张人脸图像,如下图所示。每张图像可以转化成一个N维的向量(至于是横着还是竖着获取原图像的像素,只要前后统一就可以),然后把这M个向量放到一个集合S里,如下式所示:步骤二:在获取到人脸向量集合S后,计算得到的平均图像A。就是把集合S里面的向量遍历一遍进行累加,然后取...

2018-08-26 10:32:39 708

转载 机器学习十大算法 (三) 最小二乘法

概念最小二乘法是一种优化技术,它通过最小化误差的平方和寻找数据的最佳函数匹配。利用最小二乘法可以简便的求得未知的数据,并使得这些求得的数据与实际数据之间误差的平方和为最小。最小二乘法还可用于曲线拟合。最小二乘法的原则是残差和最小。过程(一元)样本回归模型,ei为误差:平方损失函数:这就是最小二乘法的解法,就是求得平方损失函数的极值点。最小二乘法与梯度下降...

2018-08-26 07:55:34 1234

转载 机器学习十大算法(四)逻辑回归 (本质,极大似然估计)

概念假设有一个二分类问题,输出为y∈{0,1},而线性回归模型产生的预测值为z=wTx+b是实数值,我们想有一个理想的阶跃函数来帮我们实现z值到0,1的转化。然而该函数不连续,我们希望有一个单调可微的函数来供我们使用,于是遍找到了sigmoid来替代。两者的图像如下图所示:有了Sigmoid之后,由于其取值在[0,1],我们就可以将其视为类1的后验概率p(y=1|x)。...

2018-08-26 07:04:13 767

转载 机器学习十大算法(十一)聚类算法

KMeans(基于划分的)1 算法描述(1)随机选择k个中心。(2)遍历所有样本,把样本划分到距离最近的一个中心。(3)划分之后就有k个簇,计算每个簇的平均值作为新的质心。(4)重复步骤2,直到达到停止条件。停止条件:(1)达到迭代次数。(2)每一类中心在每一次迭代变化不大为止。2 优点(1)算法容易理解,聚类效果不错。(2)具有出色的速度3.缺点...

2018-08-24 06:19:02 234

转载 机器学习十大算法(十二) 主成分分析(PCA)

PCA把原先的n个特征用数目更少的m个特征取代,新特征是旧特征的线性组合,这些线性组合最大化样本方差,尽量使新的m个特征互不相关。PCA不仅仅是对高维数据进行降维,更重要的是经过降维去除了噪声,发现了数据中的模式。降维的必要性:1.多重共线性--预测变量之间相互关联。多重共线性会导致空间的不稳定。2.高维空间本身具有稀疏性。一维正太分布有68%的值落于正负标准差之间,而在十维空间只...

2018-08-23 23:03:50 636

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除