6 gukedream

尚未进行身份认证

我要认证

人不能像走兽那样活着,应该追求知识和美德。

等级
TA的排名 1w+

lintel安装成功记与血泪史

1. 简介:最近需要将视频文件直接用于深度模型训练的输入,而不是像之前那样先将视频文件提取成单帧保存下来,因为这样做会出现几个问题,一个是要使用ffmpeg命令,将耗费数小时的时间提取帧,另一个是需要而外的存储空间,还有就是训练代码在加载图片时存在很大的IO操作,会影响训练的效率。因此,有没有一个方法,可以直接将视频文件作为训练数据,但又不会出现以上诸多问题呢,lintel就是为了解决这个问题...

2019-04-27 15:48:22

面试复习链接整理

1.DenseNet详解2.机器学习与深度学习常见面试题3.机器学习与深度学习核心知识点总结4.深度卷积神经网络演化历史及结构改进网络5.怎样成为一名优秀的算法工程师6.知识库-技术文章7.理解概率密度函数8.用于在线视频理解的高效卷积网络9.ECO-efficient-video-understanding10.花花酱LeetCode10.1Play-wi...

2019-03-05 21:36:26

深度学习之模型退化

定义:对合适的深度模型继续增加层数,模型准确率会下滑(不是overfit造成),training error和test error都会很高。如果梯度范数的大小本身和深度网络的训练困难并没有关系,那是什么原因呢?答案是,模型的退化基本上决定了训练性能。为什么退化会损害训练性能?直观地说,学习曲线基本上会在参数空间的退化方向变慢,因此退化会减少模型的有效维度。在以前,你可能会认为是用参数...

2019-03-04 14:36:02

目标函数反向求道注意事项

Loss函数通常作用于一个batch在计算loss时,我们不会用一条数据去求梯度,进行优化。这样会导致loss波动较大,而且不利于发挥计算机并行计算的能力。我们会选择一个batch的数据,用其均值求梯度,进行优化# 求batch内的均值cross_entropy = tf.reduce_mean(-tf.reduce_sum(y_ * tf.log(y), reduction_indi...

2019-03-01 10:55:11

非极大值抑制算法(NMS)及python实现

以下图为例,由于滑动窗口,同一个人可能有好几个框(每一个框都带有一个分类器得分)而我们的目标是一个人只保留一个最优的框:于是我们就要用到非极大值抑制,来抑制那些冗余的框: 抑制的过程是一个迭代-遍历-消除的过程。(1)将所有框的得分排序,选中最高分及其对应的框:(2)遍历其余的框,如果和当前最高分框的重叠面积(IOU)大于一定阈值,我们就将框删除。(3)从未处理的框...

2019-03-01 10:39:25

softmax的特征分布会呈放射状的原因

为直观了解softmax loss,在mnist数据集上训练了一个lenet模型作为例子。先将特征维降低到2,并画了10w个训练样本的2维特征在平面上,如图2所示。从图中可以看到,如果使用欧式距离作为度量方式,则f2与f1之间的距离比f2到f3的近很多,达不到好的效果。而同时可以看到,对于这些特征以角度进行划分的效果会比欧式距离和内积要好,所以之前很多都会采用余弦相似度作为度量方法...

2019-03-01 09:43:24

如何解决机器学习中数据不平衡问题

这几年来,机器学习和数据挖掘非常火热,它们逐渐为世界带来实际价值。与此同时,越来越多的机器学习算法从学术界走向工业界,而在这个过程中会有很多困难。数据不平衡问题虽然不是最难的,但绝对是最重要的问题之一。一、数据不平衡在学术研究与教学中,很多算法都有一个基本假设,那就是数据分布是均匀的。当我们把这些算法直接应用于实际数据时,大多数情况下都无法取得理想的结果。因为实际数据往往分布得很不均匀,都会...

2019-02-23 20:21:21

经典博客系列收藏

大奥特曼打小怪兽经典博客系列收藏1.经典博客链接2.经典项目博客集合3.数字图像处理系列4.深度学习系列经典博客收藏5.hinton教授的本科生课程CSC321-机器学习中的神经网的笔记6.Python数据挖掘课程OpenCV1.第十二节、尺度不变特征(SIFT)2.第十三节、SURF特征提取算法3.第十一节、Harris角点检测...

2019-02-13 00:36:03

高等数学:第七章 空间解析几何(2)向量、向量的加减法与向量的数乘

§7.2  向量、向量的加减法与向量的数乘一、向量的概念既有大小,又有方向的量称之为向量。数学上用一条有方向的线段(即有向线段)来表示向量。有向线段的长度表示向量的大小,有向线段的方向表示向量的方向。以为始点,为终点的有向线段所表示的向量记为。有时也有粗体字母或一个上面加有箭头的字母表示向量,如向量、、或 、、 等等。向量的大小称作向量的模。向量与的模记作与。模等于...

2019-02-13 00:32:52

SURF特征提取算法详解

上一节我们已经介绍了SIFT算法,SIFT算法对旋转、尺度缩放、亮度变化等保持不变性,对视角变换、仿射变化、噪声也保持一定程度的稳定性,是一种非常优秀的局部特征描述算法。但是其实时性相对不高。SURF(Speeded Up Robust Features)算法改进了特征了提取和描述方式,用一种更为高效的方式完成特征点的提取和描述。一 使用快速Hessian算法和SURF来提取和检测特征...

2019-02-13 00:20:00

特征提取与图像描述符[HOG、LBP、Haar]

(一)HOG特征1、HOG特征: 方向梯度直方图(Histogram of Oriented Gradient, HOG)特征是一种在计算机视觉和图像处理中用来进行物体检测的特征描述子。它通过计算和统计图像局部区域的梯度方向直方图来构成特征。Hog特征结合 SVM分类器已经被广泛应用于图像识别中,尤其在行人检测中获得了极大的成功。需要提醒的是,HOG+SVM进行行人检测的方法是法国研究人员...

2019-02-12 21:13:28

1×1 卷积核的作用

一、来源:[1312.4400] Network In Network (如果1×1卷积核接在普通的卷积层后面,配合激活函数,即可实现network in network的结构)二、应用:GoogleNet中的Inception、ResNet中的残差模块三、作用:1、降维(减少参数)例子1 : GoogleNet中的3a模块输入的feature map是28×28×1921...

2019-02-12 15:42:35

DenseNet:比ResNet更优的CNN模型

前言在计算机视觉领域,卷积神经网络(CNN)已经成为最主流的方法,比如最近的GoogLenet,VGG-19,Incepetion等模型。CNN史上的一个里程碑事件是ResNet模型的出现,ResNet可以训练出更深的CNN模型,从而实现更高的准确度。ResNet模型的核心是通过建立前面层与后面层之间的“短路连接”(shortcuts,skip connection),这有助于训练过程中梯度的...

2019-02-12 14:35:56

机器学习[L1和L2正则化]

原理:模型越复杂,越容易过拟合。因此,原先以最小化损失(经验风险最小化)为目标:现在以最小化损失和模型复杂度(结构风险最小化)为目标:通过降低复杂模型的复杂度来防止过拟合的规则称为正则化。 特点:L0:计算非零个数,用于产生稀疏性,但是在实际研究中很少用,因为L0范数很难优化求解,是一个NP-hard问题,因此更多情况下我们是使用L1范数L1:计算绝对值之和,用以产生...

2019-02-12 12:38:51

特征提取算法与图像描述符[ORB]

ORB特征算法ORB算法综合了FAST角点检测算法和BRIEFF描述符。FAST特征检测算法原理 opencv官方文档FAST只是一种特征点检测算法,并不涉及特征点的特征描述。fast = cv2.FastFeatureDetector_create(threshold=10)img = cv2.imread("laugh.jpg", 0)fast = cv2.Fa...

2019-02-12 01:35:51

特征提取算法与图像描述符[SURF]

Goal In this chapter,We will see the basics of SURF We will see SURF functionalities in OpenCVTheory In last chapter, we saw SIFT for keypoint detection and description. But it was comparative...

2019-02-12 01:23:38

特征提取算法与图像描述符[SIFT]

Goal In this chapter,We will learn about the concepts of SIFT algorithm We will learn to find SIFT Keypoints and Descriptors.Theory In last couple of chapters, we saw some corner detectors lik...

2019-02-12 01:07:05

机器学习[决策树]

决策树是什么?决策树是最简单的机器学习算法,它易于实现,可解释性强,完全符合人类的直观思维,有着广泛的应用。决策树到底是什么?简单地讲,决策树是一棵二叉或多叉树(如果你对树的概念都不清楚,请先去学习数据结构课程),它对数据的属性进行判断,得到分类或回归结果。预测时,在树的内部节点处用某一属性值(特征向量的某一分量)进行判断,根据判断结果决定进入哪个分支节点,直到到达叶子节点处,得到分类或回归结...

2019-02-07 23:25:49

机器学习[Bootstrap、Bagging与随机森林概述]

摘要随机森林由多棵决策树组成,采用多棵决策树联合进行预测可以有效提高模型的精度。这些决策树用对训练样本集随机抽样构造出的样本集训练得到。由于训练样本集由随机抽样构造,因此称为随机森林。随机森林不仅对训练样本进行抽样,还对特征向量的分量随机抽样,在训练决策树时,每次寻找最佳分裂时只使用一部分抽样的特征分量作为候选特征进行分裂。集成学习集成学习(ensemble learning)是机器学...

2019-02-07 13:14:58

机器学习[k近邻算法]

k近邻算法简称kNN算法,由Thomas等人在1967年提出[1]。它基于以下思想:要确定一个样本的类别,可以计算它与所有训练样本的距离,然后找出和该样本最接近的k个样本,统计这些样本的类别进行投票,票数最多的那个类就是分类结果。因为直接比较样本和训练样本的距离,kNN算法也被称为基于实例的算法。最近邻算法是k近邻算法k=1时的一种特殊情况。基本概念确定一个样本所属类别的一种最简单的方法是...

2019-02-07 12:14:56

查看更多

勋章 我的勋章
  • 持之以恒
    持之以恒
    授予每个自然月内发布4篇或4篇以上原创或翻译IT博文的用户。不积跬步无以至千里,不积小流无以成江海,程序人生的精彩需要坚持不懈地积累!
  • 勤写标兵Lv1
    勤写标兵Lv1
    授予每个自然周发布1篇到3篇原创IT博文的用户。本勋章将于次周周三上午根据用户上周的博文发布情况由系统自动颁发。