4 咆哮的大叔

尚未进行身份认证

给儿子树立一个爱写博客的好榜样。

等级
博文 37
排名 11w+

Mask CNN环境搭配与模型训练中踩坑记录

(一)搭建caffe2版Caffe2已合并到pytorch框架里了,所以搭建caffe2就得搭建pytorch。在搭建的过程中,各种坑,后来定位到才知道,pytorch,要求cudnn7+,而cudnn7+要求对应的cuda在9+,然而,升级cuda,对整个服务器的影响较大,为了不影响其他人的使用,放弃caffe2版本的搭建。所以在搭环境前,一定要看好需要的版本号。(二)搭建tensorf...

2019-03-28 11:17:08

视频理解研究

相比较于视频研究,基于深度学习的图像这块,已经取得很不错的成果。目前,在基于深度学习的视频研究这块,有一下几种方式:(1)逐帧处理融合思想:逐帧提取图像特征,然后融合深度特征图。弊端:简单粗暴带来的弊端有:前后帧之间存在大量信息冗余,冗余计算量太大。(2)ConvLSTM这种方法主要依赖于LSTM挖掘每帧之间的时序关系,计算量很大,很难训练,不常用在视频分析中。(3)主流的研究方向基本...

2018-12-18 11:33:33

Real-world Anomaly Detection in Surveillance Videos解读与实现

解读:(1)文章思想:此文是在弱监督下训练的,具体而言,就是在一段视频中,只关心是否有异常事件的存在,而不关心具体的异常类型以及异常发生在哪些帧内。基于此,文章的主要实现过程为:首先,使用C3D提取视频特征,文章以32帧为一个bag进行处理。C3D提取视频时空特征是由Facebook团队提出来的。此文章使用公开的C3D预训练模型提取视频特征,然后将提取好的特征拿出来,送到三层全连接层中...

2018-12-03 10:51:41

Inception一家

原始的Inception模型,也就引进11卷积核之后,被称为Inception-v1,加入batchnormalization之后被称为Inception-v2,加入factorization的idea之后,改进为Inception-v3。Inception-v4就是一个集成Inception发展过程中所有idea的完整网络模型。与之同时提出的,还有Inception-ResNet-V1和In...

2018-10-12 11:02:29

Caffe 各层解析

①Data数据层是所有模型的最底层,主要有transform_param{},与data_param{}两中参数设置,data_param{}是数据集来源与训练批大小一些的设置,这个因人而异,根据自己实际情况设置好就行。其中,batch_size是根据训练图像大小,GPU使用情况设置的。transform_param{}是数据预处理的一些设置,一般有:mirror,表示是否开启镜像,crop_s...

2018-09-18 16:18:30

深度学习综述之分类(适合深度学习面试者看)

目前图像方向,主要用深度学习进行分类,定位(回归),检测,那么她三主要区别是什么呢?①分类:是什么?②定位:在哪里?是什么?(单目标)③检测:在哪里?分别是什么?(多目标)根据不同的任务,我们会选择不同的网络进行训练。首先,分类:①前辈且经久不衰的分类网络:GoogleNet,VGGNet,ResNet(1)GoogleNet成就:2014年冠军,错误率6.66%。...

2018-09-14 15:39:17

贝叶斯(二)

贝叶斯决策:即通过概率大小进行的决策。期望损失=风险损失函数:条件风险:现在将问题转换成最小化条件风险,即贝叶斯最优分类器。所以,最终贝叶斯的原理,最小化分类错误率的贝叶斯最优分类器为:在实际任务中,后验概率p(c|x)很难得到,可以通过联合概率分布p(x,c)建模,然后通过贝叶斯定理获得后验概率,这种方式得到的模型叫“生成式模型”。贝叶斯定理:所以,

2017-11-12 16:37:13

python配置第三方库(1)

在为Python配置第三方库的时候,可以先在http://www.lfd.uci.edu/~gohlke/pythonlibs/中找有没有所需的库,如果有,可直接下载,放到Python安装目录下的Lib\site-packages下,然后在cmd到该目录,pipinstallxxx.whl即可。拿配置opencv为例:打开链接,发现版本有很多,那么怎么选择呢?如果选择不恰当的版本,在

2017-10-19 11:31:06

稀疏自编码

1怎样理解稀疏性?为什么要加上稀疏性限制?目的是什么?当神经网络遇到什么问题时需要加上稀疏性?答:自编码神经网络是一种无监督学习算法,它使用BP算法,让目标值等于输入值(O=I)。那么问题来了,为什么要这样做?直接用I不就好了?的确,我们并不关心O,我们关心的是中间层S。中间层S有降维作用,但这种降维与PCA不同,PCA是提取数据的主要特征,直接去掉次要特征,而这里的S层是学习了数

2017-08-18 15:02:53

ResNet

1网络结构:ResNet将网络往深里设计的思想发挥到了极致,据说有一千多层的,在ResNet网络中,深刻体会到没有最深,只有更深!那么问题来了,Resnet是怎么做到在这么极深的网络下,训练成功的?因为我们知道,随着网络层数的增加,需要训练的网络参数将不断增加,训练强度将大大提升,对于这种上千层的网络,面临的已经不仅仅只有过拟合的问题了,还有Degradation的问题。从Resnet的

2017-08-17 21:29:34

VGGNet

1网络结构:以224*224输入图片为例:感觉VGGNet就是加深版的AlexNet,都是卷积与池化的叠加,最后再加两层全连接,然后softmax输出。VGGNet有5段卷积,每段卷积由2~3个卷积层后加一个最大池化组成。卷积核的数量也随着层数的增加而增多。VGGNet也沿用了AlexNet数据增强的方法(Multi-Scale)防止模型过拟合。相较与AleNet,VGGNet最大

2017-08-17 21:13:42

AlexNet

1网络结构:Alexnet有一个特殊的计算层,LRN层,是对当前层的输出结果做平滑处理,后来的实验证明,LRN层对最终的结果影响不是很大,倒是大幅度增加了运算时间,有点得不偿失的意思。2成绩:2012年冠军,错误率16.4%左右,现代深度CNN的奠基之作。3新技术点:①使用relu作为CNN的激活函数,成功解决了传统sigmoid激活函数在较深层网络中出现的梯度弥

2017-08-17 21:07:23

Overfitting

What?随着训练的进行,模型复杂度会增加,此时,如果该模型在训练集上的误差在逐渐减少,能够收敛到一个小范围,然而,在验证集上误差却一直下降不下去。最终在训练集上能有较高的准确率,验证集上的准确率却很低。这种现象,就是发生了overftting.How?1)earlystopping(提前停止)在模型迭代训练的时候,会提前设定一个迭代次数,earlystopping就是指

2017-08-17 20:49:09

win10+python3.5+pycharm5.0+CPU 安装tensorflow

1首先安装python3.5(一定要3.5.x),pycharm5.0python3.5:一路next就行(最好把addpython3.5toPATH勾上,免得到时候自己手动添加到系统环境变量,麻烦),这里有位道友写的很详细,详见:http://www.cnblogs.com/Alier/p/6362652.html然后在命令符中输入python,出现python版本信息就说明你的py

2017-07-13 20:26:50

VS+Opencv 新库导入过程(以AVS视频解码库导入为例)

环境:VS2010+opencv2410这里只要VS与Opencv能配置起来就行,在Opencv配置VS的时候,不是所有opencv版本与所有vs版本都能配置成功的。安装好Opencv之后,在安装目录下的opencv/build/x86(这个是跟你电脑系统版本有关的,如果你的电脑是64位的,就该选择x86,同理,32位的该选x64),在这个文件夹里,找与你vs匹配的文件,比如:vc10—>vs2

2017-06-05 10:20:35

Win10+python2.7.6+opencv2.4.13环境下, 调用cv2.VideoCapture()失败的解决方法

1.首先将F:\opencv\sources\3rdparty\ffmpeg(看你的opencv装在哪的,写好路径就行,我的是装在F盘的)添加到系统目录。2.然后将F:\opencv\sources\3rdparty\ffmpeg下的opencv_ffmpeg.dll和opencv_ffmpeg_64.dll重命名为opencv_ffmpeg2413.dll和opencv_ffm

2017-05-19 20:35:26

手推logistic

用x1,x2,...,xnx_1,x_2,...,x_n表示每个样本的n个特征,在每个特征前面加一个参数,就可以估计整体样本特征,下面我们就构造一个线性函数:h(x)=hθ(x)=θ0+θ1x1+θ2x2+...+θnxn=θTXh(x)=h_\theta(x)=\theta_0+\theta_1x_1+\theta_2x_2+...+\theta_nx_n=\theta^TX然后,使用si

2017-04-23 15:26:53

手推adaBoost

①对所有训练集初始化相等的样本权重D=[d1,d2,...dn]D=[d_1,d_2,...d_n]n为数据集的总数②将带有初始化权重的数据集送入基本分类器中训练fm(X)f_m(X),计算分类器误差率em=p(fm(xi)≠yi)=∑ni=1(fm(xi)≠yi)ne_m=p(f_m(x_i)\neqy_i)=\frac{\sum_{i=1}^n(f_m(x_i)\neq

2017-04-23 14:22:01

手推SVM

1线性分类1.1线性可分支持向量机定义:给定线性可分训练数据集,通过间隔最大化学习得到的分隔面为:①wx+b=0wx+b=0则对应的分类决策函数为f(x)=sign(wx+b)f(x)=sign(wx+b),称为线性可分支持向量机。如下图所示,(我们假设,分隔面上方的红色样本表示正样本,分隔面下方的蓝色样本为负样本):对于任何样本x,中间红色的的分隔面为

2017-04-22 15:00:29

近邻法

1最近邻(NN)最近邻的思想:计算测试样本到所有已知样本之间的距离,将最近邻者的类别作为测试样本的类别标签。然而,最近邻的决策存在很大的风险。如下图所示,矩形表示待测样本,如果按照最近邻的决策,待测样本矩形应该与三角新是一类,可是,如果将离矩形最近的那个三角形去掉呢,那么圆形就是矩形的类别,所以,这种决策对已知样本的数据集太过敏感。2K近邻(KNN)(1)思想KNN是最

2017-04-17 13:41:12
奖章
    暂无奖章