7 u010789558

尚未进行身份认证

我要认证

暂无相关简介

等级
TA的排名 15w+

Kaggle竞赛记录

比赛网址Planet:Understanding the Amazon from Space这个比赛是一个遥感图像识别,但是主办方也提供了jpg图片,由于对遥感图像识别不熟悉,而且遥感图像数据太大不好处理,所以本次比赛使用的是jpg图片数据。这个比赛是一个多标签的分类问题,一共有17个类别,每张图片可以有一个或者是几个类别标签,对于多标签任务一个简单的处理是把问题分成17个二分类问题,但是这需要训练

2017-08-03 12:51:06

高斯滤波

滤波在图像处理中可以看做是输入图像和滤波器的卷积 不同的滤波器有不同的称呼,下面先看一下3*3的均值滤波器: 对于一个输入 100 98 100 100 104 100 100 99 99 对中间的104应用均值滤波后得到 ∑ni=0filter(i)×input(i)=19×100+19×98+19×100+19×100+19×104+19×100+19×100+19×99+19

2017-02-02 22:42:33

RNN

一个小的例子mini_char_rnn 我们主要看代码中的backward部分:dh = np.dot(Why.T, dy) + dhnextdhraw = (1 - hs[t] * hs[t]) * dhdhnext = np.dot(Whh.T, dhraw)首先定义loss function: E = ∑nt=0softmax−cross−ntropy−loss(yt,labelst)

2017-01-04 11:40:38

YOLO tensorflow 实现

代码:YOLOV1细节与问题: 1. 标数据时如果一个gird中有obj则把B个坐标信息都赋为这个obj的坐标信息 2. 训练时出现NAN,一般这种情况有2种可能:第一,出现除0或者log 0运算,第二,梯度爆炸,经过排查发现是梯度爆炸问题,需要加上梯度裁剪操作。 3. 如果一个grib内有obj则confidence也就是IOU为1 4. 其他细节可参考论文YOLOYOLO

2017-01-02 10:56:19

tensorboard

loss = ...tf.summary.scalar("loss", loss)merged_summary = tf.merge_all_summaries()init = tf.initialize_all_variables()with tf.Session() as sess: writer = tf.summary.FileWriter(your_dir, sess.graph

2016-12-31 14:08:59

深层网络

深层网络在图像分类中表现优越的原因: (1)更深的网络有更多的卷积层,能提取到更高级更抽象的特征,这样更容易分类 (2)更深的网络有更多的参数,模型的表达能力更强,可控的参数更多,对物体平移的容忍更强卷积层相对于全连接层参数更少,减少了过拟合的风险,并且由局部特征一层一层组合为更高级更抽象的特征,符合动物的视觉系统。从下面的例子可以看到,第一层卷积只是一些边缘特征,第二层卷积就组合了一些边缘特征

2016-12-16 14:37:12

复现YOLO

需要ubuntu 14.04, opencv2.4.10, cuda7.5,复现详情参考http://pjreddie.com/darknet/yolo/,结果如下 怎么训练自己的数据? 首先要把自己的数据制作成VOC格式的,具体步骤如下: (1)在darknet/scripts/下建立数据及文件夹,如下所示--VOC2007 --Annotations --ImageSe

2016-12-12 10:28:50

caffe ubuntu16.04 cuda8.0 cudnnv4

http://www.cnblogs.com/longmao-yiran/p/6087298.html

2016-12-11 10:05:02

R-FCN

position-sensitive pooling:最后一层conv生成k*k*(c+1)通道的feature map,论文中k=3, 也就是把roi分成3*3的区域,分别是左上,左中,左右。。等等,每一个位置对应一个通道的feature map,c代表分类类别,所以一共3*3(9个不同的位置)*21(类别)个通道,pspooling对每一类的9个不同位置pooling输出一个3*3的featur

2016-11-24 21:12:09

ubuntu 16.04 caffe python cpu only配置

步骤按照官方文档来,地址http://caffe.berkeleyvision.org/installation.html cpu only版本的makefile.config只需要改cpu_only和with_python_layer 编译pycaffe的时候需要首先安装依赖,进入caffe下的python文件夹,命令行运行 for req in (catrequirements.txt);

2016-11-20 00:00:40

win10下Microsoft caffe配置CPU Only Python

首先将MicrosoftCaffe克隆到本地,地址https://github.com/Microsoft/caffe.git 下载miniconda,地址http://conda.pydata.org/miniconda.html 进入caffe/windows,将CommonSettings.props.example复制一份并改名为CommonSettings.props,用sublime

2016-11-19 09:58:37

Faster Rcnn 源码记录

RBG大神的论文中采用alternative training,即rpn网络和fastrcnn网络交替训练,共有4个步骤 (1)训练rpn网络(max_iters=80000) (2)用rpn网络生成的proposals作为输入训练fastrcnn,fastrcnn和rpn前面的卷积部分是共享权值的(max_iters=40000) (3)继续训练rpn网络(max_iters=80000)

2016-11-06 17:19:32

Rcnn->Sppnet->Fast Rcnn->Faster Rcnn->R-FCN->Yolo

Rcnn流程: (1) 使用Selective Search生成大约2000个候选框 (2) 将每个候选框送入CNN提取特征 (3) 将提取到的特征送入SVM分类Selective Search: (1) 使用一种过分割手段,将图像分割成小区域 (2) 查看现有小区域,合并可能性最高的两个区域。重复直到整张图像合并成一个区域位置 (3) 输出所有曾经存在过的区域,所谓候选区域候

2016-11-04 17:03:36

Resnet

再上一偏博文中我们说到越复杂的问题需要越深层的神经网络拟合,但是越深层的神经网络越难训练,原因可能是过拟合以及损失函数的局部最优解过多(鞍点过多?导致经过相同的epoch更深的网络的trainerror大于较浅的网络,因为过鞍点需要更多的epoch,鞍点附近梯度很小,相关文献The Loss Surfaces of Multilayer Networks)导致模型更容易收敛到局部最优解。上一篇博文讲

2016-10-26 11:59:34

人脸检测识别深度学习记录

越复杂的问题需要越深层的神经网络来处理,而越深层的神经网络其模型的复杂度越高,而复杂度越高的模型需要拟合的函数越复杂,这意味着我们需要拟合的函数H(x)可能有更多的局部最小值,也就是说我们有更大的概率收敛到局部最小值,一个解决这种问题的办法是把一个复杂的问题分解成几个更简单的问题处理例如,在人脸检测识别中,人脸的检测加识别就是一个复杂的问题,如果直接把原图片直接放入网络输出结果效果并不好,我们把人脸

2016-10-24 09:54:18

PCA、LDA

PCA丶LDA PCA是一种常用的降维方法,由于高维的特征会造成数据在特征空间中的稀疏性即需要更多的数据才能较好的覆盖特征空间,所以通常运用降维方法降低特征的维度,这会显著降低数据的需求量(但是会损失信息) PCA使用投影的方法将原特征空间投影到低维空间来达到降维的效果,例如可以将二维空间中的点投影到一条直线上,将二维数据降到一维,或者将三维空间中的点投影到一个平面即二维空间上将三维数据降到二维

2016-07-31 15:32:50

Ubuntu 16.04下安装Tensorflow(GPU)

ubuntu下Tensorflow的GPU配置

2016-07-09 17:24:21
勋章 我的勋章
  • 持之以恒
    持之以恒
    授予每个自然月内发布4篇或4篇以上原创或翻译IT博文的用户。不积跬步无以至千里,不积小流无以成江海,程序人生的精彩需要坚持不懈地积累!