自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(17)
  • 资源 (1)
  • 收藏
  • 关注

原创 YOLO V2解析

YOLO V2是YOLO系列的第二版,在YOLO V1的基础上加以改进,改善了YOLO V1定位不准的问题,又保证了检测的速度,可谓集准确性与速度于一身(YOLO V2获得了CVPR2017的最佳论文提名)。YOLO V2的原文提出了两个模型:YOLO V2和YOLO9000,本文主要着重YOLO V2,下面让我们一同走进YOLO V2的世界。Outlines:YOLO V2 vs V1;...

2018-09-24 00:03:25 4652 20

原创 YOLO V1解析

YOLO(You Only Look Once) 是可谓是第一个相对成功One-Stage物体检测,在2016年被提出,本着速度的优势一跃成为与RCNN系列并驾齐驱的物体检测框架。YOLO V1指标:YOLO V1 mAP和FPS对比:YOLO V1的速度和准确率在2016年时还是很“稳”的,所以很多重速度的系统,会优先考虑YOLO。我们也可以发现,YOLO V1不仅速度快,准确率...

2018-09-02 23:27:55 3620 1

原创 Python学习笔记

functools partial:from functools import partialdef add(a, b, c): return a + b + cFixA_Add = partial(add, 1)add(1, 2, 3)## 6FixA_Add(2, 3)## 6自定义partial函数:def partial(func, *part_args): de...

2018-06-29 11:21:14 469

原创 DetNet 解析

使用FPN等训练的缺点:1)传统的ResNet或者VGG的stride等于32,按照每次输入图片的尺度减少2来计算,有5个stage(P1-P5),而FPN中存在P6,RetinaNet中存在P6和P7,而P6和P7是没有被预训练过的。(然而P6和P7已经对任务很敏感了,还需要预训练么,会不会多余?)2)对于大物体的回归相对弱一些,在FPN等物体检测网络中,大物体是在比较深的特征图上预测(因为深的...

2018-06-11 01:27:45 14947 11

原创 ResNetV2:ResNet深度解析

ResNet残差网络,想必大家一定很熟悉了,那么先考考大家,下面(1)-(5)的结构哪个是我们常用的ResNet结构? 其中weight指conv层,BN指Batch Normalization层,ReLU指激活层,addition指相加; 根据ResNet的描述,似乎以上五组都符合,那么2016年ResNet原文是哪一个结构呢?以及其他四组结构也都work么?我们不禁有了这两个疑问,伴随着

2018-05-09 01:02:01 24153 11

原创 ResNet解析

ResNet在2015年被提出,在ImageNet比赛classification任务上获得第一名,因为它“简单与实用”并存,之后很多方法都建立在ResNet50或者ResNet101的基础上完成的,检测,分割,识别等领域都纷纷使用ResNet,Alpha zero也使用了ResNet,所以可见ResNet确实很好用。 下面我们从实用的角度去看看ResNet。1.ResNet意义随着...

2018-01-14 18:04:00 351088 99

原创 Fisher Information学习笔记

Fisher Infomation的意义Fisher Information 顾名思义,就是用来衡量样本数据的信息量的,通常我们有一组样本,我们在机器学习中需要估计出样本的分布,我们是利用样本所具有的信息量来估计参数的,样本中具有的信息量越多,估计的参数越准,样本的分布估计的就越接近真实分布,这里的信息量就是用Fisher Information来表示的。什么样本信息量比较大?我们用样本发生的概率来

2017-09-15 19:42:32 21643 10

原创 Softmax层解析

这里我们简单介绍一下Caffe是如何实现Softmax层的,通常我们使用的是SoftmaxWithLossLayer,这里我们仅仅讲讲Caffe的SoftmaxLayer定义输入 在Caffe的世界里,每一层的输入叫做Bottom,输出叫做Top,而Caffe的Forward就是通过Bottom计算Top的过程,而Backward这是通过Top_diff计算Bottom_diff的过程。我们

2017-07-18 21:40:01 4108

原创 ROI Pooling层解析

ROI Pooling的意义ROIs Pooling顾名思义,是Pooling层的一种,而且是针对RoIs的Pooling,他的特点是输入特征图尺寸不固定,但是输出特征图尺寸固定;什么是ROI呢?ROI是Region of Interest的简写,指的是在“特征图上的框”;1)在Fast RCNN中, RoI是指Selective Search完成后得到的“候选框”在特征图上的映射

2017-03-03 21:19:43 110929 29

原创 Batch Normalization Caffe版实现解析

建议先看论文Batch Normalization: Accelerating Deep Network Training by Reducing Internal Covariate Shift,这样会对本文有更好的理解; 同时使用Batch Normalization的GoogLENet也被称为Inception v2;Batch Normalization Caffe版实现解析BatchN

2017-02-22 17:21:08 7033 3

原创 Make基础知识点科普

Makefile规则: target:prerequisites command 其中target为目标文件,prerequisites为生成目标文件所需要的依赖文件,command是make需要执行的命令; 注1:make并不管命令是怎么工作的,他只管执行所定义的命令;make会比较target和prerequisites文件的修改日期,如果prerequisites的日期新,则更新ta

2017-02-12 19:25:36 2575

原创 RPN 解析

RPN全称是Region Proposal Network,Region Proposal的中文意思是“区域选取”,也就是“提取候选框”的意思,所以RPN就是用来提取候选框的网络;1. RPN的意义RPN第一次出现在世人眼中是在Faster RCNN这个结构中,专门用来提取候选框,在RCNN和Fast RCNN等物体检测架构中,用来提取候选框的方法通常是Selective Se

2017-01-12 11:10:09 99880 107

原创 使用Torch nngraph实现LSTM

什么是RNN RNN:多层反馈RNN(Recurrent neural Network、循环神经网络)神经网络是一种节点定向连接成环的人工神经网络。这种网络的内部状态可以展示动态时序行为。不同于前馈神经网络的是,RNN可以利用它内部的记忆来处理任意时序的输入序列,这让它可以更容易处理如不分段的手写识别、语音识别等。——百度百科下面我们看看抽象出来的RNN的公式: ht=θϕ(ht−1)+θx

2016-01-29 23:17:01 8707 4

原创 Android Bitmap太大导致ImageView不显示的问题

今天做我们的智能相册的项目时,遇到了非常神奇的问题,当照片太大时,导致ImageView.setImageBitmap不显示,上网上搜了很多办法,感觉都不是那么靠谱,最后使用了简单粗暴的手段://Bitmap too large to be uploaded into a textureBitmap bm = BitmapFactory.decodeFile(imagePath);Display

2016-01-29 10:31:42 10850 1

原创 使用JNA,让java调用原生代码

JNA定义:JNA:java Native Access,是SUN公司开发的基于JNI的框架,JNI使得Java能够调用原生的c或者c++代码。JNA与JNI的区别:性能:JNA在性能上不如JNI,由于JNA是在JNI的基础上封装了一层。 移植性:JNA的可移植性要好于JNI,因为开发者不需要再编写作为代理的动态链接库。 使用:JNI使用native关键字,使用一个个java方法映射原生方法,利

2016-01-16 19:48:20 7698

原创 Torch实现ReQU,和梯度验证

重写函数我们使用torch实现我们自己的ReQU模块。在实现一个新的layer之前,我们必须了解,我们并非重写forward和backward方法,而是重写里面调用的其他方法。 1)重新updataOutput方法,从而实现forward方法。 2)重写updataGradInput方法实现部分backward,计算loss函数相对于layer输入的导数,dloss/dx, 根据loss函数相对

2016-01-10 23:39:37 4906

原创 Torch中optim的sgd(Stochastic gradient descent)方法的实现细节

Torch中optim的sgd(Stochastic gradient descent)方法的实现细节Overviewsgd的全称是Stochastic gradient descent,关于Stochastic gradient descent我们不在本文详述。 Stochastic gradient descent https://en.wikipedia.org/wiki/Stochast

2015-12-26 18:02:11 13003

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除