9 nongfu_spring

尚未进行身份认证

我要认证

暂无相关简介

等级
TA的排名 4w+

DCGANs源码解析(二)

model.pyDCGANs大部分都在一个叫做 DCGAN 的 Python 类(class)中(model.py)。像这样把所有东西都放在一个类中非常有用,因为训练后中间状态可以被保存起来,以便后面使用。首先让我们定义生成器和鉴别器(上一篇已经介绍过了)。 linear, conv2d_transpose, conv2d, 和 lrelu 函数都是在 ops.py 中定义的。1.初始化DCGAN

2017-01-11 20:49:31

DCGAN 源码分析(一)

DCGANhttps://github.com/carpedm20/DCGAN-tensorflowDCGAN的原理和GAN是一样的,它只是把上述的G和D换成了两个卷积神经网络(CNN)。但不是直接换就可以了,DCGAN对卷积神经网络的结构做了一些改变,以提高样本的质量和收敛的速度,这些改变如下:取消所有pooling层。G网络中使用反卷积(Deconvolutional layer)进行上采样,

2017-01-11 14:07:35

yolo v2 源码分析(一)

detector .c文件,这里仅分析train_detector void train_detector(char *datacfg, char *cfgfile, char *weightfile, int *gpus, int ngpus, int clear){ list *options = read_data_cfg(datacfg); char *train_ima

2017-01-06 17:34:42

YOLOv2如何fine-tuning?

在上一篇用YOLOv2模型训练VOC数据集中,我们尝试用YOLOv2来训练voc数据集,但我想训练自己的数据集,那么YOLOv2如何做fine-tuning呢?我们一步一步来做~1 准备数据1.1 建立层次结构首先在darknet/data文件夹下创建一个文件夹fddb2016,文件层次如下--fddb2016 --Annotations 2002_07

2016-12-26 13:30:51

YOLO源码详解(五)-追本溯源7*7个grid

者:木凌 时间:2016年11月。 文章连接:http://blog.csdn.net/u014540717最近一直有人在问,把图像分为7*7个网格,每个网格推荐两个框是什么意思,一直没搞明白,今天我们就从源码入手,追本溯源,彻底理解7*7个grid 在YOLO源码详解(三)- 前向传播(forward)里,我们分析了detection_layer.c层的代码,我们来看一下

2016-12-26 13:26:38

YOLO源码详解(五)- YOLO中的7*7个grid和RPN中的9个anchors

本系列作者:木凌 时间:2016年12月。 文章连接:http://blog.csdn.net/u014540717一直不知道7×7的网格到底是干什么的,不就是结果预测7×7×2个框吗,这跟把原图分成7×7有什么关系?不分成7×7就不能预测7×7×2个框吗?之前跟一个朋友讨论,他说7×7的网格是作为回归框的初始位置,我后来的很长一段时间一直这么认为,后来想想不对啊,bb

2016-12-26 11:55:30

YOLO源码详解(四)- 反向传播(back propagation)

本系列作者:木凌 时间:2016年12月。 文章连接:http://blog.csdn.net/u014540717反向传播是CNN中非常重要的一个环节,对于理论部分,这里不做介绍,如果对反向传播理论部分不熟悉,可以查看以下网站。 非常详细:零基础入门深度学习(3) - 神经网络和反向传播算法 非常详细:零基础入门深度学习(4) - 卷积神经网络 非常生动:如何直观

2016-12-26 11:51:23

YOLO源码详解(三)- 前向传播(forward)

本系列作者:木凌 时间:2016年11月。 文章连接:http://blog.csdn.net/u014540717一、主函数void forward_network(network net, network_state state)//network.cvoid forward_network(network net, network_state state){

2016-12-26 11:27:31

YOLO源码详解(二)- 函数剖析

本系列作者:木凌 时间:2016年11月。 文章连接:http://blog.csdn.net/u0145407171、网络参数解析函数:parse_network_cfgnetwork parse_network_cfg(char *filename){ //read_cfg这个函数将所有的参数读到一个图中,如下所示,希望能帮助理解下代码 list *s

2016-12-26 10:40:24

YOLO源码详解(一)-训练

本系列作者:木凌 时间:2016年11月。 文章连接:http://blog.csdn.net/u014540717本系列文章会持续更新,主要会分以下几个部分: 1、darknet下的yolo源代码解读 2、将yolo移植到mxnet下 3、模型压缩与加速 白天需要工作,只有晚上时间写,所以可能更新速度有点慢,还有就是该系列博文不一定会严格按照以上三点的顺序来写

2016-12-26 10:28:30

keras和caffe的区别(1)

一.样本目录的区别:caffe创建样本时,允许样本目录下有多级子目录,最终的类型数是样本目录下的文件个数如样本目录是:train,图片存放在worker,tools,machine,orign。。。等子目录下        |------worker |------postive----|------tools        |                 |-

2016-11-04 18:59:13

如何使用网络的bottleneck特征提升准确率

使用预训练网络的bottleneck特征:一分钟达到90%的正确率一个稍微讲究一点的办法是,利用在大规模数据集上预训练好的网络。这样的网络在多数的计算机视觉问题上都能取得不错的特征,利用这样的特征可以让我们获得更高的准确率。我们将使用vgg-16网络,该网络在ImageNet数据集上进行训练,这个模型我们之前提到过了。因为ImageNet数据集包含多种“猫”类和多种“狗”类,这个模

2016-10-28 15:31:56

如何进行finetune

进行finetune的命令如下:..\..\bin\caffe.exe train --solver=.\solver.prototxt -weights .\test.caffemodelpause 下面介绍caffe.exe的几个参数:1)这里caffe.exe中第一个参数为train表示训练,如果为test表示进行测试2)不论是finetune还是从头开始的训练,都必

2016-05-27 11:57:15

solver参数说明

# The train/test net protocol buffer definition  net:"examples/mnist/lenet_train_test.prototxt"        //网络协议具体定义  # test_iter specifies how many forward passes the testshould carry out.  # In

2016-05-27 11:39:28

LRN归一化

LRN全称为LocalResponse Normalization,即局部响应归一化层。局部响应归一化层完成一种“临近抑制”操作,对局部输入区域进行归一化具体实现在CAFFE_ROOT/src/caffe/layers/lrn_layer.cpp和同一目录下lrn_layer.cu中。 该层需要参数有:norm_region: 选择对相邻通道间归一化还是通道内空间区域归一化,默认为

2016-05-27 11:14:13

AdaptiveThreshold

void cvAdaptiveThreshold( const CvArr* src, CvArr* dst,  double max_value,  int adaptive_method=CV_ADAPTIVE_THRESH_MEAN_C,int threshold_type=CV_THRESH_BINARY,  int block_size=3,  double param1=5 );

2016-05-27 11:03:50

explicit

explicit作用:在C++中,explicit关键字用来修饰类的构造函数,被修饰的构造函数的类,不能发生相应的隐式类型转换,只能以显示的方式进行类型转换。explicit使用注意事项:    *      explicit 关键字只能用于类内部的构造函数声明上。    *      explicit 关键字作用于单个参数的构造函数。

2016-05-27 11:00:16

traincascade中不同特征的生成

traincascade中不同特征的生成traincascade和haartrainning的主要区别:1. haartrainning只能使用haar特征,而traincascade可以使用haar,lbp,hog特征,并且还容易扩展其他的特征。2. traincascade的组织结构相对清晰,即先根据指定的特征,生成相应的特征,然后使用boost的方法依次训练处每个stage的树。

2015-08-19 17:43:44

决策树,随机森林,boost小结

决策树,随机森林,boost小结决策树(CvDTree)是最基础的,是CvForestTree和CvBoostTree的父类。决策树的生成,一般资料中都是基于ID3算法(熵增益),即ID3算法在每个节点分裂时,选择使gain(A)最大的特征分裂。 Opencv中决策树的生成是基于吉尼不纯度最小的原则生成的。即选择 最小的分裂。其中,m为样本的种类,如只有正负样本,则m为

2015-08-14 11:36:49

双边滤波

1. 简介图像平滑是一个重要的操作,而且有多种成熟的算法。这里主要简单介绍一下Bilateral方法(双边滤波)。Bilateral blur相对于传统的高斯blur来说很重要的一个特性即可可以保持边缘(Edge Perseving),这个特点对于一些图像模糊来说很有用。一般的高斯模糊在进行采样时主要考虑了像素间的空间距离关系,但是却并没有考虑像素值之间的相似程度,因此这样我们得到的模糊结

2015-05-28 17:37:42

查看更多

勋章 我的勋章
    暂无奖章