1 z0n1l2

尚未进行身份认证

暂无相关描述

等级
TA的排名 4w+

在mnist上尝试triplet loss (mxnet)

tripletlossTripletLoss损失函数在mnist上做相似度计算tripletloss的核心包括三个部分anchor/positive/negative代表三个输入图,尺寸相同,训练的目标是令anchor和positive距离最小化,同时anchor和negative距离最大化。以FaceRec为例,anchor和positive一般来自同一个人,而negative属...

2019-03-17 20:00:40

github上如何修改submodule url

github上fork工程A,而A中有一个submoduleB,如果修改了B,是没法直接提交到github上的,因为B指向别人的工程,那么如何让B指向自己的工程,进而保存自己的修改呢?首先要从B的原始工程fork一份属于自己的代码,然后修改自己的A工程中.gitmodules文件里B对应的url,比如[submodule"ext/google-maps"]path=goog...

2019-03-07 01:40:25

cv::parallel_for_ 的一个例子

cv::parallel_for_是opencv封装的一个多线程接口,利用这个接口可以方便实现多线程,不用考虑底层细节,以下是一个具体的例子继承ParallelLoopBody,重载运算符()classLoopBody:publiccv::ParallelLoopBody{public:LoopBody(conststd::vector<std::stri...

2019-01-20 22:12:51

经典网络参数和top-score

2019-01-20 21:00:42

cuda编程 MergeSort

gpucodes#include"windows.h"#include"cuda_sort.h"#include<iostream>__global__voidmergesortK(int*a,int*temp,intsortedsize,intN){//intid=block

2019-01-13 11:49:55

cmake中prebuild/postbuild命令

add_custom_command(TARGETtarget                    PRE_BUILD|PRE_LINK|POST_BUILD                    COMMANDcommand1[ARGS][args1...]                    [COMMANDcommand2[ARGS][args2...].....

2019-01-11 01:09:08

深度学习中的优化策略

SGDw=w−lr∗∂ww=w-lr*\partialww=w−lr∗∂w其中lrlrlr是学习速率∂w=∂loss∂w\partialw=\frac{\partialloss}{\partialw}∂w=∂w∂loss​sgd_momentumv=mu∗v−lr∗∂wv=mu*v-lr*\partialwv=mu∗v−lr∗∂ww=w+vw=w+vw=...

2019-01-05 19:50:53

batch norm反向公式推导

输入Xi=(xi0,xi1,...,xi(n−1))X_i=(x_{i0},x_{i1},...,x_{i(n-1)})Xi​=(xi0​,xi1​,...,xi(n−1)​)i∈[0,m−1]i\in[0,m-1]i∈[0,m−1]batch-size等于m,特征维度n输出Yi=(yi0,yi1,...,yi(n−1))Y_i=(y_{i0},y_{i1},...,y_{i(n-1...

2019-01-05 16:35:28

pvanet 训练自定义数据

源码编译方法到lib目录下执行makecaffe-fast-rcnn目录下执行cpMakefile.config.exampleMakefile.config#编辑Makefile.config内容,启动WITH_PYTHON_LAYER:=1make-j8&&makepycaffe训练脚本假设处理的目标是pascal_voc_obj...

2018-12-04 23:30:59

validation accuracy vs train accuracy

训练时validationaccuracy和trainaccuracy之间没有差距,本义为这是一个还不错的曲线,但是今天讨论时有人评论说这种情况说明网络参数不足,因为在参数充足的情况下多多少少会有过拟和,所以正常情况下trainaccuracy会高于validiationaccuracy,似乎很有道理!...

2018-11-18 23:00:08

softmax_loss梯度推导

softmax_loss的真正名字应该是softmaxcrossentropyloss。因为softmax的定义是f(zi)=softmax(zi)=ezi∑jezjf(z_i)=softmax(z_i)=\frac{e^{z_i}}{\sum_je^{z_j}}f(zi​)=softmax(zi​)=∑j​ezj​ezi​​,softmaxloss的定义是L=−1N∑i=0NLi=...

2018-11-18 02:54:50

faster R-CNN 生成anchor box

以下代码来自fasterR-CNN的generate_anchors.py,目的是基于预定的base_box(正方形),生成若干长宽比和尺度的新的anchorbox。其中_whctrs()是把一个矩形用(中心点,宽高)的形式表达_mkanchors()是给定一个中心点,和若干不同的宽高,生成新的anchor,以(左上点,右下点)的形式_ratio_enum()输入一个初始anchor...

2018-11-16 00:25:37

yolov3 中box坐标的处理

yolov2吸收fasterrcnn的anchorbox机制时遇到训练不稳定的问题,分析认为是bbox坐标回归时没有限制,导致anchorbox可能会去预测一个距离很远的object,效率不高,因此yolov2对bbox的坐标进行一系列的处理,令anchorbox只会对邻近的object负责。阅读论文和代码时难以理解这个机制,以下是个人的一些分析,不保证正确,欢迎讨论指正。公式中(tx...

2018-11-15 00:46:26

shuffleNetV2

ShuffleNetV2:PracticalGuidelinesforEfficientCNNArchitectureDesignWhyResNet,DenseNet等网络已经把分类问题的精度推到一个很高的水平,而很多轻量级网络MobleNet,XceptionNet和ShuffleNet则在不牺牲太多精度的前提下,降低网络计算量,令深度学习网络可以运行在一些资源受限的平台上...

2018-11-11 20:48:24

darknet yolov3 训练自定义数据集

VOC数据集上的训练步骤修改类别yolo层的classes修改成新的类别书yolo层前一个convolution层的filters修改成(classes+4+1)*3

2018-11-10 22:03:50

强化学习的一点理解

从可用作输入的信息多少的角度,可以把机器学习划分成三个类别:无监督学习:包括降维和聚类任务,几乎任何东西都可以当作输入,但输出往往很模糊。有监督学习:包括分类和回归任务,因为需要人工标注,可以当作输入的信息要少很多强化学习:和前面两类不同,强化学习适合做的是行为控制。其能够接触到的信息最少,甚至算法要通过和环境交互才能获得更多信息。有监督学习是目前实用性最强的方法,但是无监督学习和强化学...

2018-11-08 00:49:04

经典网络结构之InceptionNet

InceptionNet又称googleNet,最初的设计思路是增加网络宽度:InceptionNet核心结构包括多个分支,分别对应不同的感受野。大的感受野适用大的目标,小的感受野适用小目标,如此网络具备了scale不变性。不同感受野最终通过concat合并在一起,为了避免通道数爆炸,在每个分支上引入1x1卷积降低通道数目。InceptionV2吸收了VGG的优点,利用多个小尺度卷积代替一...

2018-11-07 00:06:42

解决样本不均衡问题-SMOTE

原文链接SMOTE:SyntheticMinorityOver-samplingTechnique解决的问题很多算法都有一个默认的假设:样本中各个类别的样本数目是均衡的,比如深度学习中几个经典网络结构直接用于不均衡数据效果会很差。本文提出的SMOTE是一种通过线性插值过采样的方法解决不均衡问题的方法。如果通过简单复制样本没有获得期望结果时,不妨试试这个方法。伪码输入:同一类别的所...

2018-11-05 21:57:52

训练一次得到多个模型做集成的方法

参考论文SNAPSHOTENSEMBLES:TRAIN1,GETMFORFREE解决的问题多个分类器集成可以获得超过单个分类器的效果,但集成分类器就要求有多个分类器,在训练速度和测试速度方面不占优势。本文提出的方法可以提高集成学习的训练速度,通过一次训练,获得多个分类器,解决了集成学习训练速度慢的问题。解决方法深度学习训练过程中,只有经历足够长的epoch后,testl...

2018-11-04 20:42:57

深度学习和传统机器学习的差别

特征构造是否需要人工构造特征,这应该是深度学习和传统机器学习的最明显的差异。featureengining是传统机器学习中的一个重要组成部分,sift,hog,wavelet等都是解决如何描述数据的问题。深度学习兴起后,featureengining的研究几乎停滞,而end-to-end成为一个新兴的研究方向。传统机器学习中有一个分支:representationlearning,研究目...

2018-11-04 01:50:35

查看更多

勋章 我的勋章
  • 持之以恒
    持之以恒
    授予每个自然月内发布4篇或4篇以上原创或翻译IT博文的用户。不积跬步无以至千里,不积小流无以成江海,程序人生的精彩需要坚持不懈地积累!