10 小村长

尚未进行身份认证

我要认证

大学在校研究生一枚,关注方向:计算机视觉,数据结构,C希望和大家交流,共同提高 微博:http://weibo.com/u/2653613245 欢迎交流!

等级
TA的排名 2k+

object detection资料汇总

ump to...LeaderboardPapersR-CNNMultiBoxSPP-NetDeepID-NetNoCFast R-CNNDeepBoxMR-CNNFaster R-CNNYOLOAttentionNetDenseBoxSSDInside-Outside Net (ION)G-CNNHyperNetMultiPathNetCRAFTOHEMR-FCNMS-CNN

2017-04-18 20:18:22

triplet loss的原理及caffe代码

1:triplet loss的原理及梯度推到 http://blog.csdn.net/tangwei2014/article/details/467880252:triplet loss如何增加到caffe中:http://blog.csdn.net/tangwei2014/article/details/46812153

2016-12-31 21:02:29

简记ReNet

ResNet论文给出了Resnet有3中类型,ResNet50[res3 res4 res6 res3],ResNet101[res3 res4 res23 res3]和ResNet152[res3 res4 res36 res3]层卷积。 ResNet50[res3 res4 res6 res3]中第一个3表示res2a+res2b+res2c, 而res2a又包含三层卷积,res2a = res

2016-12-17 21:27:28

【深度学习】caffe 中的一些参数介绍

转自 http://blog.csdn.net/cyh_24目录(?)[+]caffe 参数介绍solver.prototxtnet: "models/bvlc_alexnet/train_val.prototxt" test_iter: 1000 # test_interval: 1000 # base_lr: 0

2016-08-22 20:39:35

Java写的自动抢购红米note手机(2016/4/6 米粉节)

受同学所托,帮其抢红米手机,老是抢不到,于是就想着写个程序,多线程实时监听,虽然最终还是没抢到,但还是将程序分享给大家。(其实在排除学校网速的影响下,我真怀疑雷总到底有没有发布小米手机让大家抢,所以还是建议大家尽量不要抢小米手机,太坑!)      程序使用java写的,采用Maven构建的一个项目,采用selenium包。这里先给出平台的搭建,后续给出相应的程序代码。1:使用Maven模

2016-04-17 16:42:09

图像质量的客观评估指标PSNR与SSIM

图像质量的客观评估指标PSNR与SSIMPSNRSSIM代码参考文献1:PSNRPSNR是最为常用的图像质量评估指标: 其中K为图像对应二进制位数,一般为8。MSE为均方误差,计算公式为: 2:SSIMSSIM[^footnote]主要用来衡量图像结构完整性,是另一种比较常用的客观评估指标。实际应用中,一般用滑动窗口对图像进行分块,这里的滑动窗口一般为高斯窗口,并用高斯加权计算

2016-03-30 21:48:02

【机器学习系列】机器学习界大牛林达华推荐的书籍

Recommended BooksHere is a list of books which I have read and feel it is worth recommending to friends who are interested in computer science.Machine LearningPattern Recognition and M

2015-07-08 21:02:45

【Linux编程】C/C++获取目录下文件或目录及linux中fork()函数详解(原创!!实例讲解)

在Unix/Linux系统中,要获取一个指定目录下所有的文件或文件夹,一般用dirent.h(POSIX标准定义的目录操作头文件)。一、数据类型在头文件中定义了两种主要的数据类型。DIR:代表一个目录流的结构。12345678910111213struct __dirstream{ void *__fd

2015-07-05 20:29:29

DeepLearning to digit recognizer in kaggle

DeepLearning to digit recongnizer in kaggle         最近在看deeplearning,于是就找了kaggle上字符识别进行练习。这里我主要用两种工具箱进行求解,并比对两者的结果。两种工具箱分别是DeepLearningToolbox和caffe。DeeplearningToolbox源码解析见:http://blog.csdn.net/lu5

2015-07-03 15:35:15

Ubuntu14.10+cuda7.0+caffe配置

Ubuntu14.10+cuda7.0+caffe配置一:linux安装Linux安装不说了,我这里安装的是ubuntu14.10 二:nVidia驱动和CUDA Toolkit的安装和调试(*.run方法)1: Verify You Have a CUDA-Capable GPU执行下面的操作,然后验证硬件支持GPU CUDA,只要型号存在于https://develop

2015-07-03 15:27:33

DeepLearnToolBox中CNN源码解析

DeepLearnToolbox是一个简单理解CNN过程的工具箱,可以在github下载。为了理解卷积神经网络的过程,我特此对CNN部分源码进行了注释。公式的计算可以由上一篇blog推导得出。         注意:代码中没有的subsampling进行设置参数,将subsampling层的参数w就设置为了0.25,而偏置参数b设置为0。卷积层计算过程为上一层所有feature map的卷积的

2015-06-20 22:36:34

CNN公式推导

CNN公式推导1 前言         在看此blog之前,请确保已经看懂我的前两篇blog【深度学习笔记1(卷积神经网络)】和【BP算法与公式推导】。并且已经看过文献[1]的论文【Notes on Convolutional Neural Networks】。因为本文就是讲解文献[1]论文前部分公式的推导过程这里有一个假设,或许公式是错误的,如有好的理解请留言>。2 CNN公式推导

2015-06-20 22:30:01

BP算法与公式推导

BP(backpropgationalgorithm ):后向传导算法,顾名思义就是从神经网络的输出(顶层)到输入(底层)进行求解。那么求解什么呢,求解的就是神经网络中的参数的导数,即参数梯度方向,从而就可以使用梯度下降等求解无约束问题(cost function的最值)的方法求得最终的参数。神经网络前向传播的过程比较简单,这里不做讲解(如果不了解,可以参看文献)。1.问题分析1.1 Co

2015-06-20 21:58:01

深度学习笔记1(卷积神经网络)

深度学习笔记1(卷积神经网络)         在看完了UFLDL教程之后,决定趁热打铁,继续深度学习的学习,主要想讲点卷积神经网络,卷积神经网络是深度学习的模型之一,还有其它如AutoEncoding、Deep Belief Network、Restricted Boltzmann Machine和sparse coding等。         在UFLDL教程中提到了针对大型图像的处理

2015-06-20 21:49:26

UFLDL教程笔记及练习答案六(稀疏编码与稀疏编码自编码表达)

稀疏编码(SparseCoding)sparse coding也是deep learning中一个重要的分支,同样能够提取出数据集很好的特征(稀疏的)。选择使用具有稀疏性的分量来表示我们的输入数据是有原因的,因为绝大多数的感官数据,比如自然图像,可以被表示成少量基本元素的叠加,在图像中这些基本元素可以是面或者线。稀疏编码算法的目的就是找到一组基向量使得我们能将输入向量x表示成这些基向量

2015-06-14 10:34:35

UFLDL教程笔记及练习答案五(自编码线性解码器与处理大型图像**卷积与池化)

自动编码线性解码器自动编码线性解码器主要是考虑到稀疏自动编码器最后一层输出如果用sigmoid函数,由于稀疏自动编码器学习是的输出等于输入,simoid函数的值域在[0,1]之间,这就要求输入也必须在[0,1]之间,这是对输入特征的隐藏限制,为了解除这一限制,我们可以使最后一层用线性函数及a = z习题答案:SparseAutoEncoderLinerCost.mfunctio

2015-06-11 22:00:08

UFLDL教程笔记及练习答案四(建立分类用深度学习---栈式自编码神经网络)

此次主要由自我学习过度到深度学习,简单记录如下:(1)深度学习比浅层网络学习对特征具有更优异的表达能力和紧密简洁的表达了比浅层网络大的多的函数集合。(2)将传统的浅层神经网络进行扩展会存在数据获取、局部最值和梯度弥散的缺点。(3)栈式自编码神经网络是由多层稀疏自编码器构成的神经网络(最后一层采用的softmax回归或者logistic回归分类),采用逐层贪婪的训练方法得到初始的参数,这

2015-06-11 13:33:48

UFLDL教程笔记及练习答案三(Softmax回归与自我学习***)

1:softmax回归当p(y|x,theta)满足多项式分布,通过GLM对其进行建模就能得到htheta(x)关于theta的函数,将其称为softmax回归。教程中已经给了cost及gradient的求法。需要注意的是一般用最优化方法求解参数theta的时候,采用的是贝叶斯学派的思想,需要加上参数theta。习题答案:(1) 数据加载——————代码已给(2) %% STEP

2015-06-09 21:45:22

UFLDL教程笔记及练习答案二(预处理:主成分分析和白化)

首先将本节主要内容记录下来,然后给出课后习题的答案。笔记:1:首先我想推导用SVD求解PCA的合理性。       PCA原理:假设样本数据X∈Rm×n,其中m是样本数量,n是样本的维数。PCA降维的目的就是为了使将数据样本由原来的n维降低到k维(k<n)。方法是找数据随之变化的主轴,在Andrew Ng的网易公开课上我们知道主方向就是X的协方差所对应的最大特征值所对应的特征向量的

2015-06-09 10:51:11

UFLDL教程练习答案一(稀疏自编码器和矢量化编程实现)

最近想研究下深度学习,一开始就看UFLDL(unsuprisedfeature learning and deep learning)教程了,特将课后习题答案放在这里,作为一个笔记。笔记:1:自编码算法是一个无监督学习算法,它通过学习hw,b(x) = x,因此最后的outputlayer单元数与inputlayer单元数量相等,而中间的hiddenlayer可以很大,这是加个稀疏惩罚

2015-06-07 21:14:38

查看更多

勋章 我的勋章
  • 专栏达人
    专栏达人
    授予成功创建个人博客专栏的用户。专栏中添加五篇以上博文即可点亮!撰写博客专栏浓缩技术精华,专栏达人就是你!
  • 持之以恒
    持之以恒
    授予每个自然月内发布4篇或4篇以上原创或翻译IT博文的用户。不积跬步无以至千里,不积小流无以成江海,程序人生的精彩需要坚持不懈地积累!