自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(65)
  • 资源 (1)
  • 收藏
  • 关注

转载 sci-ei求中啊啊啊

pattern analysis and machine intelligence (PAMI) 顶级International Journal of Computer Vision  (IJCV) 顶级SIAM Journal on Imaging Sciences 顶级Pattern Recognition (PR) 2.509 高IEEE TRANSACTIONS ON IM

2017-09-16 08:57:53 1750

转载 Active learning-Fine-tuning Convolutional Neural Networks for Biomedical Image Analysis: Actively a

转 :  http://zongweiz.leanote.com/post/Active-Learning-%E4%B8%80%E4%B8%AA作者 :周纵苇下面要介绍的工作发表于CVPR2017,题为“Fine-tuning Convolutional Neural Networks for Biomedical Image Analysis: Activel

2017-05-21 10:18:50 1251

转载 交叉熵与相对熵 ---转载

选至 知乎 :https://www.zhihu.com/question/41252833

2017-05-16 11:14:32 554

转载 牛人的博客(图像处理,机器视觉,机器学习等)

1、小魏的修行路  http://blog.csdn.net/xiaowei_cqu  2、晨宇思远(邹宇华 北京航空航天大学) http://blog.csdn.net/chenyusiyuan 3、Rachel Zhang(张睿卿)的博客 http://blog.csdn.net/abcjennifer 4、zouxy09(邹晓艺) 华南理工大学 http://blog

2017-02-15 17:16:21 1188

转载 Loss Function view---关于损失函数的介绍

一、Loss Function什么是Loss Function?wiki上有一句解释我觉得很到位,引用一下:The loss function quantifies the amount by which the prediction deviates from the actual values。Loss Function中文损失函数,适用于用于统计,经济,机器学习等领域,虽外表形式不一

2017-01-11 15:42:06 2181

原创 关于Mxnet的一些基础知识理解(1)

(1)Mxnet的数据格式为NDArray,当需要读取可观看的数据,就要调用:numpy_d = d.asnumpy()converts it to a Numpy array.(2)list_arguments (给出当前符号d的输入变量)与list_outputs(给出符号d的输出变量)的说明import mxnet as mxa = mx.sym.Var

2017-01-03 16:54:11 8640 6

转载 detection总结R-CNN>SPP-Net>Fast-R-CNN>Faster-R-CNN>YOLO>SSD

1. R-CNN:Rich feature hierarchies for accurate object detection and semantic segmentation论文:https://arxiv.org/abs/1311.2524代码:https://github.com/rbgirshick/rcnn技术路线:selective search + CN

2016-12-15 16:04:54 1337

转载 如何做好计算机视觉的研究

要回答这个问题,我们先要对这个问题的关键词进行分析:如果去掉“计算机视觉”这个限定词,这问题就变成了“如何做好研究?”那么,要回答这个问题,我们就要知道“什么是好的研究?”而要定义什么是好的研究,必须回到根本,先要知道“什么是研究?”先确定狭义的研究的定义为:利用科学的方法来调查解释一个现象或者获取新的知识。科学研究从本质上是由三个基本的要素构成:1) 目的:产生新

2016-12-09 13:24:35 1362

转载 Q-learning--定义--过程

The Q-Learning algorithm was proposed as a way to optimize solutions in Markov decision process problems.  The distinctive feature of Q-Learning is in its capacity to choose between immediate rewards

2016-11-09 14:16:11 2326

转载 机器学习需看书籍

如果你只愿意看一本书,那么推荐Bishop的PRML,全名Pattern Recognition and Machine Learning. 这本书是机器学习的圣经之作,尤其对于贝叶斯方法,介绍非常完善。该书也是众多高校机器学习研究生课程的教科书,如Deep Learning的开山鼻祖Hilton在多伦多大学教授机器学习课程(CSC2515)时也选择了这本书。该书电子版在Bishop个人网页提供直

2016-11-09 13:18:21 7354 1

转载 mxnet学习记录(转载)

转载来至http://blog.csdn.net/shuzfan/article/details/50037273由于caffe依赖性太多,配置极其复杂,所以将接下来的学习转向mxnet.因此本文主要记录我的学习历程,如果描述有什么问题,欢迎大家的指正。mxnet的优点很明显,简洁灵活效率高 ,多机多卡支持好。mxnet的github下载链接:https://g

2016-10-09 14:33:39 781

转载 在VS2010下编译libjpeg及其应用例子

原地址来之:http://www.360doc.com/content/13/1122/18/13084517_331351714.shtml下载到libjpeg源码后,解压,可以看到很多文档,想在VS2010中编辑使用,主要参考文件:install.txt在字段Microsoft Windows, Microsoft Visual C++ 2010 Devel

2016-06-12 12:00:26 432

原创 Deep Neural Networks的Tricks~~翻译版~~精华

Here we will introduce these extensive implementation details, i.e., tricks or tips, for building and training your own deep networks.主要以下面八个部分展开介绍:mainly in eight aspects: 1) data augment

2016-04-19 08:51:33 2961

原创 Galaxy ZOO银河星空图的识别分类

本文是以2015年,Galaxy-zoo星空图分类展开叙述,主要归纳了论文中的重点方法和技巧http://benanne.github.io/2014/04/05/galaxy-zoo.html挑战赛: Kaggle 素材来源:Galaxy Zoo users (zooites) would classify images of galaxies from the Sl

2016-04-15 10:28:48 2653

转载 自己整理的计算机视觉领域稍微容易中的期刊(第一版)

http://blog.csdn.net/carson2005/article/details/6292748模式识别,计算机视觉领域,期刊 (1)pattern recognition letters, 从投稿到发表,一年半时间(2)Pattern recognition 不好中,时间长(3)IEICE Transactions on In

2016-04-11 15:06:33 1202

转载 发表SCI或EI类英文文章的一些投稿经验

英文投稿的一点经验【转载】1. 首先一定要注意杂志的发表范围, 超出范围的千万别投,要不就是浪费时间;另外,每个杂志都有他们的具体格式要求,一定要按照他们的要求把论文写好,免得浪费时间,前些时候,我的一个同事向一个著名的英文杂志投稿,由于格式问题,人家过两个星期就退回来了,而且说了很多难听的话,说投稿前首先就应该看清楚他们的格式要求;2. 论文写作一定要言简意赅,特别是摘要,引言和结论

2016-04-11 14:19:09 2931

转载 回归总结,logistic,一般线性,softmax回归等

http://blog.csdn.net/statdm/article/details/7585153本博文由  JerryLead 所写,对初学者有所帮组,故引入。1 摘要      本报告是在学习斯坦福大学机器学习课程前四节加上配套的讲义后的总结与认识。前四节主要讲述了回归问题,回归属于有监督学习中的一种方法。该方法的核心思想是从连续型统计数据中得到

2016-04-11 09:41:31 3028

原创 总结径向基函数,径向基网络,计算过程,训练过程介绍(参考+翻译)

1、SVM就是个MLP(多层神经网络)2、RBF径向基核函数在SVM发明的7年前就已经被用于RBF神经网络,RBF网络本质就是个把激活函数从Sigmoid替换成RBF的MLP。RBF的结构:径向基函数(Radical Basis Function,RBF)方法是Powell在1985年提出的。详细看这篇:http://blog.csdn.net/zouxy09/

2016-04-09 10:45:54 8594

转载 各种优化方法总结比较(sgd/momentum/Nesterov/adagrad/adadelta)

转载地址:http://blog.csdn.net/luo123n/article/details/48239963http://sebastianruder.com/optimizing-gradient-descent/这里讨论的优化问题指的是,给定目标函数f(x),我们需要找到一组参数x,使得f(x)的值最小。本文以下内容假设读者已经了

2016-04-04 20:45:37 975

转载 Jackknife,Bootstraping, bagging, boosting, AdaBoosting, Rand forest 和 gradient boosting的简单介绍

转之 http://blog.csdn.net/chenhongc/article/details/9404583http://blog.sina.com.cn/s/blog_5dd2e9270100c8ko.html在这里致谢作者的研究。一并列出一些找到的介绍boosting算法的资源:(1)视频讲义,介绍boosting算法,主要介绍Ad

2016-03-29 12:34:35 456

转载 机器学习资料收集(持续更新)--书籍--个人主页

转载:http://blog.csdn.net/qianxin_dh/article/details/41596109书籍论文资料:机器学习大牛,Andrew Ng主讲的斯坦福大学机器学习课程: http://www.holehouse.org/mlclass/  国外程序猿整理的机器学习资,主要汇编了一些机器学习领域的框架,库,

2016-03-29 10:25:55 741

转载 机器学习经典书籍--入门书-入门--深入--数学基础

转之    http://suanfazu.com/t/topic/15前面有一篇机器学习经典论文/survey合集209。本文总结了机器学习的经典书籍,包括数学基础和算法理论的书籍。本文会保持更新,欢迎推荐。入门书单《数学之美》 PDF326作者吴军大家都很熟悉。以极为通俗的语言讲述了数学在机器学习和自然语言处理等领域的应用。《Programm

2016-03-29 10:24:06 9939 1

转载 机器学习的学习资源--入门书-进阶书-入门视频-继续阅读推荐

http://blog.jobbole.com/56256/这是一篇很难写的文章,因为我希望这篇文章能对学习者有所启发。我在空白页前坐下,并且问自己了一个很难的问题:什么样的库、课程、论文和书籍对于机器学习的初学者来说是最好的。文章里到底写什么、不写什么,这个问题真的让我很烦恼。我必须把自己当做一个程序员和一个机器学习的初学者,站在这个角度去考虑最合适的资源。我找出了每个类

2016-03-29 09:57:49 554

原创 核密度估计-Kernel density estimation--精华汇总

wiki:  https://en.wikipedia.org/wiki/Kernel_density_estimation博客:http://blog.163.com/zhuandi_h/blog/static/1802702882012111092743556/In statistics, kernel density estimation (KDE) is a non-p

2016-03-28 16:08:04 9917

转载 个人喜欢的关于模式识别、机器学习、推荐系统、图像特征、数值计算、目标跟踪等方面个人主页及博客

转载http://blog.csdn.net/zhangping1987/article/details/29554621David Lowe:Sift算法的发明者,天才。Rob Hess:sift的源码OpenSift的作者,个人主页上有openSift的下载链接,Opencv中sift的实现,也是参考这个。Koen

2016-03-28 13:53:05 1355

转载 非最大抑制(NMS)

转之:http://blog.csdn.net/H2008066215019910120/article/details/25917609#非极大值抑制(NMS)      非极大值抑制顾名思义就是抑制不是极大值的元素,搜索局部的极大值。这个局部代表的是一个邻域,邻域有两个参数可变,一是邻域的维数,二是邻域的大小。这里不讨论通用的NMS算法,而是用于在目标检

2016-03-28 13:42:55 10984 2

转载 优化算法基本原理

http://weibo.com/p/230418eb3aea990102v41r机器学习就两个问题,一个是model的定义,一个就是如何优化,model是战略,优化则是执行。在Caffe现在的版本中,主要使用了三种优化算法SGD、AdaGrad、以及NAG,这三种算法快速、高效,缺点就是极容易收敛到局部极值点或者不容易收敛。a.就个人理解来说,对于大数据的处理,算

2016-03-28 11:15:12 8086

转载 优化方法,一些重要参数learning rate,weight decay,momentum,learing rate decay

http://blog.csdn.net/lien0906/article/details/47399823http://blog.csdn.net/u014114990/article/details/47779111Stochastic Gradient Descent (SGD)SGD的参数在使用随机梯度下降(SGD)的学习方法时,一般

2016-03-27 20:45:50 13134

转载 关于深度学习中激活函数的思考总结(转载+原创)

先记录,回头详细写一份http://www.cnblogs.com/neopenx/p/4453161.htmlhttp://blog.csdn.net/liulina603/article/details/44915905/1.ReLU非线性特征 一句话概括:不用simgoid和tanh作为激活函数,而用ReLU

2016-03-24 13:20:51 2171

转载 Maxout的深入理解

转之:http://www.cnblogs.com/tornadomeet/p/3428843.html

2016-03-24 12:52:06 4831

转载 Eeeplearning-正则化方法--L1和L2 regularization、数据集扩增、dropout

转载请注明出处:http://blog.csdn.net/u012162613/article/details/44261657保持输入输出层不变,按照BP算法更新上图神经网络中的权值(虚线连接的单元不更新,因为它们被“临时删除”了)。以上就是一次迭代的过程,在第二次迭代中,也用同样的方法,只不过这次删除的那一半隐层单元,

2016-03-24 12:17:01 808

转载 关于梯度训练介绍,batch-GD, SGD, Mini-batch-GD, Stochastic GD, Online-GD

3. Stochastic GD (SGD) 随机梯度下降算法(SGD)是mini-batch GD的一个特殊应用。SGD等价于b=1的mini-batch GD。即,每个mini-batch中只有一个训练样本。4. Online GD随着互联网行业的蓬勃发展,数据变得越来越“廉价”。很多应用有实时的,不间断的训练数据产生。在线学习(Online Learning)算法就是

2016-03-24 10:52:58 3840

转载 NumPy的教程--数组,基本运算

例如,在3D空间一个点的坐标 [1, 2, 3] 是一个秩为1的数组,因为它只有一个轴。那个轴长度为3.又例如,在以下例子中,数组的秩为2(它有两个维度).第一个维度长度为2,第二个维度长度为3.ndarray.ndim数组轴的个数,在python的世界中,轴的个数被称作秩ndarray.shape数组的维度。这是一个指示数组在每个维度上大小的整数元组。例如一个

2016-03-13 16:16:56 4456

转载 关于N-Gram模型

我把N-Gram关键的几句话贴出来(对别人帖子的一些修改):    该模型基于这样一种假设,第n个词的出现只与前面N-1个词相关,而与其它任何词都不相关,整句的概率就是各个词出现概率的乘积。这些概率可以通过直接从语料中统计N个词同时出现的次数得到。常用的是二元的Bi-Gram和三元的Tri-Gram。    在介绍N-gram模型之前,让我们先来做个香农游戏(Shannon Gam

2016-03-13 13:21:59 557

转载 关于最大似然估计和最小二乘法的理解和公式推导

http://www.zhihu.com/question/20447622亲爱的龙哥,Quant at Bluewood CapitalAttufliX、胖松鼠卷啊卷、po TAN 等人赞同最小二乘法可以从Cost/Loss function角度去想,这是统计(机器)学习里面一个重要概念,一般建立模型就是让loss function最小,而最小二乘法可

2016-02-02 12:22:22 5265 1

转载 贝叶斯推断及其互联网应用

http://www.ruanyifeng.com/blog/2011/08/bayesian_inference_part_one.html一年前的这个时候,我正在翻译Paul Graham的《黑客与画家》。那本书的第八章,写了一个非常具体的技术问题----如何使用贝叶斯推断过滤垃圾邮件(英文版)。我没完全看懂那一章。当时是硬着头皮,按照字面意思把它译出来的。

2016-01-31 17:52:36 405

转载 CV大牛部分表格

牛人和牛mm的照片见:http://www.sigvc.org/bbs/thread-548-1-1.htmlCV人物1:Jianbo Shi史建波毕业于UC Berkeley,导师是Jitendra Malik。其最有影响力的研究成果:图像分割。其于2000年在PAMI上多人合作发表”Noramlized cuts and image segmentation”。这是图像分割领域内最经典

2015-12-07 16:14:07 721

转载 NP问题~~NPC问题~~P问题~~精妙!

http://www.matrix67.com/blog/archives/105什么是P问题、NP问题和NPC问题    这或许是众多OIer最大的误区之一。    你会经常看到网上出现“这怎么做,这不是NP问题吗”、“这个只有搜了,这已经被证明是NP问题了”之类的话。你要知道,大多数人此时所说的NP问题其实都是指的NPC问题。他们没有搞清楚NP问题和NPC问题的概念。NP问

2015-12-03 14:40:50 469

转载 Deep Learning方向的paper整理(1)

http://hi.baidu.com/chb_seaok/item/6307c0d0363170e73cc2cb65个人阅读的Deep Learning方向的paper整理,分了几部分吧,但有些部分是有交叉或者内容重叠,也不必纠结于这属于DNN还是CNN之类,个人只是大致分了个类。目前只整理了部分,剩余部分还会持续更新。一 RNN1 Recurrent n

2015-11-16 14:50:07 705

转载 最大似然度或者最大似然估計

本博客转于:http://blog.sina.com.cn/s/blog_598fbae20101blvd.html在BRM的数学推导中提到了,最大似然估计!!!最大似然估計(Maximum Likelihood,ML)最大似然估計概述最大似然估計是一種統計方法,它用來求一個樣本集的相關概率密度函數的參數。這個方法最早是遺傳學家以及統計學家羅納德·費雪爵

2015-11-03 10:44:30 1069

matlab综合教程.rar

matlab综合教程~~叫你如何掌握Matlab~~里面包含了基本的做操以及函数用法·~适合有心想学习matlab的同学的好帮手

2011-10-31

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除