9 不良CV研究生

尚未进行身份认证

闷骚的泛滥

等级
TA的排名 4w+

sci-ei求中啊啊啊

patternanalysisandmachineintelligence(PAMI)顶级InternationalJournalofComputerVision (IJCV)顶级SIAMJournalonImagingSciences顶级PatternRecognition(PR)2.509高IEEETRANSACTIONSONIM

2017-09-16 08:57:53

Active learning-Fine-tuning Convolutional Neural Networks for Biomedical Image Analysis: Actively a

转: http://zongweiz.leanote.com/post/Active-Learning-%E4%B8%80%E4%B8%AA作者:周纵苇下面要介绍的工作发表于CVPR2017,题为“Fine-tuningConvolutionalNeuralNetworksforBiomedicalImageAnalysis:Activel

2017-05-21 10:18:50

交叉熵与相对熵 ---转载

选至知乎:https://www.zhihu.com/question/41252833

2017-05-16 11:14:32

牛人的博客(图像处理,机器视觉,机器学习等)

1、小魏的修行路  http://blog.csdn.net/xiaowei_cqu  2、晨宇思远(邹宇华北京航空航天大学) http://blog.csdn.net/chenyusiyuan 3、RachelZhang(张睿卿)的博客 http://blog.csdn.net/abcjennifer 4、zouxy09(邹晓艺)华南理工大学 http://blog

2017-02-15 17:16:21

Loss Function view---关于损失函数的介绍

一、LossFunction什么是LossFunction?wiki上有一句解释我觉得很到位,引用一下:Thelossfunctionquantifiestheamountbywhichthepredictiondeviatesfromtheactualvalues。LossFunction中文损失函数,适用于用于统计,经济,机器学习等领域,虽外表形式不一

2017-01-11 15:42:06

关于Mxnet的一些基础知识理解(1)

(1)Mxnet的数据格式为NDArray,当需要读取可观看的数据,就要调用:numpy_d=d.asnumpy()convertsittoaNumpyarray.(2)list_arguments(给出当前符号d的输入变量)与list_outputs(给出符号d的输出变量)的说明importmxnetasmxa=mx.sym.Var

2017-01-03 16:54:11

detection总结R-CNN>SPP-Net>Fast-R-CNN>Faster-R-CNN>YOLO>SSD

1.R-CNN:Richfeaturehierarchiesforaccurateobjectdetectionandsemanticsegmentation论文:https://arxiv.org/abs/1311.2524代码:https://github.com/rbgirshick/rcnn技术路线:selectivesearch+CN

2016-12-15 16:04:54

如何做好计算机视觉的研究

要回答这个问题,我们先要对这个问题的关键词进行分析:如果去掉“计算机视觉”这个限定词,这问题就变成了“如何做好研究?”那么,要回答这个问题,我们就要知道“什么是好的研究?”而要定义什么是好的研究,必须回到根本,先要知道“什么是研究?”先确定狭义的研究的定义为:利用科学的方法来调查解释一个现象或者获取新的知识。科学研究从本质上是由三个基本的要素构成:1) 目的:产生新

2016-12-09 13:24:35

Q-learning--定义--过程

TheQ-LearningalgorithmwasproposedasawaytooptimizesolutionsinMarkovdecisionprocessproblems. ThedistinctivefeatureofQ-Learningisinitscapacitytochoosebetweenimmediaterewards

2016-11-09 14:16:11

机器学习需看书籍

如果你只愿意看一本书,那么推荐Bishop的PRML,全名PatternRecognitionandMachineLearning. 这本书是机器学习的圣经之作,尤其对于贝叶斯方法,介绍非常完善。该书也是众多高校机器学习研究生课程的教科书,如DeepLearning的开山鼻祖Hilton在多伦多大学教授机器学习课程(CSC2515)时也选择了这本书。该书电子版在Bishop个人网页提供直

2016-11-09 13:18:21

mxnet学习记录(转载)

转载来至http://blog.csdn.net/shuzfan/article/details/50037273由于caffe依赖性太多,配置极其复杂,所以将接下来的学习转向mxnet.因此本文主要记录我的学习历程,如果描述有什么问题,欢迎大家的指正。mxnet的优点很明显,简洁灵活效率高,多机多卡支持好。mxnet的github下载链接:https://g

2016-10-09 14:33:39

在VS2010下编译libjpeg及其应用例子

原地址来之:http://www.360doc.com/content/13/1122/18/13084517_331351714.shtml下载到libjpeg源码后,解压,可以看到很多文档,想在VS2010中编辑使用,主要参考文件:install.txt在字段MicrosoftWindows,MicrosoftVisualC++2010Devel

2016-06-12 12:00:26

Deep Neural Networks的Tricks~~翻译版~~精华

Herewewillintroducetheseextensiveimplementationdetails,i.e., tricks or tips,forbuildingandtrainingyourowndeepnetworks.主要以下面八个部分展开介绍:mainlyin eightaspects: 1) dataaugment

2016-04-19 08:51:33

Galaxy ZOO银河星空图的识别分类

本文是以2015年,Galaxy-zoo星空图分类展开叙述,主要归纳了论文中的重点方法和技巧http://benanne.github.io/2014/04/05/galaxy-zoo.html挑战赛: Kaggle 素材来源:GalaxyZoousers(zooites)wouldclassifyimagesofgalaxiesfromthe Sl

2016-04-15 10:28:48

自己整理的计算机视觉领域稍微容易中的期刊(第一版)

http://blog.csdn.net/carson2005/article/details/6292748模式识别,计算机视觉领域,期刊 (1)pattern recognition letters, 从投稿到发表,一年半时间(2)Pattern recognition 不好中,时间长(3)IEICE Transactions on In

2016-04-11 15:06:33

发表SCI或EI类英文文章的一些投稿经验

英文投稿的一点经验【转载】1. 首先一定要注意杂志的发表范围,超出范围的千万别投,要不就是浪费时间;另外,每个杂志都有他们的具体格式要求,一定要按照他们的要求把论文写好,免得浪费时间,前些时候,我的一个同事向一个著名的英文杂志投稿,由于格式问题,人家过两个星期就退回来了,而且说了很多难听的话,说投稿前首先就应该看清楚他们的格式要求;2. 论文写作一定要言简意赅,特别是摘要,引言和结论

2016-04-11 14:19:09

回归总结,logistic,一般线性,softmax回归等

http://blog.csdn.net/statdm/article/details/7585153本博文由 JerryLead所写,对初学者有所帮组,故引入。1摘要     本报告是在学习斯坦福大学机器学习课程前四节加上配套的讲义后的总结与认识。前四节主要讲述了回归问题,回归属于有监督学习中的一种方法。该方法的核心思想是从连续型统计数据中得到

2016-04-11 09:41:31

总结径向基函数,径向基网络,计算过程,训练过程介绍(参考+翻译)

1、SVM就是个MLP(多层神经网络)2、RBF径向基核函数在SVM发明的7年前就已经被用于RBF神经网络,RBF网络本质就是个把激活函数从Sigmoid替换成RBF的MLP。RBF的结构:径向基函数(RadicalBasisFunction,RBF)方法是Powell在1985年提出的。详细看这篇:http://blog.csdn.net/zouxy09/

2016-04-09 10:45:54

各种优化方法总结比较(sgd/momentum/Nesterov/adagrad/adadelta)

转载地址:http://blog.csdn.net/luo123n/article/details/48239963http://sebastianruder.com/optimizing-gradient-descent/这里讨论的优化问题指的是,给定目标函数f(x),我们需要找到一组参数x,使得f(x)的值最小。本文以下内容假设读者已经了

2016-04-04 20:45:37

Jackknife,Bootstraping, bagging, boosting, AdaBoosting, Rand forest 和 gradient boosting的简单介绍

转之 http://blog.csdn.net/chenhongc/article/details/9404583http://blog.sina.com.cn/s/blog_5dd2e9270100c8ko.html在这里致谢作者的研究。一并列出一些找到的介绍boosting算法的资源:(1)视频讲义,介绍boosting算法,主要介绍Ad

2016-03-29 12:34:35

查看更多

勋章 我的勋章
  • 持之以恒
    持之以恒
    授予每个自然月内发布4篇或4篇以上原创或翻译IT博文的用户。不积跬步无以至千里,不积小流无以成江海,程序人生的精彩需要坚持不懈地积累!