自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+

想变有趣的EMMA

我要做一个斜杠青年///

  • 博客(62)
  • 收藏
  • 关注

原创 一个ICLR 2020个人偏向的list

ICLR 2020 Interesting papersGenerative ModelGeneralizationRepresentation LearningDomain AdaptationMulti-modal (image/text)Graph Neural NetworkSelf-supervised LearningSemi-supervised LearningWeakly-su...

2020-05-03 16:24:55 1481

原创 paper list for Whole Slide Images classification

传送门

2018-08-03 15:53:20 388

原创 论文笔记:Visual Domain Adaptation with Manifold Embedded Distribution Alignment

https://www.evernote.com/shard/s698/sh/f34ce50d-a5de-4b1b-8784-2fcff0a88e0c/106224c1bd3c2467aceb83d810b39250

2018-08-01 17:42:35 818

原创 论文笔记:Analysis of representations for domain adaptation

https://www.evernote.com/shard/s698/sh/06726cea-6211-41f7-83e4-4e5660f45eaf/2d9dc06362b260cf82429e8793bc9eca

2018-07-31 21:28:06 2203

原创 论文笔记:Multi-Scale Dense Networks for Resource Efficient Image Classification

Multi-Scale Dense Networks for Resource Efficient Image Classification[ICLR2018 oral] 原文链接:传送门目录Multi-Scale Dense Networks for Resource Efficient Image Classification目录问题解决方法个人理解主要贡献...

2018-02-25 15:22:58 1668

原创 论文笔记:Spectral Normalization for Generative Adversarial Networks [ICLR2018 oral]

Spectral Normalization for Generative Adversarial Networks原文链接:传送门 一篇纯数学类文章,有兴趣的时候再看!Emma CUHK 2018.02.26

2018-02-25 15:21:56 3094 1

原创 论文笔记:i-REVNET: DEEP INVERTIBLE NETWORKS [ICLR2018]

i-REVNET: DEEP INVERTIBLE NETWORKS原文链接:i-REVNET: DEEP INVERTIBLE NETWORKS 论文来自荷兰 阿姆斯特丹大学 基于已有的工作,RevNet,提出了可逆RevNet,能够达到造IMAGENET上相同的分类准确率。目录i-REVNET DEEP INVERTIBLE NETWORKS目录摘要引言...

2018-02-25 14:38:22 3767

原创 ubuntu突然断电后,重启失败解决方案

Attention Please!!! 千万不要把插排放在脚底下,脚底下,底下,下。。。 前天,正远程连接服务器调试代码,突然,屏幕黑了,黑了,了。。。 低头一看主机,发现所有应该亮着的灯全都灭了。然后主机电源插头,竟然硬生生的被我踹出来了。 重点来了,我把插头又插进去,然而主机灯不亮,我内心十分诚惶诚恐,以为新电脑就这样费在了我的手里。然而机智的我换了个插排口,发现,突然可以开机了。

2017-07-16 11:34:04 14115 3

原创 论文笔记:Histology Image Classification using Supervised Classification and Multimodal Fusion

该博客由EMMA原创,随意转载,博客原链接Histology Image Classification using Supervised Classification and Multimodal Fusion原文链接:paper 出处:2010 IEEE International Symposium on Multimedia 最近在使用小波变换做原始图像预处理,然后用CNN训练多个模型

2017-04-19 17:03:04 615

原创 neruel network yricks of the trade 总结

neruel network yricks of the trade 总结### back propagation bp算法 + SGD梯度下降法 + betch learning;输入数据正则化(均值为0,方差正则化,输入变量去相关),可以利用每张图片都减去均值来实现均值为0;使用Sigmoid激活函数(收敛速度快);label的选择最好在sigmoid的范围内(但是caffe的lab

2017-04-17 21:11:41 493

原创 论文笔记:Two-level attention model for fine-grained Image classification

The Application of Two-level Attention Models in Deep Convolutional Neural Network for Fine-grained Image Classification(细粒度图像识别)原文链接:paper 我先来总结一下这篇文章主要的思路: 主要就是利用region proposal,寻找对于最后分类结果有积极影响的pr

2017-04-17 15:59:09 11070 14

原创 论文笔记:Histopathological Image Classification Using Discriminative Feature-Oriented Dictionary Learnin

Histopathological Image Classification Using Discriminative Feature-Oriented Dictionary Learning===============================利用判别特征导向的词典库学习来进行病理学图像分类 文章发表于 IEEE TRANSACTIONS ON MEDICAL IMAGING, VOL.

2017-04-11 16:00:20 757

转载 计算机视觉/图像/模式识别方向 -- 期刊会议排名

第一章:会议 conferences 一般来说,学术会议会设置很多chairs,各种chairs职责不同。General chairs是负责组织会议的准备和进行的,program chairs负责接收paper并确定paper的领域。各个领域会有area chairs,负责将每篇paper分发给不同的reviewer。Reviewer不属于会议的领导层。会议的审稿分为双盲,单盲和全透明。双盲就是审

2017-04-11 15:02:45 20208 2

原创 论文笔记:Fisher Kernels on Visual Vocab ularies for Image Categorization

Fisher Kernels on Visual Vocabularies for Image Categorization论文链接:CVPR 2006 在模式分类领域,Fisher Vector(FV)是一个强有力的构架,因为他结合了生成式(概率密度函数)和判别式(分类)的优点。FV可以被理解为Bag-of-visterms的扩展。FV对于计算量的要求比较低,在一种类别上训练出来的字典可以应用

2017-03-30 20:16:43 1515

原创 论文笔记:Analyzing Classifiers: Fisher Vectors and Deep Neural Networks

Analyzing Classifiers: Fisher Vectors and Deep Neural Networks(CVPR 2016)CVPR上的文章,不读一读,你会后悔的。 原文链接:Analyzing Classifiers: Fisher Vectors and Deep Neural Networks每次读论文都会犯困,除非,我真的看懂了-_-. 所以边做笔记边读,成了读论文的

2017-03-29 17:47:05 2452 1

原创 论文笔记:R-CNN

论文笔记:Rich feature hierarchies for accurate object detection and semantic segmentation【分类】【分割】【检测】 需要带有bounding box的数据。 摘要: 这篇论文主要把CNN的FC7层作为特征提取器,利用SVM做分类器。然后利用CNN的pooling5层作为attention的区域,形成bounding

2017-03-28 21:24:49 425

原创 begin-end

1. 自己写的网络,直接3分类,效果不好,正确率:0.475806452 2. finetuning别人的网络,直接3分类,效果不好,正确率: 3. Alex网络caffemodel + libSVM: 47.58% 4. Alex网络caffemodel + MLP: 5. Alex网络finetuning + libSVM (4分类,代表空加原本3类, 交叉验证5折求得最佳C

2017-03-21 17:37:23 448

原创 caffe训练网络不收敛——有哪些坑需要我们去填

caffe训练网络不收敛——有哪些坑需要我们去填在深度学习领域,caffe已经被广泛使用了,但是对于caffe新手来说,在网络训练过程中总会遇到一些摸不着头脑的问题不知道如何解决,本文总了我在使用caffe过程中的一些经验。自己定义网络结构——训练 自己定义网络结构在训练过程中一般需要两个文件:solver.prototxt 和 train-val.prototxt. 其中solver文件中存放

2017-03-21 17:18:20 14282 15

原创 利用caffe训练MLP分类(caffe输入非图像数据)

下班后来写别忘了程序媛是不会下班的。。。EMMA SIAT 2017.03.20

2017-03-20 15:58:11 1139 3

原创 论文笔记:Deep convolutional activation features for large scale histopathology image classification

Deep convolutional activation features for large scale Brain Tumor histopathology image classification and segmentation 这篇文章讲述的是MICCAI2014脑肿瘤竞赛中冠军所用的方法。 原始图像是100000× 100000像素的病理学图片大图。 首先使用深度卷积网

2017-03-15 17:23:03 594

原创 torch:LUA编程学习

torch Before Lua is pretty close to javascript(var are global by default, unless local keyword is used) only has one data structure: table {}. hash table and an array. indexing from 1 foo

2017-03-12 20:15:09 2358 2

原创 论文笔记:Grid Long Short-Term Memory

Grid Long Short-Term Memory 本文主要引进了Grid LSTM,利用LSTM单元生成一个多维的网格,可以应用于向量,序列或者是更高维的数据例如图像。 本文是google deepmind发表 It therefore provides a unified way of using LSTM for both deep and sequential comp

2017-03-11 11:17:43 5502 5

原创 论文笔记:A clockwork RNN

A clockwork RNN(CW-RNN) 本文主要提出了一个新型的RNN模型,跟原始RNN不一样的地方就在于,因此隐层单元的不同,同时计算是有方向周期的,降低了参数量。 为什么有关rnn的文章大多是跟NLP有关的~ 苦苦寻找与图像处理有关的attention model中模型可视化结构: 隐层被分成了g个模块,每个模块的大小是k,每个模块内部是全连接的。模块j到i的re

2017-03-10 17:25:49 2979

原创 论文笔记:Depth-Gated Recurrent Neural Networks

Depth-Gated Recurrent Neural Networks 本文跟GRU一样是对LSTM的一个拓展。实验利用汉语和英语的翻译。DGLSTM结构图: 推导公式: 与此同时,LSTM和GRU的结构: 实验结果: EMMA SIAT 2017.03.10

2017-03-10 16:03:17 1034

原创 论文笔记:Learning Phrase Representations using RNN Encoder–Decoder for Statistical Machine Translation

Learning Phrase Representations using RNN Encoder–Decoder for Statistical Machine Translation 这篇论文是为解决natural language processing (NLP)领域的问题。 应用RNN encoder-decoder技术进行静态机器翻译(英语–>法语 -_-,作为中国人,我总以为会转换成

2017-03-10 10:24:48 3640

原创 Deep convolutional activation features for large scale Brain Tumor histopathology image classificati

RNNLong Short- term Memory(LSTM1997)Learning Phrase Representations using RNN Encoder–Decoder for Statistical Machine Translation(GRU2014)Depth-Gated Recurrent Neural Networks 2015A Clockwork RNN 2

2017-03-09 22:09:40 612

原创 论文笔记:Long Short-Term Memory

LongShort-Term Memory摘要通过recurrent BP方式来学着存储随时间间隔变化的信息会花费很长的时间。我们引进了新奇的,有效的,基于梯度的方法:LSTM(至少在1997年的时候这么评价还算公正)。 且能够解决一些标签比较长的分类任务。LSTM现在基本会被用在RNN模型中,代替RNN的隐层单元,能够起到很好的长时间记忆效果。现阶段(2017)GRU跟LSTM都是基于门的单元,但

2017-03-09 11:46:19 15520

原创 论文笔记:Recurrent Models of Visual Attention

Recurrent Models of Visual Attention戳这里下载训练代码,戳这里下载测试代码 【基于torch】摘要由于卷积核的计算量跟图片像素个数大小呈线性关系,卷积神经网络对大型的图片的处理计算量巨大。我们提出一个RNN模型,能够从一张图片或者一段视频中提取信息,通过主观选择一系列区域或者位置,只对选中的区域在高分辨率情况下进行处理。本文提出的方法,据有内部平移不变性,但是计算

2017-03-02 18:27:01 6063 1

原创 论文笔记:Is object localization for free?

Is object localization for free? Weakly-supervised learning with convolutional neural networks摘要 提出一个弱监督卷积神经网络for 分类。主要贡献有:1. 输出正确的分类结果(image-level)2. 预测合理的位置3. 对比跟bounding box 引言本文利用的图片只有图片包含的

2017-03-02 11:53:54 3071

原创 论文笔记:Look and Think Twice

Look and Think Twice: Capturing Top-Down Visual Attention with Feedback Convolutional Neural Networks 摘要 在计算机视觉领域反馈型深度卷积神经网络取得了巨大的成功。但是人类的视网膜反馈明显比正馈能包含更多的连接。在本篇文章中引进了背景反馈信息,能够激励我们发展计算反馈机制。此外,在传统神

2017-03-01 21:06:05 2483 2

转载 四大卷积网络发家之路

原文链接> AlexNet VGGNet Google Inception Net ResNet 这4种网络依照出现的先后顺序排列,深度和复杂度也依次递进。它们分别获得了ILSVRC(ImageNet Large Scale Visual Recognition Challenge)比赛分类项目的2012年冠军(top-5错误率16.4%,使用额外数据可达到

2017-03-01 15:22:53 12020

原创 caffe: layer & layers之区别

被这个区别坑惨了 之前在caffe里下载的caffe model的prototxt网络构造,里面的构架是用layer写的。后来想试一下VGGnet等高端构架,网上下载到的居然是layers模式的,坑了我好久,才找到错误根源,原来是layers的参数跟layer有所差异。其实他们之间是可以相互转换的,虽然我不知道怎么转换的。caffe利用google开发的proto工具对自己的prototxt

2017-03-01 11:09:43 3573

原创 论文笔记:Segmentation as Selective Search for Object Recognition(ICCV2011)

SegmentationasSelectiveSearchforObjectRecognition 摘要 对于物体识别来说,当时的方法是基于穷举搜索。此处提出了利用更加具有价值的信息的方法:对于一些少量且精确的物体描绘生成许多合适的位置信息——(1)不会被发现的那些物体的位置信息是不会被识别的,(2)外观和周围的内容对于物体识别来说是最为有效的信息。总之我们的方法很棒,能够比当时最先进的算

2017-02-28 16:45:25 589

原创 论文笔记:Weakly Supervised Deep Detection Networks

Weakly Supervised Deep Detection Networks 摘要:本文主要解决了大规模image-level的分类问题,可同时解决区域选择和分类问题。作为拖欠训练器来训练。引言 弱监督学习非常重要主要是由于以下两个原因,其一,图片理解的主要目的在于学习整体的复杂视觉环境(ImageNet比赛);其二,CNN训练数据缺乏。因此,如果能够用上层信息来学习复杂的内容能够极大地

2017-02-28 12:00:31 5640 3

原创 论文笔记:A Global Covariance Descriptor for Nuclear Atypia Scoring in Breast Histopathology Images

Author: Adnan Mujahid Khan 论文原文链接:点击此处摘要 细胞核非典型评分通常被用于评定不同癌症的肿瘤等级,包括乳腺癌。本文提出了一个新颖的图片等级描述器,这个方法是基于区域协方差描述器。我们称我们的描述器为geodesic mean of region covariance descriptor, 它能够处理协方差描述器中出现的吸引人的特征,同时能够使用有效的核数进行

2017-02-15 16:38:16 824

原创 论文笔记:Network in network

摘要 Network in Network(‘NIN’) 构造了一个复杂的微型网络结构,用于对数据进行抽象处理(其实就是提取特征)。利用全局平均池化对特征图进行分类,能够有效避免过拟合问题。特点卷积神经网络的假定是线性可分的。NIN中的微型网络结构可以进行非线性的划分。利用多层感知机(MLP)作为微型网络结构的一部分,感知机是普遍的函数近似者,同时又可以进行back propagation.

2017-02-15 10:31:14 730

原创 文章标题

2017.01.12 DenseBoxDenseBox –> FCN (全卷积) end-to-end : input-output–>image Models –> VGG-19 1. Multi-level feature fusion 2. Multi-Task training 目标有无目标的位置2017.01.13 发现数据集不平衡的问题20170114工程 数据lmdb

2017-01-13 16:50:01 195

原创 Weakly Supervised Object Localization with Multi-fold Multiple Instance Learning

Weakly Supervised Object Localization with Multi-fold Multiple Instance Learning基于多层多实例学习的弱监督物体定位 摘要——在计算及视觉领域,物体的分类定位是一个具有挑战性的问题。标准的监督训练需要物体实例的bounding box标注。弱监督学习避免了这一耗时的标注过程。在这样的情况下,监督信息被限制在了二态标注中

2017-01-11 16:20:54 2379

原创 2017.01.09

最近在用caffe跑神经网络,中间遇到一些问题,总结下来。base_line model: trained atypia1_iter_50000.caffemodel loss 很低 accuracy 很高 使用了crop(224) 和 minor 自己设计的网络,地址https://github.com/EmmaW8/caffe/tree/201701 正在重新跑

2017-01-09 17:34:02 519

原创 CNN+caffe学习4:自己训练网络全过程

本问创建于2017年1月。由于caffe版本更新, 可能部分操作已经过时不能使用,希望大家多看源码,增强自主学习能力。 资料下载地址:https://github.com/EmmaW8/caffe.git branch选择201701,code文件夹里面是需要用到的执行文件,models里面是我自己设计的5层CNN模型配置文件,以及训练结果。1. 准备数据2. 数据分类...

2017-01-09 15:05:15 5833 7

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除