自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+

青青韶华

计算机在读,关注机器学习,深度学习,图像处理,计算机视觉(联系方式:[email protected]

  • 博客(48)
  • 资源 (4)
  • 收藏
  • 关注

原创 深度立体匹配中的自监督学习概览

深度学习的蓬勃发展得益于大规模有标注的数据驱动,有监督学习(supervised learning)推动深度模型向着性能越来越高的方向发展。但是,大量的标注数据往往需要付出巨大的人力成本,越来越多的研究开始关注如何在不获取数据标签的条件下提升模型的性能,也就是自监督学习(self-supervised learning)/无监督学习(unsupervised learning)。对于立体匹配(s...

2020-04-03 13:18:12 1984

原创 KITTI 2012/2015双目立体匹配(stereo matching)数据集百度云下载

KITTI 2012/2015双目立体匹配(stereo matching)数据集百度云下载链接KITTI 2012 Stereo Matching Dataset data_stereo_flow.zip链接: https://pan.baidu.com/s/1OO_jBmCpqnReM_O0aLZduw提取码: 44euKITTI 2015 Stereo Matching Datas...

2019-08-21 16:36:29 9871 18

原创 Ubuntu14.04利用Anaconda3虚拟环境安装tensorflow-gpu和opencv

前言 网上关于在Ubuntu上安装tensorflow-gpu和opencv的教程很多,但是大多数都是直接在本机上安装,需要配置cuda,cudnn,安装步骤较为繁琐,并且一旦出错甚至需要重装系统。这里提供一种通过conda虚拟环境安装的方法。使用虚拟环境可以根据代码的不同配置创建不同的运行环境,特别是不同版本的tensorflow需要的不同版本的cuda和cudnn,如果在本机配置则只能使用一...

2019-03-21 11:05:49 879 2

原创 win10+Anaconda3(python3.7)+CUDA8.0+PyTorch1.0安装与配置

2018年12月8日,Facebook在NIPS上正式发布PyTorch1.0版本,本文主要记录在笔记本电脑上安装PyTroch1.0最新版的过程。其实在PyTorch官网上已经给出了详细的配置过程,不过由于PyTorch的安装包源头在外网,国内安装会非常缓慢甚至无法获取安装包,因此这里提供其他简单有效的解决方案。配置环境:windows10+Anaconda3(python3.7.1)+CUD...

2019-03-09 17:14:55 10049 17

原创 C++调用Matlab生成的DLL动态链接库进行混合编程(win10+VS2015+Matlab2016b)

MATLAB具有很高的计算性能,在该平台上很多算法易于实现,而有时需要使用C++调用Matlab编写的程序,可以将该函数编译成dll库文件,之后在C++中对其进行调用。本文详细讲解在Matlab中将函数编译成库文件,并在C++中进行调用的方法。实验环境操作系统:windows10C++ IDE:Visual Studio 2015Matlab版本:Matlab 2016bM...

2018-07-30 13:59:54 21382 35

原创 Linux下caffe源码编译

下载caffe源码源码地址:https://github.com/BVLC/caffeImportError:No module named _caffe可以先运行一下代码,如果报错是“ImportError:No module named _caffe”,那么需要编译caffe源码。编译之前需要将Makefile.config.example复制为Makefile.config。这里如果使用的op

2018-01-04 22:34:09 1833 2

原创 VS2015编译的程序在其他电脑上运行不依赖VS相关运行环境

分享一个win32控制台应用程序不依赖VS2015运行环境就可以运行的例子。主要是三步:1,使用release模式编译2,项目属性中,“C/C++”,“代码生成”中的运行库改为“多线程(/MT)”3,项目属性中,“链接器”,“系统”,“所需的最低版本”写上5.01如果完成以上步骤,对于win32控制台程序应该是没有问题了。还不成功可以考虑以下两个方面:1,不是win32控制台运行程序。不知道这个方法

2017-11-18 23:41:18 13521 3

原创 计算机视觉(Computer Vision,CV)顶会论文下载地址

所有论文下载地址 http://openaccess.thecvf.com/content_cvpr_2017/papers/Machine Learning 1Spotlight 1-1AExclusivity-Consistency Regularized Multi-View Subspace Clustering Xiaojie Guo, Xiaobo Wang, Zhen Lei, C

2017-11-16 15:29:02 5286 1

原创 论文阅读:《Deep Image Matting》CVPR 2017

论文地址:https://arxiv.org/abs/1703.03872 项目地址:https://github.com/Joker316701882/Deep-Image-Matting概述Adobe提出一种基于深度学习的新算法,主要解决传统方法中只有low-level features和缺乏high-level context的问题。深度模型分为两个阶段。第一阶段是深度卷积编码-解码网

2017-11-16 13:46:38 13347 12

原创 论文阅读:《Deep Automatic Portrait Matting》 ECCV 2016

概述论文使用传统的matting方法,构造了一个portrait image数据库,并在此基础上,提出了一种基于CNN的matting方法。CNN已经在很多计算机视觉任务上有good performance。high-level的有检测、分类、识别、分割,但是他们都无法处理matting的细节问题;low-level的有超分辨、去噪、复原、增强,但是没有分割信息。论文提出两种函数,第一种是利用CNN

2017-11-16 13:38:05 7386 1

原创 论文阅读:《Natural Image Matting Using Deep CNN》ECCV 2016

概述这篇论文主要基于closed form matting和KNN matting两种方法,利用CNN,以两种方法输出和RGB图像一起作为神经网络的输入,从而达到融合局部和非局部方法。论文声称是第一次将深度学习用于自然图像抠图。Motivation论文的动机主要来源于local methods的closed form matting和unlocal methods的KNN matting。文中较大篇

2017-11-16 12:12:48 4338

原创 抠图技术及方法简介(Image Matting Overview)

之前接触过语义分割,所以在刚接触图像抠图时以为两者是差不多。语义分割是端到端的,对像素按照语义进行多分类,而抠图就是按照前景和背景进行二分类嘛?实际上这是错误的理解。语义分割重在对每个像素的语义理解,将相同语义的像素分割为同一个部分,得到的结果就是若干个块状,至于块与块之间是否衔接自然则不考虑。抠图只将图片分成前景和背景两块,目的是拿到前景,好的抠图算法会对于头发等细节的处理效果比较精确。分割和抠图

2017-11-16 12:02:09 35672 10

翻译 MXNet官方文档中文版教程(9):大规模图像分类

文档英文原版参见Large Scale Image Classification训练大规模图像的神经网络具有很多挑战。即使使用最新的GPU,也不可能使用单个GPU在合理的时间内使用大量图像来训练大型网络。通过在单个机器中使用多个GPU可以稍微缓解这个问题。但是,可以连接到一台机器(通常为8或16个)的GPU数量是有限制的。本教程介绍了如何使用多台机器(每个包含多个GPU)来训练具有TB级数据的大型

2017-10-30 16:35:59 5089 1

翻译 MXNet官方文档中文版教程(8):使用预训练模型预测

文档英文原版参见Predict with pre-trained models本教程介绍如何使用预训练模型识别图像中的对象,以及如何进行特征提取。前提条件为了完成以下教程,我们需要:MXNet:安装教程 -Python Requests, Matplotlib and Jupyter Notebook.$ pip install requests matplotlib jupyter ope

2017-10-30 16:33:42 4648

翻译 MXNet官方文档中文版教程(7):手写数字识别(Handwritten Digit Recognition)

文档英文原版参见Handwritten Digit Recognition在本教程中,我们将逐步介绍如何使用MNIST 数据集构建手写数字分类器。 对于深度学习新手来说,这个练习可以说是和“Hello World”等同的。MNIST 是广泛使用的用于手写数字分类任务的数据集。它由70,000个有标记的,28x28分辨率的手写数字图像组成。数据集分为6万个训练图像和10,000个测试图像。共有10个

2017-10-30 16:32:17 6017 1

翻译 MXNet官方文档中文版教程(6):线性回归(LinearRegression)

文档英文原版参见Linear Regression在本教程中,我们将介绍如何使用MXNet API实现线性回归。我们尝试学习的函数是:y=x1+2x2y = x_{1} + 2x_{2},其中(x1,x2)(x_{1},x_{2} )是输入特征,y是相应的标签。前提条件为了完成以下教程,我们需要:MXNet:安装教程Jupyter Notebookpip install jupyter数据准

2017-10-30 16:26:35 3338

翻译 MXNet官方文档中文版教程(5):加载数据(Iterators)

文档英文原版参见Iterators - Loading data在本教程中,我们专注于如何将数据提供给训练或推断程序。 MXNet中的大多数训练和推断模块接受数据迭代器,因此简化了此过程,特别是在读取大型数据集时。 这里我们讨论 API 规则和几个提供的迭代器。前提要求完成本教程,我们需要:MXNetOpenCV Python library, Python Requests, Matplot

2017-10-30 16:24:44 11934 1

翻译 MXNet官方文档中文版教程(4):神经网络训练和推断(Module)

文档英文原版参见Module - Neural network training and inference训练神经网络涉及不少的步骤。我们需要知道如何提供输入训练数据,初始化模型参数,执行前向和后向传播,根据计算的梯度更新权重,模型检查等。在预测过程中,大部分步骤是重复的。 所有这一切对于新手以及经验丰富的开发人员而言都是相当艰巨的。幸运的是,MXNet的module 包(简写为mod )模块化

2017-10-30 16:22:21 4872

翻译 MXNet官方文档中文版教程(3):神经网络图(Symbol)

文档英文原版参见Symbol - Neural network graphs and auto-differentiation在前面的教程中,我们介绍了NDArray,MXNet中操作数据的基本数据结构。仅仅使用NDArray本身,我们就可以执行很多数学操作。实际上,我们也可以使用NDArray定义和更新一整个神经网络。NDArray支持命令式编程(用于科学计算),充分利用任何前端语言的本机控制。

2017-10-30 16:20:50 12259 2

翻译 MXNet官方文档中文版教程(2):GPUCPU张量计算(NDArray)

文档英文原版参见NDArray - Imperative tensor operations on CPU/GPU在MXNet中,NDArray 是所有数学计算的核心数据结构。每个NDArray 代表了一个多维的,固定大小的齐次数组。如果你对python的科学计算包Numpy熟悉的话,你会发现mxnet.ndarray与numpy.ndarray在诸多方面十分相似。就像对应的NumPy数据结构,M

2017-10-30 16:19:23 10402 2

翻译 MXNet官方文档中文版教程(1):教程(Tutorials)

最近开始尝试MXNet框架,官方文档已经更新,网上中文文档的翻译已经是之前版本。因此打算在学习过程中将最新版的官方文档翻译出来,以便今后自己和相关学习者作为学习参考。不足之处,尽请留言! 官方文档链接:Tutorials教程这些教程介绍了一些深度学习的基本概念以及如何使用MXNet来实现他们。教程的基础部分包括使用数组,构建网络,加载/预处理数据等等。训练和推断部分讲解了线性回归的实现,使用MLP

2017-10-30 16:15:56 22359

原创 论文阅读:《Understanding Convolution for Semantic Segmentation》

论文地址:https://arxiv.org/pdf/1702.08502.pdf概述本文主要是针对已有的FCN+CRF+Atrous convolution 中的上采样和dilated convolution 进行了改进, 提出了替代的dense up-sampling convolution (DUC)和hybrid dilated convolution(HDC)。其优点是扩大网络的感受野,

2017-10-25 19:31:42 1402

原创 论文阅读:《RefineNet: Multi-Path Refinement Networks for High-Resolution Semantic Segmentation》

论文地址:https://arxiv.org/pdf/1611.06612v3.pdf概述论文提出一种多阶段的提炼网络(RefineNet),使用long-range 残差连接,能够有效的将下采样中缺失的信息融合进来,从而产生高分辨率的预测图像。用这种方法可以将粗糙的高层语义特征和细粒度的底层特征进行融合。使用残差连接和identity mapping 的思想,能够实现端到端的训练。通过链式残差池

2017-10-25 19:19:37 15062

原创 论文阅读:《Pyramid Scene Parsing Network》CVPR 2017

论文地址:https://arxiv.org/pdf/1612.01105.pdf 项目地址:https://github.com/hszhao/PSPNet概述场景解析的挑战在于无限制的开放词汇和不同场景,论文使用pyramid pooling module,实现基于不同区域的上下文集成,提出PSPnet,实现利用上下文信息的能力进行场景解析。本方法的提出取得了ImageNet scene

2017-10-25 18:29:06 1464

原创 论文阅读:《DeepLab-v2: Semantic Image Segmentation 》

论文地址:https://arxiv.org/pdf/1606.00915.pdf概述DeepLabv2 是在DeeplabV1 的基础上又做了改进的。Deeplabv1 主要是在FCN 的基础上对vgg 网络进行fine tuning,并加上一个全连接的CRF,这样可以保证对FCN 得到的结果在局部细节上进行优化,从而实现在PASCALVOC 数据集上达到71.6%的准确率,成为当时的state

2017-10-25 12:59:27 13065 2

原创 论文阅读:《Human Parsing with Contextualized Convolutional Neural Network》ICCV 2015

论文地址: https://www.cv-foundation.org/openaccess/content_iccv_2015/papers/Liang_Human_Parsing_With_ICCV_2015_paper.pdf概述论文主要是提出了一个local-to-global-to-local 的框架结构,主要目的是从低层加入情境化的信息,这个框架是将交叉层内容(cross-lay

2017-10-25 11:45:18 1678 3

原创 论文阅读:《LIP: Self-supervised Structure-sensitive Learning and A New Benchmark for Human Parsing》

数据集:http://hcp.sysu.edu.cn/lip 主要贡献提出了一个新的large-scale benchmark,以及一个测评服务器用支持进一步的人物解析研究,新的数据集共有50462 张图片,20 个分类标签(19个类别+背景)通过在新的数据集上的实验,详细分析之前state-of-the-art 的人物解析方法的优势和不足提出了一个自监督的,基于人体架构化的学习框架,主要是

2017-10-25 11:22:11 1440

原创 论文阅读:《Fully Convolutional Networks for Semantic Segmentation》CVPR 2015

论文地址:https://arxiv.org/abs/1411.4038概述论文最大的贡献是提出了一种端到端(end-to-end)的,像素对像素(pixel-to-pixel)的,基于全卷积神经网络的语义分割方法。输入图片的大小可以是任意的,输出相应大小的结果,这不同于以往的需要对输入神经网络中的图像进行reshape 操作至固定大小的图片。实现全卷积神经网络的关键点在将原来卷积神经网络的最后全

2017-10-25 10:54:24 717

原创 人体姿态估计数据集整理(Pose Estimation/Keypoint)

LSP地址:http://sam.johnson.io/research/lsp.html 样本数:2K关节点个数:14全身,单人FLIC地址:https://bensapp.github.io/flic-dataset.html样本数:2W关节点个数:9全身,单人MPII地址:http://human-pose.mpi-inf.mpg.de/样本数:25K关节点个数:16

2017-10-24 17:32:31 33813 3

原创 论文阅读:《RMPE: Regional Multi-Person Pose Estimation》ICCV 2017

概述论文地址:https://arxiv.org/abs/1612.00137v3 项目主页:RMPE: Regional Multi-person Pose Estimation这篇论文是上海交大和腾讯优图的论文,被 ICCV 2017接收。它对于多人姿态估计的方法采用传统的自顶向下的方法,即先检测人,再识别人体姿态。检测使用的是SSD-512,识别人体姿态使用的是state-of-the-ar

2017-10-24 16:08:13 10413 2

原创 论文阅读:《Associative Embedding:End-to-End Learning for Joint Detection and Grouping》

概述论文提出了一种single-stage,end-to-end的关节点检测和分组方法,这不同于以往的multi-stage的关节点检测方法,在MPII和COCO数据集上达到新的state-of-the-art的效果,超越最近的Mask RCNN和Google GMI。从人体姿态估计方法上属于bottom-up的方法,即先检测关节点,再对关节点进行分组。在COCO测试集上mAP达到0.655。尽管论

2017-10-23 19:58:05 4257

原创 论文阅读:《Towards accurate multi-person pose estimation in the wild》CVPR 2017

网络框架论文采用top-down的结构,分为两个阶段: 第一阶段使用faster rcnn做detection,检测出图片中的多个人,并对bounding box进行image crop; 第二阶段采用fully convolutional resnet对每一个bonding box中的人物预测dense heatmap和offset; 最后通过heatmap和offset的融合得到关键点的精

2017-10-23 19:49:37 7493

原创 论文阅读:《Mask R-CNN》ICCV2017

概述Mask R-CNN是用于目标检测分割的框架,即对一张图片,既输出图片中已有的目标,还能为每一个实例生成一个高质量的分割掩码。一句话概括object instance segmentation = object detection + semantic segmentation。特点 1.mask R-CNN是在faster R-CNN的基础上,在每一个RoI都增加一个预测分割的 mask,

2017-10-23 19:38:50 4702

原创 论文阅读:《Realtime Multi-Person 2D Pose Estimation using Part Affinity Fields》CVPR 2017

概述本文承接CMP论文的框架结构,最大的创新点在于提出了一种PAF的方法,能够有效的针对多人进行姿态估计,同时在保证精度的情况下,可以做到实时的效果。传统的方法采用top-down的方法,即先检测人,然后对每一个人进行姿态估计,但是当人离得比较近的时候,检测人体的方法无效;并且人数越多,检测所花的时间约多,不能做到实时效果。因此本文采用bottom-up的方式,但是也利用了全局上下文信息。PAF文章

2017-10-23 19:24:22 11649 1

原创 论文阅读:Deepcut&Deepercut:Joint Subset Partition and Labeling for Multi Person Pose Estimation

引言本篇一起介绍两篇相关文章—— 《DeepCut: Joint Subset Partition and Labeling for Multi Person Pose Estimation》 CVPR 2016 《DeeperCut: A Deeper, Stronger, and Faster Multi-Person Pose Estimation Model》 ECCV 2016Deep

2017-10-23 18:32:43 10577 7

原创 论文阅读:《Structured Feature Learning for Pose Estimation》CVPR 2016

概述本文仍然是使用CNN,其创新点在于如何对关节之间的依赖进行建模,解决方法是在卷积层使用几何变换核。此外还提出了双向的树结构模型,这样每个关节的特征通道都可以接受其他关节点信息。 网络架构/算法流程输入是一张RGB静态图片。经过CNN(论文中采用的CNN是VGG Net),得到和关节个数数量相同的heatmap,然后这些heamap通过信息传递进行refined。信息传递的方式是使用双向树结构,按

2017-10-23 18:20:12 2389

原创 论文阅读:《Stacked Hourglass Networks for Human Pose Estimation》ECCV 2016

概述本文仍然是使用全卷积神经网络,对给定的单张RGB图像,输出人体关键点的精确像素位置,使用多尺度特征,捕捉人体各关节点的空间位置信息。网络结构形似沙漏状,重复使用top-down到bottom-up来推断人体的关节点位置。每一个top-down到bottom-up的结构都是一个stacked hourglass模块。沙漏网络 Motivation:使用沙漏网络的目的是为了反复获取不同尺度下图

2017-10-23 18:07:03 11653 5

原创 论文阅读:《Convolutional Pose Machines》CVPR 2016

概述本文使用CNN进行人体姿态估计,它的主要贡献在于使用顺序化的卷积架构来表达空间信息和纹理信息。顺序化的卷积架构表现在网络分为多个阶段,每一个阶段都有监督训练的部分。前面的阶段使用原始图片作为输入,后面阶段使用之前阶段的特征图作为输入,主要是为了融合空间信息,纹理信息和中心约束。另外,对同一个卷积架构同时使用多个尺度处理输入的特征和响应,既能保证精度,又考虑了各部件之间的远近距离关系。 网络结构

2017-10-23 17:25:20 13749 15

原创 论文阅读:《Flowing ConvNets for Human Pose Estimation in Videos》ICCV 2015

概述本文主要用CNN网络来进行人体姿态估计,加入了temporal 信息以提高精度。本文的四个贡献: 1. 提出了一个更深的CNN网络(相比于Alex-Net),不同于之前的回归坐标,而是回归heatmap,这样可以提高关节点定位的鲁棒性,并且更利于在训练过程中的可视化观察。 2. 提出一种空间融合层,用来学习隐式空间模型,即用来提取关节点之间的内在联系 3. 使用光流信息,用来对准

2017-10-23 17:06:55 7109 5

原创 人体姿态估计综述(Human Pose Estimation Overview)

Part1:Single Person Pose Estimation2015 年之前的方法都是回归出精确的关节点坐标( x,y ),采用这种方法不好的原因是人体运动灵活,模型可扩展性较差。《Flowing ConvNets for Human Pose Estimation in Videos》ICCV 20152015 年 flow convnet 将姿态估计看作是检测问题,输出是 heatm

2017-10-23 16:50:50 58394 22

kitti12&15;_stereo_matching_datasets.txt

KITTI 2012/2015双目立体匹配(stereo matching)数据集百度云下载链接 里面是一个txt文件,txt文件中有百度云下载链接,分别是(1)KITTI 2012 Stereo Matching Dataset:data_stereo_flow.zip;(2)KITTI 2015 Stereo Matching Dataset:data_scene_flow.zip

2019-10-13

红外与可见光图像配准算法(MATLAB版代码)

针对电气设备同一场景的红外与可见光图像间一致特征难以提取和匹配的问题,提出了一种基于斜率一致性的配准方法。首先通过数学形态学方法分别提取红外与可见光图像的边缘,得到粗边缘图像;然后通过SURF算法提取两幅边缘图像的特征点,根据正确的匹配点对之间斜率一致性的先验知识,进行特征点匹配;最后通过最小二乘法求得仿射变换模型参数并实现两幅图像的配准。资源为该算法的MATLAB版本,其中main.m是主函数,内附测试图片。

2018-05-05

基于色彩分割和自适应窗口的快速立体匹配(PDF论文)

针对现有立体匹配算法难以兼顾匹配精度和速度的不足 ,提出了一种基于联合匹配代价的局部方法。首先 ,根据视差在同一色彩分割区域内平滑变化的假设 ,提出了一种利用参考图像和目标图像的色彩分割信息获得的基于任意形状和大小支持区域的匹配代价;然后在 RGB色彩空间中 ,通过由窗口内的平均匹配误差、误差方差及较大窗口的偏向误差构成的窗口选择评价函数 ,获得基于自适应矩形窗口的匹配代价;最后 ,将这两种匹配代价进行有机的结合构成联合匹配代价 ,并通过局部优化方法获得稠密视差图。采用 M iddlebury dataset进行的实验结果表明 ,本文算法不仅可以提高视差不连续区域和低纹理区域的匹配精度 ,而且获得的视差与当前主流算法具有可比性。此外 ,所提算法的处理时间较之当前优秀的局部方法提高了约 19~35倍。

2018-04-18

ColorTransferBetweenImage实现代码

Color Transfer Between Image的MATLAB代码实现,内附测试图片

2017-03-25

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除