自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+

circle的专栏

一万小时定律

  • 博客(97)
  • 收藏
  • 关注

原创 PicoDet代码学习记录

paddle detection的推理代码粗略学习

2022-12-12 19:44:28 539 2

原创 【CVPR2018】Group Normalization

作者摘要BN是一个深度学习发展的里程碑,给多种网络训练赋能。但当batch变小,由于不准确的batch统计估计,BN的错误率会快速增加。这限制了BN在大模型的应用。本文提出Group Normalization(GN),作为BN的一个简单替换。GN将通道数分成多个组,在每个组计算均值和方差来归一化,计算独立于batch size,且在batchsize的大变化范围内性能稳定。在ImageNet训练的ResNet-50,batch size为2时GN的错误率比BN低10.6%;在batch size.

2020-08-06 15:42:17 414

原创 【CVPR2020】Rethinking Data Augmentation for Image Super-resolution: A Comprehensive Analysis and a Ne

【CVPR2020】Rethinking Data Augmentation for Image Super-resolution: A Comprehensive Analysis and a New Strategy作者摘要数据增广能有效提升深度网络性能,本文对现有的超分数据增广进行了一套综合分析。对于图像重建,像素空间关系很重要。本文提出CutBlur,即将高/低分辨率patch剪切到对应位置,使得模型学习不止学习如何重建,还学习到重建的具体位置。本方法能提升性能,而且在一些low-lev

2020-07-24 20:09:31 1274 1

原创 编译opencv库vs2017+opencv3.4.8+opencv_contrib+cuda10

因为要用到opencv的sift和surf函数,但是opencv3之后的版本已经将这些模块移到opencv_contrib里,因此需要自己编译opencv库。编译折腾了两天,其中还挺多要注意的,下面记录一下:1、gitlab上下载opencv3.4.8和opencv_contrib-3.4.8,注意二者版本要一致;2、安装cmake,我装的3.18.0;3、开始编译:编译时注意选择vs2017,并改为x64,我这默认是x86,不改是编不过的,因为cuda不支持x86; ffmpeg、m

2020-07-18 12:40:25 375

转载 一文读懂深度学习中的各种卷积

写的非常通俗易懂,深入浅出,厘清了很多基本概念。转载自:https://mp.weixin.qq.com/s/C2Gp6oTrv6U72ydIxTW0Mw我们都知道卷积的重要性,但你知道深度学习领域的卷积究竟是什么,又有多少种类吗?研究学者 Kunlun Bai 发布了一篇介绍深度学习的卷积文章,用浅显易懂的方式介绍了深度学习领域的各种卷积及其优势。如果你听说过深度学习中不同种类的卷积(比如 2D / 3D / 1x1 /转置/扩张(Atrous)/空间可分/深度可分/平展/分组/混..

2020-06-16 17:15:47 295

原创 【CVPR2018】ERFNet: Efficient Residual Factorized ConvNet for Real-time Semantic Segmentation

作者摘要语义分割网络可以端到端训练,并准确地在像素级对多种目标分类。本文提出一个可实时运行且结果准确的语义分割架构。本架构核心是一个新层,使用residual connections和factorized convolutions,得以保证准确和高效。在单卡Titan X可达83FPS,Jetson TX1(英伟达GPU开发板)可达7FPS。在公开数据集Cityscapes上准确率类...

2020-04-07 23:19:35 2574 1

原创 【CVPR2018】MobileFaceNets Efficient CNNs for Accurate RealTime Face Verification on Mobile Devices

【CVPR2018】MobileFaceNets Efficient CNNs for Accurate RealTime Face Verification on Mobile Devices作者摘要本文提出一类高效CNN模型MobileFaceNets,参数量小于100w,识别适合手机和嵌入式设备,进行实时准确的人脸验证。首先简单分析通用mobile网络对人人脸验证的缺陷,并且Mo...

2019-12-20 18:17:51 358

原创 【CVPR2017 Best Paper】Densely Connected Convolutional Networks

【CVPR2017 Best Paper】Densely Connected Convolutional Networks作者摘要近年研究表明,如果卷积网络中,输入周围的层与输出周围的层有更短的连接,那么网络可以更深、更准确、训练更高效。本文根据这个观察,提出Dense Convolutional Network(DenseNet),在前馈中每一层都与其他层相连。传统卷积网络,L层有L...

2019-08-27 19:57:38 235

原创 【CVPR2018】FOTS: Fast Oriented Text Spotting with a Unified Network论文阅读笔记

一、作者二、摘要提出一种端到端可训练Fast Oriented Text Spotting网络,同时检测识别。RoIRotate共享检测和识别的卷积特征。本方法没有重复计算消耗,并学习到更多通用特征,因此优于two-stage方法。在ICDAR2015、ICDAR2017MLT和ICDAR2013达到state-of-the-art。达到实时的任意方向text spotting,22....

2019-08-09 14:34:10 521

原创 【CVPR2017】Richer Convolutional Features for Edge Detection论文阅读笔记

一、作者二、方法概括 本文提出一种准确的边缘检测方法,使用丰富的卷积特征richer convolutional features(RCF)。使用VGG16网络,取得state-of-the-art性能,在BSDS500数据集,获得ODS 0.811,125ms每幅,超过人类性能(ODS 0.803)。此外,我们有个加速版本,33ms每幅,ODS 0.806。三、创新点和...

2019-08-09 14:31:55 1030

原创 【ICCV2015】Holistically-Nested Edge Detection论文阅读笔记

一、作者二、方法概括 本文提出一种新的边缘检测算法HED(holistically-nested edge detection),有两个特点:1整图进行训练和预测;2多尺度多层次特征学习。 利用全卷积网络(FCN)和deeply-supervised nets(DSN),自动学习丰富的层次化表达。在BSD500(0.782)和NYU Depth(0.746...

2019-08-09 14:28:40 1562

转载 caffe中的各种loss函数

转自:https://blog.csdn.net/u012177034/article/details/52144325机器学习的目的就是通过对训练样本输出与真实值不一致的进行惩罚,得到损失Loss,然后采用一定的优化算法对loss进行最小优化,进而得到合理的网络权值。本文介绍Caffe中含有的常见的LossLayer及其参数设置方法Caffe的LossLayer主要由6个:(1)Co...

2018-09-18 16:25:24 1847 1

转载 CNN中感受野的计算

感受野(receptive field)是怎样一个东西呢,从CNN可视化的角度来讲,就是输出featuremap某个节点的响应对应的输入图像的区域就是感受野。比如我们第一层是一个3*3的卷积核,那么我们经过这个卷积核得到的featuremap中的每个节点都源自这个3*3的卷积核与原图像中3*3的区域做卷积,那么我们就称这个featuremap的节点感受野大小为3*3如果再经过poo

2017-12-07 18:48:48 406

转载 python unicode字符串

转载自:https://www.cnblogs.com/gtarcoder/p/5053284.html程序存储、传输、操作字符串时,对代码中写好的字符串或者手动输入的字符串,程序会自动将这些字符串按照某种字符集编码(一般为本地系统字符编码)将字符串转换为字节码,这是字符的“解码”,将显示的字符转化为字节码;程序中显示文字时,计算机读取一串字节,选择合适的字符集(一般为本地系统

2017-12-06 17:30:05 5343 1

转载 深度学习中的卷积与反卷积

转载自:http://blog.csdn.net/panglinzhuo/article/details/75207855卷积与反卷积操作在图像分类、图像分割、图像生成、边缘检测等领域都有很重要的作用。为了讲明白这两种操作,特别是反卷积操作,本文将依照神经网络中的编码器——>解码器——>卷积——>反卷积 的思路来一步步介绍。编码器与解码器神经网络本质上就是一个线性变

2017-12-05 16:14:52 2285 1

转载 C++ explicit关键字详解

转载自:https://www.cnblogs.com/ymy124/p/3632634.html首先, C++中的explicit关键字只能用于修饰只有一个参数的类构造函数。它的作用是表明该构造函数是显示的, 而非隐式的。跟它相对应的另一个关键字是implicit, 意思是隐藏的,类构造函数默认情况下即声明为implicit(隐式)。那么显示声明的构造函数和隐式声

2017-11-29 18:26:13 265

转载 谈谈自己对正则化的一些理解

上学的时候,就一直很好奇,模式识别理论中,常提到的正则化到底是干什么的?渐渐地,听到的多了,看到的多了,再加上平时做东西都会或多或少的接触,有了一些新的理解。1. 正则化的目的:防止过拟合!2. 正则化的本质:约束(限制)要优化的参数。关于第1点,过拟合指的是给定一堆数据,这堆数据带有噪声,利用模型去拟合这堆数据,可能会把噪声数据也给拟合了,这点很致命,一方面会

2017-11-15 16:51:10 591

转载 Caffe中实现卷积的计算

转载自:https://buptldy.github.io/2016/10/01/2016-10-01-im2col/CNN中的卷积操作卷积层是CNNs网络中可以说是最重要的层了,卷积层的主要作用是对输入图像求卷积运算。如下图所示,输入图片的维数为[c0,h0,w0][c0,h0,w0] ;卷积核的维数为[c1,c0,hk,wk][c1,c0,hk,wk

2017-10-27 18:10:05 484

转载 Linux下C语言实现CopyFile

Linux下C语言实现文件拷贝/*   Function:copy file from file1 to file2   How to execute: ./copyfile file1 file2   (under Linux)   Data:2007-05-09*/ #include      /*fprintf(),stderr,

2017-10-24 15:39:11 2617

转载 AP、mAP多标签图像分类任务的评价方法

多标签图像分类(Multi-label Image Classification)任务中图片的标签不止一个,因此评价不能用普通单标签图像分类的标准,即mean  accuracy,该任务采用的是和信息检索中类似的方法—mAP(mean Average Precision)。mAP虽然字面意思和mean  accuracy看起来差不多,但是计算方法要繁琐得多,以下是mAP的计算方法:首先用训

2017-10-11 17:19:34 3006

转载 caffe绘制训练过程的loss和accuracy曲线

在caffe的训练过程中,大家难免想图形化自己的训练数据,以便更好的展示结果。如果自己写代码记录训练过程的数据,那就太麻烦了,caffe中其实已经自带了这样的小工具 caffe-master/tools/extra/parse_log.sh  caffe-master/tools/extra/extract_seconds.py和 caffe-master/tools/extra/plot_tra

2017-07-31 12:18:53 598

原创 Caffe源码阅读笔记

具体内容可参考博客:http://blog.csdn.net/mounty_fsc/article/category/6136645以下内容以Lenet网络为例子一、train函数过程1.1    main函数,在tools\caffe.cpp解析命令,从而调用train、test、time、device_query中的一个,训练则调用train函数。1.2    tr

2017-07-21 17:30:30 706

转载 如何在Windows单步调试Caffe

转载自:http://blog.csdn.net/tsyccnh/article/details/51679121上一篇文章已经成功的在Windows环境下训练了mnist。这篇文章主要用来说明如何对网络进行调试。这篇文章已经默认你已经成功的在Windows下配置并编译了Caffe并跑通了mnist demo 下面就开始正式的配置调试环境: Caffe的根目

2017-07-18 19:24:43 1114

转载 虚函数和纯虚函数的区别

转载自大牛:http://blog.csdn.net/hackbuteer1/article/details/7558868首先:强调一个概念定义一个函数为虚函数,不代表函数为不被实现的函数。定义他为虚函数是为了允许用基类的指针来调用子类的这个函数。定义一个函数为纯虚函数,才代表函数没有被实现。定义纯虚函数是为了实现一个接口,起到一个规范的作用,规范继承这个类的程序员必须实现这

2017-07-13 16:23:24 256

转载 一文搞懂HMM

转载自:http://www.cnblogs.com/skyme/p/4651331.html什么是熵(Entropy)简单来说,熵是表示物质系统状态的一种度量,用它老表征系统的无序程度。熵越大,系统越无序,意味着系统结构和运动的不确定和无规则;反之,,熵越小,系统越有序,意味着具有确定和有规则的运动状态。熵的中文意思是热量被温度除的商。负熵是物质系统有序化,组织化,复杂化

2017-06-21 14:46:48 367

转载 理解dropout

转载自:http://blog.csdn.net/stdcoutzyx/article/details/49022443开篇明义,dropout是指在深度学习网络的训练过程中,对于神经网络单元,按照一定的概率将其暂时从网络中丢弃。注意是暂时,对于随机梯度下降来说,由于是随机丢弃,故而每一个mini-batch都在训练不同的网络。dropout是CNN中防止过拟合提高效果的一个大杀器,但

2017-06-19 17:02:08 489

转载 Batch Normalization 学习笔记

原文地址:http://blog.csdn.net/hjimce/article/details/50866313作者:hjimce一、背景意义本篇博文主要讲解2015年深度学习领域,非常值得学习的一篇文献:《Batch Normalization: Accelerating Deep Network Training by  Reducing Internal Covariate

2017-06-16 17:56:19 260

转载 一文读懂卷积神经网络CNN

转自:http://www.cnblogs.com/nsnow/p/4562308.html作者:张雨石自今年七月份以来,一直在实验室负责卷积神经网络(Convolutional Neural Network,CNN),期间配置和使用过theano和cuda-convnet、cuda-convnet2。为了增进CNN的理解和使用,特写此博文,以其与人交流,互有增益。正文之前

2017-06-16 14:23:41 491

原创 UFLDL Tutorial Exercise

UFLDL教程:http://ufldl.stanford.edu/wiki/index.php/UFLDL教程我用MATLAB完成的作业分享在github:https://github.com/SophieFeng/UFLDL-Tutorial-Exercise欢迎大家提出宝贵意见!

2017-05-17 15:50:21 529

转载 机器学习之正则化(Regularization)

转载自:http://www.cnblogs.com/jianxinzhou/p/4083921.html1. The Problem of Overfitting1还是来看预测房价的这个例子,我们先对该数据做线性回归,也就是左边第一张图。如果这么做,我们可以获得拟合数据的这样一条直线,但是,实际上这并不是一个很好的模型。我们看看这些数据,很明显,随

2017-04-20 13:45:24 378

转载 世界顶级人工智能会议的总结

这篇文章转载自南京大学周志华教授的博客,原文链接已经找不到了,特此说明。周志华教授的《机器学习》这本书写的不错,深入浅出,适合机器学习入门学习,推荐一下。-----------------------------------------------------------------------------------------------------------------------

2017-04-14 14:59:34 26938 2

转载 UFLDL自编码算法详细理解与代码实现

转载自:http://www.cnblogs.com/happylion/p/4209570.html写的很详细,解释的很好,最近正在看UFLDL,在编程实现过程中有一些不明白的地方,对MATLAB用的也不是很熟练,这篇文章为我解决了很多困惑。在有监督学习中,训练样本是有类别标签的。现在假设我们只有一个没有带类别标签的训练样本集合  ,其中  。自编码神经网络是一种无监督学

2017-04-06 16:21:26 612

转载 CNN:通俗理解卷积神经网络

转载自:http://www.2cto.com/kf/201607/522441.html1 前言2012年我在北京组织过8期machine learning读书会,那时“机器学习”非常火,很多人都对其抱有巨大的热情。当我2013年再次来到北京时,有一个词似乎比“机器学习”更火,那就是“深度学习”。本文内写过一些机器学习相关的文章,但上一篇技术文章“LDA主

2017-03-22 15:25:49 1026

转载 Unicode(UTF-8, UTF-16)令人混淆的概念

部分转载自: http://www.cnblogs.com/kingcat/archive/2012/10/16/2726334.html部分转载自:http://www.qianxingzhem.com/post-1499.html部分转载自:http://blog.csdn.net/leftstrang/article/details/52450318部分转载自:http://bl...

2017-02-17 10:01:13 6424

转载 OpenPR开源代码项目

欢迎大家访问OpenPR主页: http://www.openpr.org.cn, 并提出意见和建议!同时,OpenPR也期待您分享您的代码!OpenPR, stands for Open Pattern Recognition project and is intended to be an open source platform for sharing algorithms of

2016-12-27 09:34:25 1965

转载 GitHub的使用总结

在GitHub的使用过程中,不断更新本文。    转载:《github初次使用介绍》 http://www.cnblogs.com/Lonelyprince/p/4364173.html一、Git和GitHub的区别Git是一个分布式的版本控制系统,与SVN类似;最初由Linus Torvalds编写,用作Linux内核代码的管理。在推出后,Git在其它项目中也

2016-12-21 13:02:58 379

转载 k近邻法与kd树

转载自:http://blog.csdn.net/qll125596718/article/details/8426458在使用k近邻法进行分类时,对新的实例,根据其k个最近邻的训练实例的类别,通过多数表决的方式进行预测。由于k近邻模型的特征空间一般是n维实数向量,所以距离的计算通常采用的是欧式距离。关键的是k值的选取,如果k值太小就意味着整体模型变得复杂,容易发生过拟合,即如果邻近的

2016-12-20 18:06:15 306

转载 对线性回归、逻辑回归、各种回归的概念学习

转载自:http://blog.csdn.net/viewcode/article/details/8794401回归问题的条件/前提:1) 收集的数据2) 假设的模型,即一个函数,这个函数里含有未知的参数,通过学习,可以估计出参数。然后利用这个模型去预测/分类新的数据。1. 线性回归假设 特征 和 结果 都满足线性。即不大于一次方。这个是针对 收集的数据而言。

2016-12-15 10:20:14 677

转载 如何理解卷积:信号处理、图像处理中的应用

信号与系统中的卷积解释作者:张俊博链接:https://www.zhihu.com/question/22298352/answer/34267457来源:知乎著作权归作者所有,转载请联系作者获得授权。不推荐用“反转/翻转/反褶/对称”等解释卷积。好好的信号为什么要翻转?导致学生难以理解卷积的物理意义。这个其实非常简单的概念,国内的大多数教材却没有讲透。直接

2016-12-08 11:08:48 11034 2

转载 Histogram of Oriented Gridients(HOG) 方向梯度直方图

最近在做Script Identification(SI),目标是中、英、维文的场景文本行分类,尝试使用HOG+SVM进行中/英分类。转载自:http://www.cnblogs.com/hrlnw/archive/2013/08/06/2826651.htmlHistogram of Oriented Gridients,缩写为HOG,是目前计算机视觉、模式识别领域很常用

2016-12-07 21:39:21 538

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除