自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(108)
  • 收藏
  • 关注

转载 【c++中的细节问题】关于typedef的详细用法

请见C/C++ typedef用法详解(真的很详细)_superhoy的专栏-CSDN博客_c++ typedef

2021-09-15 13:44:01 190

转载 【c++学习笔记】c++实现类的注册机制

请见c++ 实现类注册机制的方法_think_think_think的博客-CSDN博客_c++ 注册类

2021-09-15 13:42:54 996

转载 【c++中的细节问题】C++何时需要自定义析构函数呢?

请见:https://blog.csdn.net/love9099/article/details/43086945/

2021-03-02 16:51:16 310

原创 [c++中的细节问题] C++ new动态数组初始化

参考:https://www.cnblogs.com/guxuanqing/p/7591670.html动态数组初始化:对于内置数据类型元素的数组,必须使用()来显示指定程序执行初始化操作,否则程序不执行初始化操作:int *pia = new int[10]; // 每个元素都没有初始化int *pia2 = new int[10] (); // 每个元素初始化为0类类型元素的数组,则无论是否使用(),都会自动调用其默认构造函数来初始化:string *psa = new string.

2021-03-02 16:50:03 360

转载 HRNet论文与代码理解

(1)论文和网络结构部分代码理解:https://segmentfault.com/a/1190000019167646https://www.cnblogs.com/daremosiranaihana/p/13198239.html(3)前向过程代码理解:https://zhuanlan.zhihu.com/p/141716039?from_voters_page=true

2020-07-28 16:58:19 746

转载 pytorch关于多块gpu使用总结,报错AssertionError: Invalid device id

转载自:https://blog.csdn.net/kongkongqixi/article/details/100521590pytorch默认使用gpu编号为device:0的设备,可以使用torch.nn.DataParallel(model, device_ids=[0, 1])对模型进行制定gpu指定编号多gpu训练,必须要有编号为device:0的gpu,不然会报AssertionError: Invalid device id错误;当gpu编号为device:0的设备被占用时,指

2020-07-27 17:15:48 1483

转载 【沙漏网络】hourglass网络结构

详见:https://blog.csdn.net/u013841196/article/details/81048237

2020-07-13 16:50:34 2406

转载 【anchor free】系列论文理解

1. 2019 centernethttps://zhuanlan.zhihu.com/p/104152762?utm_source=wechat_session2. 2019ExtremeNethttps://mp.weixin.qq.com/s/Sj0zgcFFt_W9yZy37oENUw3. 2018 CornerNethttps://mp.weixin.qq.com/s/cKOna7GfTwl1X1sgYNXcEg4. 2015DenseBoxhttps://mp.weix...

2020-07-09 10:40:51 629

转载 深度可分离卷积理解

请参考如下两篇文章:https://blog.csdn.net/makefish/article/details/88716534https://blog.csdn.net/makefish/article/details/88716534

2020-07-06 14:20:04 122

转载 关于yolov3的kmeans改进

https://blog.csdn.net/qq_42109740/article/details/105948768?utm_medium=distribute.pc_relevant.none-task-blog-BlogCommendFromMachineLearnPai2-1.nonecase&depth_1-utm_source=distribute.pc_relevant.none-task-blog-BlogCommendFromMachineLearnPai2-1.nonecase

2020-07-01 20:32:52 1126

转载 【目标检测】综述文章

https://www.bilibili.com/read/cv2582040/

2020-07-01 14:09:25 230

转载 【pytorch学习】梯度下降实现

https://blog.csdn.net/m0_37673307/article/details/82315176

2020-06-29 10:52:43 296

转载 【pytorch学习】autograd的流程机制原理

请移步:https://blog.csdn.net/wangweiwells/article/details/101174330

2020-06-29 10:36:34 329

转载 【Pytorch学习】损失函数

1.关于熵、交叉熵、softmax_cross_entroy与binary_cross_entroy的初步理解:https://www.jianshu.com/p/47172eb86b39https://blog.csdn.net/qq_22210253/article/details/85222093?utm_medium=distribute.pc_relevant_t0.none-task-blog-BlogCommendFromMachineLearnPai2-1.nonecase&

2020-06-18 15:41:54 171

转载 【Pytorch学习】torch.backends.cudnn.benchmark

请移步:https://blog.csdn.net/byron123456sfsfsfa/article/details/96003317

2020-06-05 13:48:46 338

转载 【目标检测】centernet 小结

一、论文理解:https://blog.csdn.net/c20081052/article/details/89358658二、损失函数理解:https://zhuanlan.zhihu.com/p/73516696三、训练自己的数据:https://blog.csdn.net/weixin_41765699/article/details/100118353四、代码理解https://www.jianshu.com/p/7dc88493a31f...

2020-05-29 17:21:49 421

转载 【pytorch学习】torchvision.models导入预训练模型—残差网络代码讲解

请移步:https://blog.csdn.net/wsp_1138886114/article/details/83787181

2020-05-26 16:19:55 1402

转载 【python中的函数学习】三、关于下划线

请移步:https://blog.csdn.net/tcx1992/article/details/80105645

2020-05-22 17:28:52 128

转载 【python 中的函数】二、Python常见的_init_()、_call_()和_new_()方法

参考:https://blog.csdn.net/qq_36931982/article/details/90339288

2020-05-21 17:07:52 166

转载 【pytorch学习】一、利用随机数种子来使pytorch中的结果可以复现

主要参考:https://cloud.tencent.com/developer/article/1149041

2020-05-21 16:29:58 288

转载 【python中的函数学习】一、argparse基本用法

参考https://blog.csdn.net/yy_diego/article/details/82851661

2020-05-21 15:21:51 270 1

转载 【神经网络设计系列】二、深度学习高效网络结构设计

本文转自:https://zhuanlan.zhihu.com/p/53175018这一年来一直在做高效网络设计的工作,2018年即将结束,是时候写一篇关于高效网络设计的总结。首先看看当前业界几个最负盛名的高效网络简介:以上网络的目标主要有三个:权重少、计算少、速度快。这三者之间不存在着严格的相关关系,它们是三个独立的目标。即权重少不代表计算量少;计算量少不代表速度快。高效网络...

2020-04-06 17:56:55 461

转载 【神经网络设计系列】一、高效卷积神经网络一览

本文转载自:https://zhuanlan.zhihu.com/p/54082978这里梳理了一下当前几个高效卷积神经网络,包括mobilenet[1]、mobilenetv2[2]、shufflenet[3]、shufflenetv2[4]、xception[5]、light xception[6]。梳理的目的有二:1、神经网络结构的细节在文章中一般会散落在各处,通过梳理,我们将网...

2020-04-06 17:54:55 278

转载 【目标检测重思考系列】五、anchor与anchor free

本文主要转载自:https://zhuanlan.zhihu.com/p/730244081、为什么需要anchor机制anchor机制由Faster-RCNN提出,而后成为主流目标检测器的标配,例如SSD、Yolov2、RetinaNet等等。Faster-RCNN中使用anchor机制的motivation如下:In contrast to prevalent methods ...

2020-04-06 17:32:38 1119

转载 【目标检测重思考系列】四、深度卷积神经网络中的升采样

本文主要转自:https://zhuanlan.zhihu.com/p/41427866语义分割中的FCN、U-Net,目标检测中的FPN、DSSD、YOLOV3等模型为了增强模型效果,都会通过hour glass结构来融合低层和高层的信息,这样融合后的特征既具有高层特征的抽象语意信息,又具有低层特征的细节信息。而低层特征feature map比高层特征feature map大,为了融合,需要...

2020-04-06 17:22:25 294

转载 【目标检测重思考系列】三、深度卷积神经网络中的降采样

本文转载自:https://zhuanlan.zhihu.com/p/46633171降采样指的是成比例缩小特征图宽和高的过程,比如从(W,H)变为(W/2,H/2)。深度卷积神经网络中降采样的方法主要有三种:1、stride大于1的pooling2、stride大于1的conv3、stride大于1的reorg(在YOLOv2的论文里叫passthrough layer)其中...

2020-04-06 16:58:57 979

转载 【目标检测重思考系列】二、关于神经网络的理论感受野和有效感受野

本文转载自:https://zhuanlan.zhihu.com/p/40267131感受野是卷积神经网络里面最重要的概念之一,为了更好地理解卷积神经网络结构,甚至自己设计卷积神经网络,对于感受野的理解必不可少。一、定义感受野被定义为卷积神经网络特征所能看到输入图像的区域,换句话说特征输出受感受野区域内的像素点的影响。比如下图(该图为了方便,将二维简化为一维),这个三层的神经卷积神...

2020-04-06 11:46:14 686

转载 【目标检测重思考系列】一、目标检测的网络分解

本文转自:https://zhuanlan.zhihu.com/p/49605144本文主要将目标检测网络分为了若干个模块,并对每一块进行了概述,这样方便将各种不同网络的相同模块部分做比较,以获得对于不同部分更深刻的理解。本文可以看做一篇提纲,后续将不断丰满每一模块的内容。目标检测分为两个阶段:训练 测试训练阶段重要的部分是:data 对于神经网络而言,所需要的不变性一...

2020-04-06 10:59:06 418

转载 【c++内存系列】内存管理面试版

本文转自:https://blog.csdn.net/qq_34796146/article/details/104139121?depth_1-utm_source=distribute.pc_feed.150836&utm_source=distribute.pc_feed.150836刚好是对前四篇内存教程的总结一、C++内存管理详解1、内存的分配方式(a) 栈:编译器...

2020-04-06 10:37:06 248

转载 【c++内存系列】四、sizeof()函数的用法

转载自:https://www.cnblogs.com/huolong-blog/p/7587711.html1.定义sizeof是一个操作符(operator)。其作用是返回一个对象或类型所占的内存字节数。2.语法sizeof有三种语法形式:1)sizeof (object);//sizeof (对象)2)sizeof obj...

2020-04-05 21:28:20 333

原创 【c++内存系列】三、c中的malloc,calloc,realloc,_alloca及c++中的new,new[]用法

一、c++中的new/delete, new []/delete []1. 基本格式:new/delete动态管理对象,new[]/delete[]动态管理对象数组。因此new的作用就是:调用operator new分配空间。调用构造函数初始化对象。delete作用调用析构函数清理对象;调用operator delete释放空间。new[ ]的作用调用operator...

2020-04-05 18:35:52 354

转载 【c++内存系列】二、c++动态内存分配和静态内存分配

一、内存的静态分配与动态分配方式先简单理解静态分配与动态分配:静态内存分配和动态内存分配比较典型的例子就是数组和链表,数组的长度是预先定义好的,在整个程序中是固定不变的,所以他在内存分配时是以静态内存分配的方式进行的。而链表,它的信息有可能会随时更改,内存的分配取决于我们实际输入的数据,这样就用到了动态内存分配的方式。静态内存分配是在程序编译或者运行过程中,按事先规定的大小分配内存空间的...

2020-04-05 17:48:52 2494

转载 【c++内存系列】一、c++的内存划分(堆内存与栈内存的区别)

本文主要参考:https://blog.csdn.net/chenjie863/article/details/12957599?depth_1-utm_source=distribute.pc_relevant.none-task-blog-BlogCommendFromBaidu-4&utm_source=distribute.pc_relevant.none-task-blog-...

2020-04-05 16:56:49 335

转载 pytorch与caffe中上采样upsample与反卷积的总结

1.关于pytorch中的upsample、反卷积的解释:https://blog.csdn.net/g11d111/article/details/828559462.关于反卷积与上采样的区别https://www.zhihu.com/question/638901953.关于双线性差值的实现https://www.cnblogs.com/yssongest/p/530315...

2020-03-12 14:31:03 2079 2

转载 Pytorch maxpool的ceil_mode及与caffe中maxpool的比较

pytorch里面的maxpool,有一个属性叫ceil_mode,这个属性在api里面的解释是ceil_mode: when True, will use ceil instead of floor to compute the output shape也就是说,在计算输出的shape的时候,如果ceil_mode的值为True,那么则用天花板模式,否则用地板模式。???举两...

2020-03-12 09:19:21 2024 2

转载 【目标检测论文阅读】CenterNet :Objects as Points

重点参考博客:https://blog.csdn.net/c20081052/article/details/89358658https://blog.csdn.net/baobei0112/article/details/94392343可变卷积:https://www.jianshu.com/p/940d21c79aa3

2019-10-31 16:19:35 243

转载 【计数算法归纳】一、论文学习笔记-LCFCN

本文主要参考:https://blog.csdn.net/sinat_37532065/article/details/97910470https://blog.csdn.net/qq_14845119/article/details/99883316论文标题:《Where are the Blobs: Counting by Localization with Point Super...

2019-10-28 23:01:39 1056 1

原创 【深度学习环境配置踩坑记】三. ubuntu16.04+anaconda3安装tensorflow和keras

需要的前期准备包括anaconda3+显卡驱动+cuda+cudnn请参见这两篇博客:https://blog.csdn.net/zl3090/article/details/89297031https://blog.csdn.net/zl3090/article/details/89304484这里安装tensorflow采用了conda子环境的方式:由于楼主踩了tf与cud...

2019-04-21 15:15:03 729

原创 【深度学习环境配置踩坑记】二. ubuntu16.04+anaconda3安装caffe

caffe需要的前期准备包括anaconda3+显卡驱动+cuda+cudnn请参见这两篇博客:https://blog.csdn.net/zl3090/article/details/89297031https://blog.csdn.net/zl3090/article/details/89304484接下来进入正题,本博文主要参考:https://blog.csdn.n...

2019-04-21 15:00:03 716

原创 【深度学习环境配置踩坑记】一. ubuntu16.04安装nvidia显卡驱动 + cuda8.0 + cudnn + opencv3.1

楼主接触深度学习有快两年的时间了,期间由于急于求成的心态以及技术水平的限制,各种各样的框架环境配置均由身边的大神协助解决,至此已经不同程度的接触过tensorflow/caffe/keras/pytorch四种框架,感恩各路大神出现的同时,辣鸡楼主也决定洗心革面,重新把上述框架配置问题自己动手进行一遍,安稳自己底需内心的同时,也分享给和楼主一样提到配置就头大的朋友们一些抢救的可能~...

2019-04-21 13:04:51 675

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除