自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(185)
  • 资源 (3)
  • 收藏
  • 关注

原创 【小脚本】小脚本记录本

1、C++计算程序耗时#include <time.h> clock_t start = clock(); //计时开始位置//此处时需要执行的代码段double duration = (double)(clock() - start) / CLOCKS_PER_SEC; //计时结束位置,单位为秒std::cout << "time: " << duration << "s" << std::endl;2、C++

2020-12-30 14:30:14 151

原创 深度学习数据集整理

训练集:https://drive.google.com/file/d/13qZthSJzCVNtqlCiytvE4Y212QovId2G/view。测试集:https://drive.google.com/file/d/1BbSRHLn8yPx9vdTIVhaKXFrsQRluPGtr/view。数据集githu链接:https://github.com/Maciullo/DroneDetectionDataset。训练集:51446张 xml格式标注文件 测试集:5375张其中2625张带标签。

2023-03-17 09:52:26 282 1

原创 【人脸】人脸特征点检测

人脸特征点检测算法:PFLD。

2023-03-14 10:51:04 284

原创 【文本检测】DB:Real-time Scene Text Detection with Differentiable Binarization

DB:Real-time Scene Text Detection with Differentiable Binarization关键创新点:Differentiable Binarization(DB,可微分二值化),作者提出了一种可微分的二值化方式,相比于传统的二值化操作,DB能够在网络中进行端到端训练。一.网络整体流程网络整体流程如下图所示:backbone提特征 + FPN结构 进行多尺度图像特征融合 FPN结构融合特征后会生成两个特征图 probability map(预测

2022-04-15 17:52:14 3881

原创 【数学】初等函数求导和复合函数求导

初等函数求导和复合函数求导

2022-04-15 14:22:45 801

原创 【linux】nohup 命令和后台运行符 & 外加2>&1的使用

前言:在终端执行指令时,有时候希望指令挂起,不会因为终端关闭而导致指令中断。这时候需要使用nohup或&指令来实现。1. nohupnohup英文全称为no hang up(不挂起),用于在Linux系统不挂断地运行命令,退出终端不会影响程序的运行。nohup命令,在默认情况下(非重定向时),会输出一个名叫nohup.out的文件到当前目录下,如果当前目录的nohup.out文件不可写,输出重定向到$HOME/nohup.out文件中。nohup ./run_funnel.sh

2022-03-09 16:39:43 5394 1

原创 图像分割损失函数OhemCELoss

OhemCELoss函数简介OhemCELoss函数( Online hard example mining cross-entropy loss 的缩写)分割任务中的OhemCELoss函数:其实就是分类任务的交叉熵函数—>每个像素计算分类交叉熵---->根据loss选取难样本,一步一步扩展得到。在语义分割网络中常用的损失函数,这里大概记录几个需要留意的点:1)计算交叉熵损失时,是以一个像素点为计算单位,计算出每个像素点的交叉熵分类损失。2)ohem难样本挖掘时,根据给定的

2022-02-07 17:41:37 5951 1

原创 语义分割网络-STDC_CVPR2021

前言该网络是基于语义分割网络BiSeNetV1版本进行的改进,删掉BiSeNet网络中的双路径方式。属于实时语义分割算法,速度快。1.2STDC网络的性能STDC(Short-Term Dense Concatenate network)在Cityscapes上,在1080Ti上1)STDC1-50网络以250.4FPS的速度在测试集上实现了71.9%的mIoU。2)STDC2-75网络在97.0FPS的情况下达到76.8%的mIoU。跟其他算法的性能对比:...

2022-01-28 17:44:35 4792

原创 pytorch分布式训练(DataParallel/DistributedDataParallel)

一、模型并行与数据并行并行训练分为模型并行和数据并行:模型并行:由于网络过大,将网络拆分成几个部分分别在多个GPU上并行训练; 数据并行:将batch中的数据拆分为多份,分别在多个GPU上训练。二、数据并行nn.DataParallel(DP)和DistributedDataParallel(DDP)的区别:DDP通过多进程实现的。也就是说操作系统会为每个GPU创建一个进程,从而避免了Python解释器GIL带来的性能开销。而DataParallel()是通过单进程控制多线程来实现的

2022-01-06 10:12:05 1093

转载 PIL包中图像的mode参数

PIL包中图像的mode参数  本文为了说明PIL库中图像的mode参数不同值的区别。  我做的事情是:在本地找了jpg的图,convert为不同mode,将不同的图截取做了个脑图,有个直观的感觉。 把不同mode的图通过np.array()转化为array, 打印出array的shape, 和array[0, 0]的值, 便于理解不同mode的通道和像素值的存储。1.不同model模式的图2.打印不同模式图片的shape和[0,0]的像素值# 将不同模式的图片打印出shap.

2021-11-17 14:32:08 2099

原创 CVPR论文ORALS 、SPOTLIGHTS 、 POSTERS的区别

粗暴且狭义的论文质量对比:ORALS > SPOTLIGHTS > POSTERS- ORALS: equivalent to the traditional CVPR orals. CVPR 2016 will have a similar percentage of orals as in previous CVPRs. Each oral presentation will be 12 minutes long.- SPOTLIGHTS: these are new to CVPR

2021-11-01 17:54:15 4154 2

转载 【基础知识】彻底搞懂float16与float32的计算方式

参考链接:https://blog.csdn.net/leo0308/article/details/117398166简单介绍:深度学习中int8、float16、float32的主要却别在于能表示的数值范围、数值精度。半精度是英伟达在2002年搞出来的,双精度和单精度是为了计算,而半精度更多是为了降低数据传输和存储成本。很多场景对于精度要求也没那么高,例如分布式深度学习里面,如果用半精度的话,比起单精度来可以节省一半传输成本。考虑到深度学习的模型可能会有几亿个参数,使用半精度传输还是非常

2021-10-19 15:46:45 20897

原创 【深度学习基础知识】池化层pooling操作如何参与反向传播?

参考自:池化层pooling操作如何参与反向传播? - 知乎 详细解释直接看原文.在反向传播时,梯度是按位传播的,那么一个解决方法,就是如何构造按位的问题,但一定要遵守传播梯度总和保持不变的原则。平均池化:将梯度平均分配给每一个神经元再进行反向传播,如下图所示。最大池化:在反向传播时,框架仅需要将该区域的梯度直接分配到最大值神经元即可,其他神经元的梯度被分配为0且是被舍弃不参与反向传播的,但如何确认...

2021-09-17 11:20:41 402 1

原创 【深度学习】模型评价指标

一、分类任务分类任务一般有二分类、多分类和多标签分类。多分类: 表示分类任务中有多个类别,但是对于每个样本有且仅有一个标签,例如一张动物图片,它只可能是猫,狗,虎等中的一种标签(二分类特指分类任务中只有两个类别)多标签: 一个样本可以有多个标签。例如文本分类中,一个文本可以是宗教相关,也可以是新闻相关,所以它就可以有两个标签。常见的评价指标有:准确率(Accuracy)、精确率(Precision)、召回率(Recall)、F1 score、ROC曲线(Receiver Operating

2021-09-10 11:17:45 17844 1

转载 【深度学习】动态图 vs 静态图

215. 数组中的第K个最大元素在未排序的数组中找到第k个最大的元素。请注意,你需要找的是数组排序后的第 k 个最大的元素,而不是第 k 个不同的元素。示例 1:输入: [3,2,1,5,6,4] 和 k = 2输出: 5...

2021-09-09 15:25:10 1337

原创 【深度学习】深度学习基础-Warm_up训练策略

背景学习率是最影响性能的超参数之一,如果我们只能调整一个超参数,那么最好的选择就是它。 其实在我们的大多数情况下,遇到 loss 变成 NaN 的情况大多数是由于学习率选择不当引起的。warmup介绍warmup可以称为训练热身。由于神经网络在刚开始训练的时候是非常不稳定的,因此刚开始的学习率应当设置得很低很低,这样可以保证网络能够具有良好的收敛性。但是较低的学习率会使得训练过程变得非常缓慢,因此这里会采用以较低学习率逐渐增大至较高学习率的方式实现网络训练的“热身...

2021-09-07 14:50:04 6490 2

原创 【深度学习】Transformer相关知识学习

CNN和Transformer的区别:1)CNN卷积归纳偏置对于规模较小的数据集较为有用,但对于较大的数据集(千万级规模数据集)而言,Transformer学习相关模式就足够了,甚至更加有效;2)CNN提取局部信息,Transformer提取全局信息;以一个目标检测网络为例,介绍Transformer的结构:基于CNN的目标检测和Transformer的目标检测网络结构区别检测流程Transformer内部结构Transformer内部结构2匈牙利算法:匹配预测框...

2021-09-01 15:47:05 445

原创 【人脸检测】CenterFace:轻量级anchor_free人脸检测器

论文地址:https://arxiv.org/ftp/arxiv/papers/1911/1911.03599.pdfgithub地址:https://github.com/Star-Clouds/centerface前言:CenterFace基本结构还是基于CenterNet网络修改得来的,与CenterNet一些小的区别点是:1)主干网络改为mobilenetV2; 2)loss函数的计算方式也有些小变动,边框的宽高回归加上了log进行约束; 3)边界框中心点回归也有L1 loss改.

2021-09-01 15:08:50 458

原创 【目标检测】anchor-free框架:CenterNet :Objects as Points

论文地址:https://arxiv.org/pdf/1904.07850.pdf发布时间:2019.4.16代码:https://github.com/xingyizhou/CenterNet摘要 大多数anchor-base的目标检测器都先穷举出目标位置,然后对该位置进行分类,这种方式浪费时间,低效,还需要额外的后处理(NMS)。本文中,CenterNet构建模型时将目标作为一个点——即目标BBox的中心点。检测器采用关键点估计来找到中心点,并回归到其他目标属性,例...

2021-08-31 17:56:31 692 1

转载 【轻量级网络】ShuffleNetV1 和 ShuffleNetV2

目录一、ShuffleNet(2017年)1. ShuffleNet的亮点2 .ShuffleNet网络结构2.1 Group ResNet Block2.2 分组数g的作用​ 3. ShuffleNet网络性能1)不同参数下的精度对比2)有无channle shuffle的性能对比3) ShuffleNet与MobileNet的精度对比二、ShuffleNetv2(ECCV2018)设计理念二、ShuffleNetv2网络结构一、ShuffleNet..

2021-08-26 18:18:54 1521

转载 【深度学习】Group Convolution分组卷积、Depthwise Convolution和Global Depthwise Convolution

目录1. 分组卷积(Group Convolution)1.1 分组卷积与普通卷积的区别1.2 分组卷积的用途2. 深度分离卷积(Depthwise Convolution)原文链接:https://www.cnblogs.com/shine-lee/p/10243114.html本文主要介绍减少参数量、计算量的卷积形式:Group Convolution(分组卷积) Depthwise Convolution(深度分离卷积) Global Depthwise Convolu

2021-08-26 15:28:51 7053

原创 【深度学习】目前几种热门的数据增强方法

目录1)Mosaic增强2)Mixup增强3)Cutout增强3)CutMix增强前言传统的镜像、旋转、缩放、调整亮度、对比度、高斯噪声这里不详细讲解。主要讲一下现在几种火爆的数据增强方式。1)Mosaic增强将4张图片缩放,然后拼接到一起。Mosaic增强的主要优点:丰富数据集:随机使用4张图片,随机缩放,再随机分布进行拼接,大大丰富了检测数据集,特别是随机缩放增加了很多小目标,让网络的鲁棒性更好。 减少GPU:同时Mosaic增强训练时,可以直接...

2021-08-25 17:59:32 4576

转载 【目标检测】yolo系列-yolo_v5学习笔记

文章参考自江大白知乎文章,作为yoloV5的学习记录笔记。知乎链接:https://zhuanlan.zhihu.com/p/172121380目录1 Yolov5四种网络模型二、yolo_v5改进点详解1 输入端改进1)Mosaic数据增强2) 自适应锚框计算3)自适应图片缩放2 Backbone的改进点1)Focus结构2)CSP结构3 Neck部分的改进点1)FPN处增加PAN结构4 输出端改进点1)Bounding box损失函数:GIoU

2021-08-25 16:03:16 2420

原创 【目标检测】yolo系列—yolo_v4学习记录

目录目标检测模型调优的两种手段一、YOLO-v4的主要工作二、yolo_v4改进创新之处:2.1 输入端创新1)Mosaic数据增强2.2 BackBone创新1)CSPDarknet532)Mish激活函数3)Dropblock2.3 Neck结构中的创新1)SPP模块2)FPN + PAN2.4 Prediction部分的创新1)CIOU_loss2)DIOU_nmsYolov4 主要带来了 3 点新贡献:文章参考自知乎作者的文章,.

2021-08-24 21:56:51 1157

原创 【目标检测】anchor free:FCOS

前言FCOS: Fully Convolutional One-Stage Object Detection(2019年)FCOS(FCOS: Fully Convolutional One-Stage Object Detection),该算法是一种基于FCN的逐像素目标检测算法,实现了无锚点(anchor-free)、无提议(proposal free)的解决方案,并且提出了中心度(Center—ness)的思想,同时在召回率等方面表现接近甚至超过目前很多先进主流的基于锚框目标检测算法。FC

2021-08-24 14:17:29 492

原创 【深度学习】backbone网络结构ResNet、Inception、DenseNet简单概述

目录前言各自的亮点:一、ResNet1. Resnet要解决的是什么问题2. Residual Block的设计3. ResNet 网络结构二、Inception1. Inception系列想要解决的问题2. Inception V1-2014年3. Inception V2、Inception-V3 -2015年4. 总结三、DenseNet3.0 DenseNet优点:3.1 DenseNet与Resnet的区别:3.2 DenseNet网络结

2021-08-21 21:26:36 3407 1

转载 【语义分割】一文概览主要语义分割网络,FCN、UNet、SegNet、DeepLab

语义分割:是将输入图像中的每个像素分配一个语义类别,以得到像素化的密集分类。上图中将人和自行车从图片中分割出来了。语义分割一般网络架构一般的语义分割架构可以被认为是一个编码器-解码器网络。1)编码器:通常是一个预训练的分类网络,像 VGG、ResNet,然后是一个解码器网络。这些架构不同的地方主要在于解码器网络。 2)解码器:解码器的任务是将编码器学习到的可判别特征(较低分辨率)从语义上投影到像素空间(较高分辨率),以获得密集分类。语义分割不仅需要在像素级有判别能力,...

2021-08-20 21:05:22 11706

原创 【目标检测】yolo系列yolo x学习笔记(2021年旷视)

Decoupled Head(解耦头):1)解耦头的好处:精度带来提升; 收敛速度也明显加快;2)解耦时控制计算量: 为了权衡速度和性能,使用 1个1x1 的卷积先进行降维,并在分类和回归分支里各使用了 2个3x3 卷积,最终调整到仅仅增加一点点参数。Data Augmentation(数据增强):1)Mosaic增强:Mosaic 经过 YOLOv5 和 v4 的验证,证明其在极强的 baseline 上能带来显著涨点。2)Mosaic 配上 Copypast...

2021-08-20 09:38:30 2522

原创 【深度学习】目标检测回归损失函数合集:SmoothL1/IoU/GIoU/DIoU/CIoU Loss

目标检测回归损失函数简介:SmoothL1/IoU/GIoU/DIoU/CIoU LossCrazyVertigo欢迎加微信xiejun--,长期招聘计算机视觉开发/算法人才寒假在家,码字不易,如果觉得对你有帮助,欢迎随手点个赞哈~目标检测任务的损失函数由Classificition Loss和Bounding Box Regeression Loss两部分构成。本文介绍目标检测任务中近几年来Bounding Box Regression Loss Function的演进过程,其演进路线

2021-08-16 12:00:40 2180 2

原创 【OCR】场景文本识别(SCR)中各模块性能比较

文章:What Is Wrong With Scene Text Recognition Model Comparisons? Dataset and Model Analysis.(一篇偏综述文章,对比了主流的一些方法)0、摘要:分析了现有论文提到的各个数据集的不一致性。 针对OCR识别提出了一个统一的框架,将模型分成4个连续的部分:矫正转换(Trans),特征提取(Feat),序列模块(Seq),预测(Pred)。1、统一训练集与测试集作者提到之前的论文中使用的数据集都不一致,不好评判对

2021-08-14 20:55:59 1651

原创 【人脸】低分辨率图像识别的一些方法路线

前言低分辨率/低质量 图像信息丢失严重,基于低质量数据集训练的模型往往不能达到预期效果。此外,若模型是基于高分辨率(High Resolution, HR)图像进行训练的,而真实业务场景中的数据来源质量非常低,高分辨率与低分辨率(Low Resolution, LR)数据之间存在着domain mismatch的问题,效果也会大打折扣。下面总结了一些处理低分辨率/低质量图像识别的常见思路。方案1:限制输入图片分辨率(这还用你说- -)控制上传图像质量;若图像来源可控,即可通过某种反馈机制让用户输入较高

2021-08-12 20:44:12 2624

原创 【目标检测】yolo系列-yolo v3(2018年)

三、YOLOv31、网络结构图备注:图参考自 另一位作者文章resnetblock块(绿色):由若干个残差单元串联; res_unit残差单元(红色):由两个卷积单元和一个shortcut链接组成; DBL卷积单元(橙色):一个卷积核后面加BN和leaky-relu组成;yolo v3结构:输入尺寸:416*416*3,主干网络:使用Darknet-53,检测头:由3个检测分支的FPN结构组成,分别为原图下采样8、16、32倍。 feature map的每个单元格有3个尺度的an

2021-08-08 16:31:11 1460

原创 【目标检测】yolo系列-yolo v2(yolo9000)(2016年)

目录YOLOv2创新点☆Batch NormalizationHigh Resolution Classifier (高分辨率图像微调主干网络)☆使用 anchor box 先验框☆New Network:Darknet-19Dimension Clusters(聚类提取先验框的尺度信息)Direct location prediction(约束预测边框的位置)Fine-Grained Features(细粒度特性)Multi-Scale Training(多尺.

2021-08-08 16:30:03 575

原创 【人脸识别】人脸识别损失函数学习笔记

目录二、CosFace(CVPR2018)1 softmax loss的不同变种1.1 原始的softmax loss:1.2 归一化softmax Loss(NSL,Normalization Softmax Loss)1.3 CosFace Loss(LNCL,Large Margin Cosine Loss)2. 不同loss的分类边界分析2.1 Softmax Loss:2.2 NSL:Normalized Softmax Loss:2.3 A-Softmax(S

2021-07-24 17:48:54 1691 1

原创 千万级类别人脸识别模型并行训练

并行训练的方式:1.nn.DataParallel数据并行。将一个batchsize中的数据分给多个GPU并行训练。 2.模型并行。将FC层拆分给多个GPU进行并行训练。 3.partial_fc。(抽样fc层)一、模型并行目前处理大规模(数据多、类别大)数据集的方法:混合并行:即backbone使用数据并行,分类层使用模型并行;该方法具备两个优点:1)缓解了 W 的存储压力。将W划分为k个子矩阵w; 2)将 W 梯度的通信转换成了所有GPU的特征 X 与 softmax 局部分

2021-07-22 21:28:20 592 1

原创 【理论基础】向量的内积和范数

一、向量的数量积(内积):已知两个非零向量a、b,那么|a||b|cosθ(θ是a与b的夹角)叫做a与b的数量积或内积。记作a·b;两个向量的数量积等于它们对应坐标的乘积的和:数量积a·b等于 a的长度|a| 与 b在a的方向上的投影|b|cosθ 的乘积 向量属于n维复向量空间,每个表示向量在第i维空间中的坐标值。向量的模(即向量a的长度)为:二、向量的范数理解:向量的范数可以理解成距离。向量的1-范数:**向量的2-范数:向量2范数可以理解为点

2021-07-14 20:41:56 4325

原创 【部署加速】模型Int8量化

1、INT8量化过程一个训练好的深度学习模型,其数据包含了权重(weights)和偏移(biases)两部分,在其进行前向推理(forward)时,中间会根据权重和偏移产生激活值(activation)。INT8的量化原理简单介绍:TensorRT在进行INT8量化时:1)对权重直接使用了最大值量化);2)对偏移直接忽略;3)对前向计算中的激活值的量化是重点; 对激活值进行INT8量化采用饱和量化:因为激活值通常分布不均匀,直接使用非饱和量化会使得量化后的值都挤在一个很小的范围从而浪费了INT

2021-07-07 13:53:29 2177

原创 【目标检测】重温SSD目标检测

前言:重温SSD目标检测模型,主要讲解SSD中先验框是如何处理的,适合已经看过SSD网络基本内容的读者。网络结构图:采用特征金字塔结构预测目标,共有6个feature map会预测目标。分别为:参考链接:https://zhuanlan.zhihu.com/p/33544892...

2021-07-03 21:03:12 705

原创 【深度学习】深度学习基础知识

1、卷积核为什么是奇数的?2、卷积核的平移不变性和卷积是如何获取到绝对位置信息?3、卷积神经网络复杂度分析3.1时间复杂度(计算量)计算量只看输出特征图尺寸,因为输出特征图上每个点都是卷积核在输入特征图上一次卷积运算得到。3.2 空间复杂度(模型参数量)也就是卷积核的参数量,与特征图的尺寸无关。4、线性回归5、正则化...

2021-06-29 23:09:00 651 1

原创 【模型部署】Tensorrt学习记录

tensorrt官方文档:https://docs.nvidia.com/deeplearning/tensorrt/archives/tensorrt-723一、简介TensorRT是一种深度学习框架?是一种库?官方文档中的称呼是:TensorRT 是一个 SDK(Software Development Kit)软件开发工具,用于优化经过训练的深度学习模型以实现高性能推理。加载engine模型参数"step0.通过文件流读取engine文件"std::vector<ch

2021-06-26 21:47:30 2136 1

paddle比赛json文件

paddle比赛json文件, 用来替换比赛中使用的文件,这样才能测试正确。直接下载后替换掉原来旧的就行。

2020-09-29

caffe_Resnet-18.zip

Resnet18预训练模型,基于caffe训练。有需要的小伙伴可以下载!

2019-09-03

MobileNetV3.pdf

重磅!MobileNetV3 来了!这里提供了MobileNetV3的原文文章,供各位小伙伴学习。 并附中文解读博客地址:https://www.jiqizhixin.com/articles/2019-05-09-2

2019-05-17

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除