4 默语之声

尚未进行身份认证

我要认证

暂无相关简介

等级
TA的排名 9w+

XSepConv: Extremely Separated Convolution

Chen J, Lu Z, Xue J H, et al. XSepConv: Extremely Separated Convolution[J]. arXiv preprint arXiv:2002.12046, 2020.深度卷积已逐渐成为现代高效神经网络必不可少的操作,并且最近对其应用了更大的核尺寸(≥ 5)。在本文中,提出了一种新型的极度分离卷积块(XSepConv),它将空间可分离卷...

2020-03-11 15:34:36

Filter Grafting for Deep Neural Networks

Meng F, Cheng H, Li K, et al. Filter Grafting for Deep Neural Networks[J]. arXiv preprint arXiv:2001.05868, 2020.收录于 CVPR2020神经网络存在天然的无效滤波器,滤波器剪枝(filter pruning)技术主要对无效的滤波器进行移除使网络的推理速度增加。然而在这篇文章中,...

2020-03-06 15:41:51

mmcv安装错误记录

mmcv在pip安装是出现cl.exe的错误;解决:重新安装vs2017 专业版后 使用vs x64和x86交叉编译环境安装

2020-02-19 13:42:13

ThunderNet环境配置Win10

Thundernet_PytorchGITHUBWin10环境配置注意问题:lib 编译问题lib编译中出现no instance of function template “THCCeilDiv” matches…e:/AMaskRCNN/maskrcnn-benchmark/maskrcnn_benchmark/csrc/cuda/SigmoidFocalLoss_cuda.c...

2020-01-10 17:58:44

CenterNet环境配置No module named '_ext'问题

https://blog.csdn.net/sinat_29634715/article/details/102609876部署方法按照以上链接。Traceback (most recent call last):File “main.py”, line 12, in from models.model import create_model, load_model, save_model...

2019-12-09 19:01:24

Win10+VS2017+PyTorch(libtorch) C++中的OpenCV_FOUND to FALSE

https://blog.csdn.net/gulingfengze/article/details/92013360在该步骤使用powershell会出现问题;一定要进入build中使用cmd进行操作。

2019-11-18 18:36:03

论文翻译:YOLO Nano

Object detection remains an active area of research in the field of computer vision, and considerable advances and successes has been achieved in this area through the design of deep convolutional neu...

2019-10-07 19:31:02

论文阅读计划

文档:论文阅读计划.note链接:http://note.youdao.com/noteshare?id=f3977155140563318c7d5e2b49f6f48b&sub=2A4ADFE7A7234596BFFFE8FD50EC48BE

2019-08-05 14:44:55

深度学习:随机失活dropout

原理解释:组合解释:每次dropout都相当于训练了一个子网络最后的结果都相当于很多子网络的组合动机解释:消除了神经单元之间的依赖,增强泛化能力数据解释对于dropout后的结果总能找到一个样本与其对应相当于数据增强...

2019-07-10 16:23:17

深度学习:目标函数(objective function)

深度学习:目标函数(objectivefunction)深度学习:目标函数(objectivefunction)或损失函数(lossfunction)分类任务中的目标函数深度学习:目标函数(objectivefunction)或损失函数(lossfunction)目标函数通过样本的预测结果与真实标记产生的误差反向传播指导网络参数学习和表示学习。分类任务中的目标函数交叉熵损失函数...

2019-07-08 10:44:34

深度学习:调参技巧

1. 梯度下降算法随机梯度下降随机梯度下降(SGD) 是一种简单但又非常高效的方法,主要用于凸损失函数下线性分类器的判别式学习,例如(线性) 支持向量机 和 Logistic 回归 。 尽管 SGD 在机器学习社区已经存在了很长时间, 但是最近在 large-scale learning (大规模学习)方面 SGD 获得了相当大的关注。(随机梯度下降法)的优势:高效。易于实现 (有...

2019-06-21 17:03:37

深度学习之编程笔记

torch.max(input, dim, keepdim=False, out=None) -> (Tensor, LongTensor)max函数需要注意的是,它是一个过载函数,函数参数不同函数的功能和返回值也不同。当max函数中有维数参数的时候,它的返回值为两个,一个为最大值,另一个为最大值的索引a = torch.randn(4, 4)a0.0692 0.3142 ...

2019-06-14 10:06:49

深度学习之笔记本高温预警大作战

在这炎炎的夏日,当你写好一个神经网络准备跃跃欲试时。看着一步一步的训练,心里充满了欣慰。就在这时,笔记本突然发出高温报警,风扇也在飞速的旋转似乎要起飞了一样。这时,我突然想起前两天同学的电脑因为高温把显卡烧坏了。吓得我赶紧把程序关掉,手往键盘上一摸。烫skr人,基本可以煎鸡蛋了。Try 1:由于现在还在家放假,用不了学校的公共服务器,我开始尝试使用谷歌的云计算服务器。首先把自己的数...

2019-06-11 11:09:20

深度学习:选择性搜索(Selective Search)

在目标检测时,为了定位到目标的具体位置,通常会把图像分成许多子块,然后把子块作为输入,送到目标识别的模型中。分子块的最直接方法叫滑动窗口法。滑动窗口的方法就是按照子块的大小在整幅图像上穷举所有子图像块。和滑动窗口法相对的是另外一类基于区域(region proposal)的方法。selective search就是其中之一!候选区域算法用分割不同区域的办法来识别潜在的物体。在分割的时候,我们要...

2019-05-13 13:58:32

深度学习:多目标检测之anchor box

无论是基于滑动窗口,还是基于网格YOLO的目标检测算法,都有可能存在同一个问题:有可能一个BOX中有多个目标,如下图所示:这样的图中,行人和车同时存在,并且他们的中心位置都位于同一个网格中。这种情况下,传统检测方法的输出,就无法胜任了。怎么解决这个问题呢?对于这个例子,我们引入Anchor Box,如下图所示,我们这里只用两个Anchor Box,说明同一个网格中最多可能存在两类物体。Anc...

2019-04-10 17:35:28

深度学习:卷积实现滑动窗口(Convolutional implementation of sliding windows)

一、FC网络在有全连接层的网络中,第一个FC是将上一层5516的多维数据拉成一行,转化为11400,在通过一个变换矩阵,变成第二个FC,然后经过softmax输出预测结果。二、全卷积网络在全卷积网络中,我们通过卷积替换掉全连接,具体做法是:1.在第一个FC处,使用400个5516的卷积核对上一层layer进行处理,得到的输出是11400。这样,输出中每一个值都包含了一个5516的卷积核。...

2019-04-10 10:44:34

深度学习: 数据增强(Data Augmentation)

数据扩充(data augmentation),又名 数据增强 / 数据增广。在深度学习中,当数据量不大时可能会导致过拟合,使得训练误差很小,但测试误差却特别大。怎么办呢,你又没钱买数据?显然最好的办法(之一,其他方法请参看“当数据量不够大的时候”)就是自己“造”数据——人工增加训练集的大小,也就是Data Augmentation Transformation。不同的任务背景下,通常我们可以...

2019-04-09 17:07:33

深度学习:迁移学习(Transfer learning)

深度学习中,最强大的理念之一就是迁移学习,有的时候神经网络可以从一个任务中习得知识,并将这些知识应用到另一个独立的任务中。所以例如,也许你已经训练好一个神经网络,能够识别像猫这样的对象,然后使用那些知识,或者部分习得的知识去帮助您更好地阅读x射线扫描图,这就是所谓的迁移学习。具体来说,在第一阶段训练过程中,当你进行图像识别任务训练时,你可以训练神经网络的所有常用参数,所有的权重,所有的层,然...

2019-04-09 16:25:33

深度学习:Inception网络

构建CNN时,你要决定卷积核的大小,是1x3合适,还是3x3合适,还是5x5合适?要不要添加pooling层?做这些决定(很可能是通过grid search)很麻烦,对吧?Inception网络的优点,就是能代替你做决定。Inception层的基本思想Inception层是Inception网络中的基本结构。Inception层的基本原理如下图:Inception层中,有多个卷积层结构(...

2019-04-08 15:39:29

深度学习:ResNet(残差网络)

ResNet在ILSVRC2015竞赛中惊艳亮相,一下子将网络深度提升到152层,将错误率降到了3.57,在图像识别错误率和网络深度方面,比往届比赛有了非常大的提升,ResNet毫无悬念地夺得了ILSVRC2015的第一名。如下图所示:一说起“深度学习”,自然就联想到它非常显著的特点“深”,通过很深层次的网络实现准确率非常高的图像识别、语音识别等能力。因此,我们自然很容易就想到:深的网络一般会...

2019-04-08 14:39:52

查看更多

勋章 我的勋章
  • GitHub
    GitHub
    绑定GitHub第三方账户获取
  • 持之以恒
    持之以恒
    授予每个自然月内发布4篇或4篇以上原创或翻译IT博文的用户。不积跬步无以至千里,不积小流无以成江海,程序人生的精彩需要坚持不懈地积累!
  • 勤写标兵Lv1
    勤写标兵Lv1
    授予每个自然周发布1篇到3篇原创IT博文的用户。本勋章将于次周周三上午根据用户上周的博文发布情况由系统自动颁发。