自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(44)
  • 收藏
  • 关注

原创 latex实用指南

6、加hat: \hat{\alpha}1、花括号{}:均用###表示内容。5、公式且标号: ### (1)3、百分号%:$\%$4、属于号∈:\in。

2023-04-14 20:34:42 3129

原创 pytorch对数值排序问题

pytorch的数值排序

2022-08-30 17:20:26 3813

原创 python的bug集合记录

1、读取txt文件时(refnms代码里面的voc单词txt),是一行一个单词,所以用以下方法读取的时候,读到的单词中会包含"\n"即换行符:token_path = '/home/wj/code/ref_nms/cache/std_vocab_{}.txt'.format(dataset_splitby)noun_tokens = open(token_path)# 用下面两种方式逐行读取tokenfor token in noun_tokens:# 或者:for token in nou

2021-11-21 16:48:57 565

原创 pytorch深度学习bug集合

1、出现下面错误说明网络中有多个线程,线程间出现问题解决办法,在main入口处代码第一行 加入以下代码:if __name__=='__main__': torch.multiprocessing.set_start_method('spawn') # 在main第一行加入这行代码即可 ....................

2021-11-07 16:08:48 1222

原创 python基础整合

1、print时候需要按照指定格式输出:print('ref_id%s: [pred]%s, [gd]%s' % \ (ref_id, ' '.join(entry['pred_att_wds']), ' '.join(entry['gd_att_wds'])))这段为复现代码Mattnet时候的打印输出,第一行为想要输出的格式,第二行是输出的具体变量内容。第一行后面的 % 是指后面内容按照前面指定格式输出,\ 是换行符号,因为第二行输出不只一个变量,要用()将第二行.

2021-07-14 17:39:13 157

原创 linux session管理-tmux

1、先再linux终端执行安装命令sudo apt-get install tmux2、提示出错啥的,什么sudoer资源有问题3、以root登陆:su提示输入密码,则输入root密码4、再执行安装命令15、exit 退出root,进入到自己的环境中6、执行tmux,可以操作啦Tmux 使用教程 - 阮一峰的网络日志 (ruanyifeng.com)...

2021-07-12 11:35:14 218

原创 pytorch对maskrcnn进行编译时遇到 fatal error: cuda.h: 没有那个文件或目录 #include “cuda.h“

1、按照mattnet上的步骤的第二步运行mattnet:CUDA_VISIBLE_DEVICES=gpu_id python tools/extract_mrcn_head_feats.py --dataset refcoco --splitBy uncCUDA_VISIBLE_DEVICES=gpu_id python tools/extract_mrcn_ann_feats.py --dataset refcoco --splitBy unc2、提示no module named _ext,

2021-07-01 14:39:33 1059

原创 python文件中import pyx文件问题

1、首先,pyx文件需要安装Cython,这里先进入自己的虚拟环境,用conda安装Cythonconda install Cython2、需要用到pyx的地方是mattnet中的mask.py 文件,里面 import _mask.pyx 文件,需要先在mask的目录下建立setup文件,按照这里面setup建立方式:(参考setup文件 ,)from distutils.core import setupfrom Cython.Build import cythonize s...

2021-06-21 23:24:45 6724 1

原创 conda 环境中 一些包安装问题总结

1、问题:No module named 'pycocotools',且用conda install pycocotools安装,显示anaconda中没有这个模块解决:pipinstall pycocotools2、No module named 'cv2' ,cv2其实是opencv ,不能直接conda install cv2,可以用下面之一。3、condainstall opencvpip install opencv-python...

2021-05-27 23:05:09 5061 1

原创 conda创建虚拟python环境和pytorch

A、安装python虚拟环境1、安装anaconda2、查看conda版本 :conda -V3、创建特定版本python虚拟环境: conda create -n yourenvname python=3.74、激活环境:conda activate yourenvnameB、安装pytorch1、去pytorch官网用命令行安装对应版本pytorch...

2020-03-15 17:59:27 1186

原创 找规律题(面试+练脑子)

图形为主--图像相似(都含有方框、圆形一类的)--找相同部分之间联系(前一个图形中含有后一个图形的什么东西之类的)---找转弯关系eg、1从所给四个选项中,选择最合适的一个填入问号处,使之呈现一定的规律性( )先观察题干图形,以图形为主→图形之间明显相似→观察相同部分,到这一步可以明显看出,后一幅图的外部图形与前一幅图的内部图形一致,由此规律可得,“?”处外部图形应该是正方形,...

2019-12-03 16:12:22 10129 2

转载 从FCN到Unet到Unet++

U-Net和FCN非常的相似,U-Net比FCN稍晚提出来,但都发表在2015年,和FCN相比,U-Net的第一个特点是完全对称,也就是左边和右边是很类似的,而FCN的decoder相对简单,只用了一个deconvolution的操作,之后并没有跟上卷积结构。第二个区别就是skip connection,FCN用的是加操作(summation),U-Net用的是叠操作(concatenation)...

2019-09-13 22:03:10 3295 1

转载 pytorch之 nn.Modlue及nn.Linear 源码理解

本文转自:https://blog.csdn.net/dss_dssssd/article/details/82977170先看一个列子:import torchfrom torch import nnm = nn.Linear(20, 30)input = torch.randn(128, 20)output = m(input)output.size()ou...

2019-06-21 16:09:18 1356

转载 小波变换2

本文转自:https://blog.csdn.net/yq_forever/article/details/55253004上篇文章已经说得很详细了,这边文章作为补充。首先是一个宏观的例子:相信大家都看过油画。 对于特别巨幅的油画, 不知道有没有过体会, 油画是只可远观而不可亵玩? 当你在足够远的距离观察油画时, 油画所表达的内容是有层次且内容丰富的, 但是当你靠近油画甚至贴在...

2019-06-17 20:47:30 186

转载 小波变换详解

本文转自:https://blog.csdn.net/neufeifatonju/article/details/80483282要讲小波变换,我们必须了解傅立叶变换。要了解傅立叶变换,我们先要弄清楚什么是”变换“。很多处理,不管是压缩也好,滤波也好,图形处理也好,本质都是变换。变换的是什么东西呢?是基,也就是basis。如果你暂时有些遗忘了basis的定义,那么简单说,在线性代数...

2019-06-17 20:04:51 5610 1

转载 拉普拉斯算子原理 图像增强

本文转自:https://blog.csdn.net/huang1024rui/article/details/46537205 数学基础 拉普拉斯算子,二阶微分线性算子,为什么上来就学二阶微分算子,前文说过,与一阶微分相比,二阶微分的边缘定位能力更强,锐化效果更好,所以我们来先学习二阶微分算子,使用二阶微分算子的基本方法是定义一种二阶微分的离散形式,然后根据这个形式生成一个滤...

2019-06-02 22:49:54 5068 2

转载 SEnet论文笔记

本文来源于:https://blog.csdn.net/wangkun1340378/article/details/79092001先用一句话总结:SEnet是CVPR 2018年提出的通过建模输入特征的通道间关系,从而得到不同通道c的权重(对于C*H*W的特征,第Ci个维度的H*W空间维度都获得了相同的权重),乘到输入特征上,以获得特征重标定(更好的通道特征注意力的方法)。已经有很多工...

2019-05-22 16:32:52 856

转载 NL-Means  去噪算法

转载NL-Means 去噪算法:https://blog.csdn.net/Murray_/article/details/80347854 https://blog.csdn.net/u010839382/article/details/48229579两篇很好的NL-Mea...

2019-03-20 17:04:52 2132

原创 深度学习之图像处理方向与pytorch的基础知识汇总

点开链接以后别忘了回来点个赞 o -_-!1、GAN中用到的损失函数BCELoss 这篇文章讲的特清楚: Pytorch详解BCELoss和BCEWithLogitsLoss2、图像质量评价指标PSNR,MSE,SSIM:先讲PSNR和MSE: PSNR 与MSE (由于基于差剖面的简单计算不符合人类视觉系统(Human Vis...

2019-03-11 11:09:36 1243

转载 深度学习图片的预处理为什么要减去图片的平均值

本文结合:深度学习历程之图片的预处理为什么要减去图片的平均值【数据预处理】:图像去均值:image mean 和 pixel mean 1.什么是均值?对于每帧图像来说,均值分为两种:image mean 和 pixel mean。image mean: 简单的说,读入一张彩色图像,假设是(N*N*3),这时候,求出image mean的话,就也是N*N*3,相当于把所有训练...

2019-02-27 10:26:13 2165

转载 权重衰减weight decay和学习率衰减

1、权重衰减和学习率衰减的理解 2、学习率衰减的不同形式     

2019-02-22 12:39:58 521

原创 秋叶PPT高效训练营笔记 —— Day 1素材

注:本文章所有图片都来自网易云课堂的秋叶ppt高效训练营课程!!!!!!心塞.....辛辛苦苦记笔记,发现课程最后有这些网站的整理!!!:一.eg  ppt小技巧:二.ppt精品模板资源1.免费资源:2.付费资源:三.模板整理1.类型分类:使用场景、行业分类、主题颜色、风格:小清新、学术风等2.页面分类ppt页面结构:分类:可以参照文字排版版式:四 .图片素材1.高清、和文字搭配合适:2.搜完好的...

2018-04-17 13:49:24 2462

转载 CS231n课程笔记翻译:卷积神经网络笔记

本文转自:点击打开链接译者注:本文翻译自斯坦福CS231n课程笔记ConvNet notes,由课程教师Andrej Karpathy授权进行翻译。本篇教程由杜客和猴子翻译完成,堃堃和李艺颖进行校对修改。原文如下内容列表:结构概述用来构建卷积神经网络的各种层 卷积层汇聚层归一化层全连接层将全连接层转化成卷积层卷积神经网络的结构层的排列规律层的尺寸设置规律案例学习(LeNet / AlexNet /...

2018-03-17 11:38:16 942

转载 CS231n课程笔记翻译:最优化笔记(下)

本文转自:点击打开链接译者注:本文智能单元首发,译自斯坦福CS231n课程笔记Optimization Note,课程教师Andrej Karpathy授权翻译。本篇教程由杜客翻译完成,李艺颖和堃堃进行校对修改。译文含公式和代码,建议PC端阅读。原文如下内容列表:简介损失函数可视化最优化策略#1:随机搜索策略#2:随机局部搜索策略#3:跟随梯度 梯度计算 译者注:下篇起始处使用有限差值进行数值计算...

2018-03-16 16:24:44 305

转载 CS231n课程笔记翻译:最优化笔记(上)

本文转自:点击打开链接CS231n课程笔记翻译:最优化笔记(上)译者注:本文智能单元首发,译自斯坦福CS231n课程笔记Optimization Note,课程教师Andrej Karpathy授权翻译。本篇教程由杜客翻译完成,堃堃和李艺颖进行校对修改。译文含公式和代码,建议PC端阅读。原文如下内容列表:简介损失函数可视化最优化策略#1:随机搜索策略#2:随机局部搜索策略#3:跟随梯度 译者注:上...

2018-03-16 15:55:54 300

转载 斯坦福CS231n课程笔记:线性分类器(中)

本文转自:点击打开链接译者注:本文智能单元首发,译自斯坦福CS231n课程笔记Linear Classification Note,课程教师Andrej Karpathy授权翻译。本篇教程由杜客翻译完成,ShiqingFan和堃堃进行校对修改。译文含公式和代码,建议PC端阅读。原文如下内容列表:线性分类器简介线性评分函数阐明线性分类器 损失函数 多类SVM 译者注:中篇翻译截止处Softmax分类...

2018-03-16 11:56:13 207

转载 斯坦福CS231n课程笔记: 线性分类笔记(上)

原文链接:点击打开链接译者注:本文智能单元首发,译自斯坦福CS231n课程笔记Linear Classification Note,课程教师Andrej Karpathy授权翻译。本篇教程由杜客翻译完成,巩子嘉和堃堃进行校对修改。译文含公式和代码,建议PC端阅读。原文如下内容列表:线性分类器简介线性评分函数阐明线性分类器 译者注:上篇翻译截止处损失函数多类SVMSoftmax分类器SVM和Soft...

2018-03-16 10:35:39 371

转载 斯坦福CS231n课程 第二章 图像分类笔记下

本文转载  点击打开链接译者注:本文智能单元首发,翻译自斯坦福CS231n课程笔记image classification notes,课程教师Andrej Karpathy授权翻译。本篇教程由杜客进行翻译,ShiqingFan和巩子嘉进行校对修改。译文含公式和代码,建议PC端阅读。点击查看图像分类笔记(上)。  内容列表图像分类、数据驱动方法和流程Nearest Neighbor分类器k-Nea...

2018-03-15 17:26:01 260

转载 let there be color 论文大意

 本文来自:点击打开链接1.论文相关        论文题目:Let there be Color!: Joint End-to-end Learning of Global and Local Image Priors for Automatic Image Colorization with Simultaneous Classification论文作者:Satoshi Iizuka, Edg...

2018-03-12 18:02:03 603

原创 卷积神经网络笔记——2.5 1*1卷积

1.1*1卷积运算过程对于6*6*1维度图片来说,进行1*1卷积效果不大,仅相当于图像矩阵的每个值乘了特定数值。但是如果对6*6*62图像矩阵进行1*1卷积,就会起到很大作用 。相当于对输入图像矩阵的每个通道(一共32个通道)进行了卷积操作,输出结果是n*n*过滤器数量,其中n是输入图像H、W维度数值。1*1卷积网络相当于32个通道单元都应用了全连接网络,这个全连接层的作用是:输入32个数字,输出...

2018-03-10 19:52:19 320

原创 卷积神经网络笔记——1.11为什么使用卷积

1.为什么使用卷积层(卷积层参数少的原因)我们构建一个神经网络,第一层含有3072个单元,第二层含有4074个单元,如果采用全连接层,两层每个神经元彼此相连,需要计算3072*4704=14M权重参数;如果是卷积层,要计算5*5+1=26,26*6=156个参数。卷积层参数少的原因(如上图):1.权重共享:过滤器的特定特征检测功能适合于输入图像的全部区域,所以一个f*f过滤器和图像进行卷积计算时,...

2018-03-10 18:52:48 481

转载 卷积神经网络——卷积层、池化层意义

本文来自:点击打开链接卷积神经网络(CNN)由输入层、卷积层、激活函数、池化层、全连接层组成,即INPUT-CONV-RELU-POOL-FC(1)卷积层:用它来进行特征提取,如下:输入图像是32*32*3,3是它的深度(即R、G、B),卷积层是一个5*5*3的filter(感受野),这里注意:感受野的深度必须和输入图像的深度相同。通过一个filter与输入图像的卷积可以得到一个28*28*1的特...

2018-03-10 12:00:05 52671 8

转载 为什么卷积层需要输入固定尺寸图像

本文内容来自:点击打开链接CNN为什么需要固定输入图像的尺寸了?CNN有两部分组成:卷积层和全链接层。卷积层对于图像是没有尺寸限制要求的,全链接层需要固定输入向量的维数,全链接层输入向量的维数对应全链接层的神经元个数,所以如果输入向量的维数不固定,那么全链接的权值参数个数也是不固定的,这样网络就是变化的。而在卷积层,我们需要学习的是11*11的kernal filter 参数个数是固定的。...

2018-03-09 23:05:49 3477

转载 卷积神经网络及图像处理中共享权重、特征映射等理解

本文转自: 点击打开链接一,前言卷积神经网络(Constitutional Neural Networks, CNN)是在多层神经网络的基础上发展起来的针对图像分类和识别而特别设计的一种深度学习方法。先回顾一下多层神经网络:多层神经网络包括一个输入层和一个输出层,中间有多个隐藏层。每一层有若干个神经元,相邻的两层之间的后一层的每一个神经元都分别与前一层的每一个神经元连接。在一般的识别问题...

2018-03-09 18:40:54 21165 4

原创 神经网络与深度学习笔记——3.2神经网络表示

1.神经网络表示符号隐藏层:训练集中可以看到输入输出值,但看不到隐藏层值。将输入输出用a表示也可以,a表示激活的意思,意味着网络不同层的值会传递给后一层。上述神经网络虽然包含输入层、隐藏层、输出层三层,但在文献中我们称之为双层神经网络,其中隐藏层是第一层,输出层是第二层。隐藏层、输出层是有参数的,隐藏层有两个参数W[1]维度是4*3,因为有4个隐藏单元,3个输入x特征,b[1]维度4*1,注意在参...

2018-03-09 11:22:34 406

原创 神经网络与深度学习笔记——3.3计算神经网络输出

1.计算单隐层网络输出logistic回归计算分两个步骤:z、a,上图右部分为计算隐层前两个节点过程,与logistic回归一样,分两步。字母上角标表示layer,下角标表示layer的第几个节点。2.计算单隐层网络输出矩阵表示将两步计算表示成矩阵计算形式,如上图所示。其中W向量是4*3矩阵,因为输入x三个特征,每个w是1*3矩阵。向量化经验法则:一层中不同节点,就纵向堆叠,如X向量,Z向量,W向...

2018-03-09 10:43:40 1071

原创 1.10卷积神经网络笔记——事例

1.卷积神经网络模型常见组成形式构建神经网络完成手写数字识别,这个网络模型受经典网络模型LeNet—5启发,许多参数选择和LeNet—5相似。卷积层输入32*32*3矩阵,过滤器参数如图,有6个过滤器,加上偏差,再应用非线性函数 ,输出Conv1 28*28*6;池化层采用maxpool ,f=2,s=2,相当于这层H、W维度减少一半 ,输出Pool1 14*14*6。conv1+pool1作为L...

2018-03-08 09:40:46 287

原创 1.9卷积神经网络笔记——池化层

1.池化层之最大池化用到池化层的原因:cnn中经常用到池化层来缩减表示大小,提高计算速度,同时提高提取特征的鲁棒性。1.最大池化方法:输入时4*4,输出是2*2;把4*4拆分成不同区域,(用不同颜色标记)每个颜色区域取最大值作为对应2*2矩阵输出值。2.相当于应用过滤器参数为:维度f=2,步长s=2。3.含义:可以把4*4输入矩阵看成某些特征集合(或许不是),即神经网络中某一层非激活值集合,数字大...

2018-03-07 17:41:02 4134

原创 1.8卷积神经网络笔记——cnn举例

1.cnn举例输入图像矩阵为第0层,通过3层过滤器,每层过滤器设置不同的参数,包括过滤器维数、个数、通道数(和上一层输出图像通道数相同)卷积步长s、卷积padding数,利用图中公式计算每层输出图像维数。最终39*39*3输入矩阵通过3卷积层得到7*7*40输出矩阵。卷积输出7*7*40=1960个特征,对该立体进行处理:平滑处理或展开成1960个单元,平滑后输出一个向量,将其喂入logistic...

2018-03-07 12:35:12 591

原创 1.7卷积神经网络笔记——如何构建一层卷积神经网络

1.一个卷积层事例对卷积得到4*4矩阵+b常数,由于python广播机制,4*4矩阵每个元素都加b,然后进行RELU函数转换,得到最终4*4矩阵。由于有两个滤波器,得到最终4*4*2矩阵。 前向传播:,其中a[0]即输入矩阵x;卷积相当于线性运算;+b后相当于z;经过RELU后相当于激活值a[1],这层完成了a[0] 6*6*3  -->a[1] 4*4*2变换。eg:参数数量(每个滤波器矩...

2018-03-07 11:30:04 594

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除