自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(14)
  • 收藏
  • 关注

原创 感受野面试+计算

1. 什么是感受野?当前网络输出的feature maps的每个像素值的生成受输入图像中多大范围像素值的影响。(网络输出的feature maps的每个像素点在输入图像上的映射区域的大小)2. 感受野的意义生成特征能够利用的全局信息,一般的网络都会在控制参数的前提下不断增大感受野,如利用空洞卷积。一个好的分类网络应该具有两种能力:1.能够具有学习复杂特征的表征能力。2.感受野不超过输入图像的大小,也不小于分类目标的大小。3.感受野的计算。R_n为当前感受野R_(n-1)为上一层感受野K_

2021-12-14 12:01:02 2648

原创 HIF转16位TIF或者PNG

import globimport osfrom osgeo import gdalfrom skimage import io, img_as_uint, exposure# HDF文件所在的目录dir_path = r"/home/"# 存储的目录save_path = r"/home/"# 找到后缀是.HDF的文件,并生成列表hdf_list = glob.glob(dir_path+'/*.HDF')# 排序hdf_list.sort()for path in hdf_l

2021-11-21 14:48:30 2799

原创 U-Net Transformer: Self and Cross Attention for Medical Image Segmentation

论文:https://arxiv.org/abs/2103.06104主框架还是U-net,大体方向上改变了两个部分 encoder 和 skipencoder:U-net的encoder是基于CNN网络经过卷积和pooling不断去降低分辨率,扩大感受野,将信息从分辨率转换到通道上,提取更高级的encoder feature map.本文在提取encoder feature map之前,增加了self attention利用特征之间的全局作用去获得contextual information.(本质

2021-09-06 20:50:10 1346 1

原创 图片的读取(PIL和CV2)

图片读取有一般两种方式:1.利用PIL的Imagefrom PIL import Imageimport numpy as npimport torchimage = Image.open(img_path) print(image.size) # W * Himage = np.array(image) print(image.shape) #H*W*Cimage = torch.Tensor(image)print(image.shape)Image.open 读取

2021-08-13 10:19:31 1394

原创 python的继承

继承父类的方法:class Animal: def drink(self): print('drink water')class Dog(Animal): passdog = Dog()dog.drink()drink water改写父类的方法class Animal: def drink(self): print('drink water')class Dog(Animal): def drink(self):

2021-08-12 08:50:11 72

原创 SETR:Rethinking Semantic Segmentation from a Sequence-to-Sequence Perspective with Transformers

GitHub:https://fudan-zvg.github.io/SETR最近的语义分割大多还是基于FCN的encoder和decoder结构。encoder负责不断压缩分辨率,不断提高channel 最后生成hot-map一是把图像信息转移到通道信息上去二逐渐降低分辨率才能获取抽象的全局信息decoder负责不断恢复分辨率,不断结合之前的encoder的信息形成像素点级别的预测对于encoder和decoder经典结构本文提出了一个可替代的方法,纯粹的只有transformer作为enco

2021-07-24 20:31:16 314 2

原创 TransUNet

github:https://github.com/Beckschen/TransUNetTransU-net就是transformer+U-net且整体的网络架构还是U-net,只有在encoder结构上运用 了transformer的encoder结构,这样可以提取更好的特征。因为CNN受感受野的缘故,始终不能很好地利用全局信息,或者说需要很多层后才能得到抽象的全局信息,但CNN对局部细节信息可以很好地提取。transformer网络由于具有self-attention结构,所以对于全局信息的提

2021-07-24 20:03:36 26614 74

原创 在Linux下安装anaconda、pytorch、pycharm最全攻略(把pycharm移动到桌面)

安装anaconda官网找下载的版本https://www.anaconda.com/products/individual(因为anaconda的服务器在国外,下载可能比较慢还有清华源的anaconda(https://mirrors.tuna.tsinghua.edu.cn/help/anaconda/))传到Linux里打开下载的位置 打开终端Ls查看一下开始安装bash Anaconda****(CTRL+i自动补充)按enter进入注册信息页面 按q

2020-12-28 11:40:13 1267

原创 残差网络ResNet最全分析

本篇你将学到对Deep Residual Learning for Image Recognition论文的个人的翻译和个人对这篇文章的理解。ResNet网络论文的翻译个人的理解论文的翻译一从理论上分析,越深的网络就会有越好的学习能力可以整合图像的低维、中维、高维的信息。1.越深的网络是不是就只是叠加层数这么简单呢?会产生梯度的爆炸或者消失,严重影响学习速率。针对这个问题,我们可以通过归一的初始化和中间的归一化层得到缓和(增加BN)随着网络结构的深度加深又会出现另一个问题:退化退化:随着网

2020-12-19 14:32:46 8119 2

原创 深度学习中损失函数、目标函数、决策函数、代价函数的含义

代价函数就是损失函数(由于翻译和个人理解的不同才有了不同的名称)目标函数是具有约束条件的损失函数(如带有正则化项)obj=loss+Ωloss就是损失函数 控制原有数据的拟合程度Ω就是结构损失 控制拟合模型的复杂程度决策函数就是确定决策边界的那个函数...

2020-12-15 21:12:51 1751

原创 神经元为什么需要激活函数???

激活函数输入:权重和加偏置输出:神经元的激活值为什么激活函数都是非线性的呢?如果激活函数是线性的,输入输出如下图所示。激活函数的输出值我们可以通过再次训练权重w和偏置b来获得,这样我们通过激活函数的意义就没了。带权输入 相当于线性映射经过激活函数(sigmoid,ReIU等非线性的激活函数)相当于进行非线性映射个人的理解:有些分类是线性函数无法解决的 各种线性函数的部分区域经过不同的激活函数进行扭曲 不同激活函的扭曲的方法不同 网络层次越深 扭曲的次数越多 对数据的拟合越好

2020-12-15 21:06:01 349

原创 Google浏览器打开新页面会覆盖当前页面的问题(打开新页面)

自动挡:1.在Google浏览器搜索(最原始页面搜索)设置设置—>搜索设置—>结果打开方式—>勾选:在新的浏览器窗口中打开所选的每条搜索结果—>网页下拉,保存,确定。(解决不了的话,只能手动了,进行操作2)手动挡:2.点击链接时使用Ctrl+鼠标左击,在后台打开新网页...

2020-10-12 21:05:47 49280

原创 计算机视觉的特定词翻译(持续更新)

feature descriptors 特征描述符(特征点)pipeline 流程

2020-10-01 20:29:55 399 1

原创 liblinear下载以及安装

一、先说明下liblinear和libsvm的区别LIBLINEAR 是线性核,LIBSVM可以扩展到非线性核(当也能用线性核,但同样在线性核条件下会比LibLinear慢很多)。多分类:LIBLINEAR 是one vs all策略,LIBSVM是one vs one策略,后者的模型会大很多(特征数和样本数都很大,例如文档分类,一般使用线性核, LIBLINEAR比LIBSVM速度要快很多)。模型的文件格式不兼容。具体的可以参考下面这个博文写的很好:https://www.cnblogs.c

2020-09-18 23:10:28 991

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除