2 我是天才很好

尚未进行身份认证

我要认证

只要你足够地努力,所有的美好终将如期而至。

等级
TA的排名 1w+

深度卷积神经网络及各种改进

文章目录1、残差网络2、不同大小卷积核并行卷积3、利用(1,x),(x,1)卷积代替(x,x)卷积4、采用瓶颈(Bottleneck)结构5、深度可分离卷积6、改进版深度可分离卷积+残差网络7、倒转残差(Inverted residuals)结构8、并行空洞卷积1、残差网络这个网络主要源自于Resnet网络,其作用是:将靠前若干层的某一层数据输出直接跳过多层引入到后面数据层的输入部分。意味着后面的特征层的内容会有一部分由其前面的某一层线性贡献。实验表明,残差网络更容易优化,并且能够通过增加相当的深

2020-08-09 13:26:50

CV数据预处理

文章目录1. 学习前言2. 处理长宽不同的图片3. 数据增强3.1、在数据集内进行数据增强3.2、在读取图片的时候数据增强3.3、目标检测中的数据增强1. 学习前言进行训练的话,如果直接用原图进行训练,也是可以的(就如我们最喜欢Mnist手写体),但是大部分图片长和宽不一样,直接resize的话容易出问题。除去resize的问题外,有些时候数据不足该怎么办呢,当然要用到数据增强啦。2. 处理长宽不同的图片对于很多分类、目标检测算法,输入的图片长宽是一样的,如224∗224224*224224∗22

2020-08-09 12:50:20

一个 Pillow 实现的图像填充函数

Pillow,即PIL,Python Imaging Library,中文是“枕头”。Pillow是Python平台中图像处理的标准库,功能非常强大,API简单易用。本文分享一个Pillow实现的图像填充函数 pad_image ,用于预处理图像数据集。在目标检测算法中,需要把输入图像转换为模型所需尺寸的图像,同时,保持比例不变,其余部分用灰色填充。函数的具体实现,如下:计算图像缩放之后的宽高,等比例缩小或扩大;调用resize(),改变图像的尺寸;新建new()目标尺寸target_size的

2020-08-09 12:26:22

caffe 网络结构参数介绍及可视化

caffe/examples/mnist/lenet_train_test.prototxtname: "LeNet" //网络的名称layer { //定义一个层(Layer) name: "mnist" //层名称 type: "Data" //层类型:数据层 top: "data" //层输出 :data和label top: "label" include { phase: TRAIN //本层只在训练阶段有效 } transform_par

2020-08-06 19:45:34

os.walk()

for r, dirs, files in os.walk(data_path):r:表示根目录dir:是该根目录下的文件夹files:是该根目录下除文件夹下外的所有文件一般情况下,我们是以循环的方式使用os.walk()。所以第一个循环得到的r为data_path相同的路径,dir为该路径下的文件夹,files为该路径下的非文件夹;第二,三,四…个循环是对上面得到的dir文件夹进行迭代搜索,又重新生成r,dir,files。直到将data_path下的子文件夹全部迭代完。图片是以列表形

2020-07-31 13:39:32

图像语义分割中实现两幅图像的融合显示:Image.blend()、plt.imshow()、cv2.addWeighted()

文章目录1. Image.blend()2. plt.imshow()3. cv2.addWeighted()在图像语义分割中,需要将原图像与mask融合显示,此处介绍了3种方法:1. Image.blend()注意:图像的模式要求一致,即同为"jpg"、"png"。from PIL import Image Image.blend(im1, im2, alpha)from PIL import Image # 原图img = Image.open('../../DAVIS-2016

2020-07-29 22:24:51

Keras中 .fit和.fit_generator函数

在本教程中,您将了解Keras .fit和.fit_generator函数的工作原理,包括它们之间的差异。为了帮助您获得实践经验,我已经提供了一个完整的示例,向您展示如何从头开始实现Keras数据生成器。Keras深度学习库包括三个独立的函数,可用于训练您自己的模型:.fit.fit_generator.train_on_batch这三个函数基本上可以完成相同的任务,但他们如何去做这件事是非常不同的。让我们逐个探索这些函数,查看函数调用的示例,然后讨论它们彼此之间的差异。调用.fit:

2020-07-29 21:50:14

Keras_Model类模型方法compile

compile(optimizer, loss=None, metrics=None, loss_weights=None, sample_weight_mode=None, weighted_metrics=None, target_tensors=None)用于配置训练模型。optimizer: 字符串(优化器名)或者优化器实例。 详见 optimizers。loss: 字符串(目标函数名)或目标函数。 详见 losses。 如果模型具有多个输出,则可以通过传递损失函数的字典或列表,在每个输出

2020-07-29 21:33:16

keras_early stopping

目的:防止过拟合# early stopppingfrom keras.callbacks import EarlyStoppingearly_stopping = EarlyStopping(monitor='val_loss', patience=50, verbose=2)# 训练history = model.fit(train_X, train_y, epochs=300, batch_size=20, validation_data=(test_X, test_y), verbose

2020-07-29 21:24:25

keras 调整学习率ReduceLROnPlateau

from keras.callbacks import ReduceLROnPlateaureduce_lr = ReduceLROnPlateau(monitor=‘val_loss’, factor=0.5, patience=2, verbose=1)monitor:监测的值,可以是accuracy,val_loss,val_accuracyfactor:缩放学习率的值,学习率将以lr = lr*factor的形式被减少patience:当patience个epoch过去而模型性能不提升

2020-07-29 21:21:20

Keras ModelCheckpoint保存最佳模型断点续训

回调函数Callbacks 是一组在训练的特定阶段被调用的函数集,你可以使用回调函数来观察训练过程中网络内部的状态和统计信息。然后,在模型上调用fit()函数时,可以将 ModelCheckpoint传递给训练过程。训练深度学习模型时,Checkpoint是模型的权重。ModelCheckpoint回调类允许你定义检查模型权重的位置,文件应如何命名,以及在什么情况下创建模型的Checkpoint。from keras.callbacks import ModelCheckpoint model.co

2020-07-29 21:13:49

Keras自带的下载工具get_file

from keras.utils import get_filefname='ResNet-50-model.keras.h5'origin='https://github.com/fizyr/keras-models/releases/download/v0.0.1/ResNet-50-model.keras.h5'checksum=''3e9f4e4f77bbe2c9bec13b53ee1c2319'a=get_file(fname, origin,

2020-07-29 21:02:48

OpenCV和PIL.Image读取图片的区别

imshowOpencv : cv2.imshow()采用BGR模式,通过cv2.imread()读取;matplotlib.pyplot : plt.imshow() 采用RGB模式, 通过plt.imread()读取;PIL.Image : img.show() 采用RGB模式, 通过Image.open()读取;img为图片对象备注:通过cv2.VideoCapture方法来读取video的frame,得到的frame的通道顺序是BGR的!!!下面一组图依次是:img、plt.i

2020-07-29 20:00:57

语义分割3__基于Mobile网络的Unet模型详解以及训练自己的Unet模型(划分斑马线)

文章目录1. 什么是Unet模型2. Unet模型的代码实现2.1、主干模型Mobilenet2.2、Unet的Decoder解码部分3. 代码测试4. 训练文件详解5. LOSS函数的组成6. 训练代码6.1、文件存放方式6.2、训练文件6.3、预测文件7. 训练结果1. 什么是Unet模型Unet是一个语义分割模型,其主要执行过程与其它语义分割模型类似,首先利用卷积进行下采样,然后提取出一层又一层的特征,利用这一层又一层的特征,其再进行上采样,最后得出一个每个像素点对应其种类的图像。看如下这幅图我

2020-07-28 18:38:58

语义分割2__训练自己的Segnet模型(划分斑马线)

文章目录1、训练文件详解2、LOSS函数的组成3、训练代码3.1、文件存放方式3.2、训练文件3.3、预测文件4、训练结果1、训练文件详解这个要从训练文件讲起。语义分割模型训练的文件分为两部分。第一部分是原图,像这样:第二部分标签,像这样:当你们看到这个标签的时候你们会说,我靠,你给我看的什么辣鸡,全黑的算什么标签,其实并不是这样的,这个标签看起来全黑,但是实际上在斑马线的部分其RGB三个通道的值都是1。其实给你们换一个图你们就可以更明显的看到了。这是voc数据集中语义分割的训练集中的一幅

2020-07-28 16:35:47

语义分割1__基于Mobile网络的Segnet模型讲解

文章目录1. 什么是Segnet模型2. Segnet模型的代码实现2.1、主干模型Mobilenet2.2、Segnet的Decoder解码部分3. 代码测试1. 什么是Segnet模型Segnet模型是一个比较基础的语义分割模型,其结构比较简单,在说其结构之前,我们先讲一下convolutional Encoder-Decoder的结构。其主要结构与自编码(Autoencoder)类似,通过编码解码复原图片上每一个点所属的类别。下图主要是说明利用卷积层编码与解码的过程。Segnet模型与上述

2020-07-28 15:30:59

MobileNet模型的复现详解

文章目录1. 学习前言2. 什么是MobileNet模型3. MobileNet网络部分实现代码4. 图片预测1. 学习前言MobileNet是一种轻量级网络,相比于其它结构网络,它不一定是最准的,但是它真的很轻!2. 什么是MobileNet模型MobileNet模型是Google针对手机等嵌入式设备提出的一种轻量级的深层神经网络,其使用的核心思想便是深度可分离卷积depthwise separable convolution。对于一个卷积点而言:假设有一个3×3大小的卷积层,其输入通道为1

2020-07-28 15:28:10

Pytorch损失函数(nn.L1Loss、nn.SmoothL1Loss、nn.MSELoss 、nn.CrossEntropyLoss、nn.NLLLoss)

文章目录nn.L1Lossnn.SmoothL1Lossnn.MSELossnn.CrossEntropyLossnn.NLLLoss损失函数,是编译一个神经网络模型必须的两个参数之一,另一个是优化器。损失函数是指用于计算标签值和预测值之间差异的函数,常见的有多种损失函数可供选择,典型的有距离向量,绝对值向量等。nn.L1LossL1Loss 计算方法比较简单,原理就是取预测值和真实值的绝对误差的平均数。计算公式如下nn.SmoothL1Lossnn.SmoothL1Loss:计算分俩方面,当误

2020-07-27 20:56:28

Pytorch实现ResNet网络模型

文章目录0. Pytorch的nn.Conv2d()详解in_channelsout_channelskernel_sizestride = 1padding = 0dilation = 1groups = 1bias = Truepadding_mode = 'zeros'1. ResNet解决了什么问题2. ResNet原理及结构2.1 BasicBlock结构2.2 BottleNeck结构2.3 ResNet结构3. ResNet代码详解3.1 BasicBlock代码块3.2 BottleNeck

2020-07-27 20:08:38

Pytorch搭建YoloV4目标检测网络

0. 版权声明本博客参考Bubbliiiing博主博文,仅供学习交流,如有侵权,请联系删除!1. 什么是YOLOV4YOLOV4是YOLOV3的改进版,在YOLOV3的基础上结合了非常多的小Tricks。尽管没有目标检测上革命性的改变,但是YOLOV4依然很好的结合了速度与精度。根据上图也可以看出来,YOLOV4在YOLOV3的基础上,在FPS不下降的情况下,mAP达到了44,提高非常明显。YOLOV4整体上的检测思路和YOLOV3相比相差并不大,都是使用三个特征层进行分类与回归预测。强烈建

2020-07-25 21:03:18

查看更多

勋章 我的勋章
  • GitHub
    GitHub
    绑定GitHub第三方账户获取
  • 签到新秀
    签到新秀
    累计签到获取,不积跬步,无以至千里,继续坚持!
  • 技术圈认证
    技术圈认证
    用户完成年度认证,即可获得
  • 阅读者勋章Lv2
    阅读者勋章Lv2
    授予在CSDN APP累计阅读博文达到7天的你,是你的坚持与努力,使你超越了昨天的自己。
  • 持之以恒
    持之以恒
    授予每个自然月内发布4篇或4篇以上原创或翻译IT博文的用户。不积跬步无以至千里,不积小流无以成江海,程序人生的精彩需要坚持不懈地积累!
  • 勤写标兵Lv4
    勤写标兵Lv4
    授予每个自然周发布9篇以上(包括9篇)原创IT博文的用户。本勋章将于次周周三上午根据用户上周的博文发布情况由系统自动颁发。