4 DX_ByYourself

尚未进行身份认证

我要认证

致力于计算机视觉的开发。

等级
TA的排名 9k+

卷积的实现(python)

import numpy as npimport mathclass Conv2D(object): def __init__(self, shape, output_channels, ksize=3, stride=1, method='VALID'): self.input_shape = shape self.output_channels = output_channels...

2019-08-18 21:36:06

库函数tf.conv2d()卷积的python实现

话不多说,代码说话:import numpy as npimport mathclass Conv2D(object): def __init__(self, shape, output_channels, ksize=3, stride=1, method='VALID'): self.input_shape = shape self.output_channels = outp...

2019-08-17 23:12:20

linux下合并多个文件夹内容成为一个文件夹

一个数据集下载下来有多个部分,part1,part2,part3…需要将这多个部分合成一个部分。查了下,没找到直接可以达到效果的命令行(试过cat,rsync等)解决方案:写一段python脚本:merge_folder.py#!/usr/bin/env python3import argparseimport osdef move_merge_dirs(source_root, ...

2019-05-24 10:03:33

github的使用记录

第一步:登录github官网,注册账号,然后本地生成秘钥填入Github网页:细节参考博客:https://blog.csdn.net/u010417185/article/details/82857856第二步:github上建立自己的新仓库:参考:https://blog.csdn.net/qq_37962402/article/details/80666471第三步:开始使用gith...

2019-04-20 17:37:17

L1正则、L2正则、Batch Normalization、Dropout为什么能够防止过拟合呢?

最近面试,被问到Batch Normalization为什么能够防止过拟合,为什么能够加快收敛速度,一时间没有答上来(失败啊…).现在简单记录下几种深度学习中常用的防止过拟合的技巧,以及为什么能有防止过拟合作用.L1正则:增加了参数矩阵的稀疏表达(参数矩阵中一部分参数为0),可以进行特征选择,通过保留重要的特征,舍弃不重要特征,达到防止过拟合效果.L2正则:将参数矩阵(y=wx+b,w就是矩阵...

2019-04-20 13:22:07

1x1卷积两个主要作用

1*1卷积的主要作用有以下几点:1、降维( dimension reductionality )。比如,一张500 * 500且厚度depth为100 的图片在20个filter上做11的卷积,那么结果的大小为500500*20。2、加入非线性。卷积层之后经过激励层,1*1的卷积在前一层的学习表示上添加了非线性激励( non-linear activation ),提升网络的表达能力;可以在保...

2019-04-06 13:50:29

算法思维-2 :异或寻找数组中不同的数,并确定位置

题目:一个整型数组里除了两个数字之外,其他的数字都出现了偶数次。请写程序找出这两个只出现一次的数字代码:异或:相同为0,相异为1代码中用n确定位置,我思考了一会儿:n并不是记录了位置的索引,而是记录x中从后往前第一个1出现的位置,这个位置上,两个落单的数此位置肯定不一样,才会有异或为1的结果,所以两个落单的数(a 和b),一定有如果a&n=0,则b&n!=0.其他的data...

2019-03-14 21:04:35

算法思维-1 :判断数组中哪个数出现的频率最高(这个频率要超过数组长度一半为前提 )

代码片段:int MoreThanHalfNum_Solution(vector<int> numbers) { int length = numbers.size(); if(length<=0){ return 0; } //判断数组中哪个数出现的频率最高 int num = numbers[0],count =1; for (...

2019-03-12 14:27:54

机器学习中的L1正则,L2正则的理解

一.在深度学习中,影响整个模型最后效果的我认为有3个因素:1.数据的质量,多少.2.网络的结构,网络的深度等.3.损失函数的设计.最常用也是最容易想到的损失函数就是L1损失和L2损失.这也是很多深度学习论文的损失函数的基础项目.对于L1损失,L2损失,相信很多看过吴恩达机器学习课程的同学都会知道**“正则项”**的概念(L1-norm,L2-norm),在tensorflow中,也有专门...

2019-03-05 12:24:43

matlab将Y,U,V三个通道合成YUV视频文件

最近做图像压缩方面的一些工作,处理的是yuv格式的视频,这也是HEVC编码中常用的压缩格式.问题,从yuv视频流中读取到Y,U,V,三个分量后,进行处理.有了处理后的Y,U,V三个,分量怎么可以快速合成yuv视频,进行压缩编码,查了下,都是用C++写的,一时间没怎么细看,找到一段很简单的Matlab代码.1.yuv视频读取(python):下面是8bit和10bit yuv视频文件读取代码...

2019-02-27 19:37:27

pytorch加载多GPU模型和单GPU模型

有时候,我们用pytorch进行多卡GPUs训练时候,保存模型应该用下面语句:torch.save(model.module.state_dict(), model_out_path)但是忘记加module了,直接用torch.save(model.state_dict(), model_out_path)所以加载模型会遇到模型中参数名字多了module的关键字而报错,所以用下面加载模...

2019-01-27 21:54:39

python画分布图(hist)等等

参考链接:https://blog.csdn.net/jinruoyanxu/article/details/53390943

2018-12-25 22:14:19

保存malab imagsc()显示的图像

深度学习中有时候想查看网路中的某一蹭课的特征图,可以借用matlab 的imagesc()查看,但是用image()函数查看后,并不能用imwrite()函数保存,只能手动另存为,这样很麻烦,特别是遇到大批量操作的时候:下面说说解决方案:image()显示:clear all;clc;close all; img = imread('feature_map_out_2_14.png');...

2018-12-17 13:30:11

加载resNet预训练模型

# Assume input range is [0, 1]class ResNet101FeatureExtractor(nn.Module): def __init__(self, use_input_norm=True, device=torch.device('cpu')): super(ResNet101FeatureExtractor, self).__ini...

2018-12-14 21:10:06

加载和调用VGG19模型计算VGG_loss

1.加载代码# Assume input range is [0, 1]class VGGFeatureExtractor(nn.Module): def __init__(self, feature_layer=34, use_bn=False, use_input_norm=Tru...

2018-12-14 21:08:11

GAN_loss的构建

GAN_loss的构建.tendorflow:参考链接:https://blog.csdn.net/qiu931110/article/details/80181212pytorch参考链接:https://blog.csdn.net/u011961856/article/details/78697863

2018-12-14 17:26:40

pytorch:一行代码查看网络参数总量

netG = Generator()print('# generator parameters:', sum(param.numel() for param in netG.parameters()))netD = Discriminator()print('# discriminator parameters:', sum(param.numel() for param in netD.p...

2018-12-14 14:05:05

当python遇到h5py,h5py数据集的制作

制作可变大小的数据集h5文件,可以参考下面的博客链接:https://www.jishux.com/p/c11fa4f31d757d5cdset = f.create_dataset('mydata', shape=(1, 1,128,128), maxshape=(None, 1,128,128), chunks=(1, 1,128,128))加了这个参数chunks=(1, 1,12...

2018-12-11 17:18:46

pytroch中指定GPU或者CPU写法

之前习惯用.cpu(),.cuda()来指定.现在不要显示的指定是gpu, cpu之类的. 利用.to()来执行# at beginning of the scriptdevice = torch.device("cuda:0" if torch.cuda.is_available() else "cpu")...# then whenever you get a new Tenso...

2018-11-28 20:43:02

pytorch0.4使用注意

1.梯度1.Variable()中,requires_grad=Fasle时不需要更新梯度, 适用于冻结某些层的梯度;2.volatile=True相当于requires_grad=False,适用于测试阶段,不需要反向传播。在torch>=0.4中,这个现在已经取消了,使用with torch.no_grad()或者torch.set_grad_enable(grad_mode)来替代...

2018-11-28 20:38:55

查看更多

勋章 我的勋章
  • 勤写标兵Lv1
    勤写标兵Lv1
    授予每个自然周发布1篇到3篇原创IT博文的用户。本勋章将于次周周三上午根据用户上周的博文发布情况由系统自动颁发。