6 SrCMpunk

尚未进行身份认证

现在才开始写博客,有点晚了。

等级
TA的排名 2w+

tensorflow gauss blur 高斯模糊处理

tensorflow的高斯模糊函数如下import tensorflow as tfimport numpy as npfrom scipy.ndimage.filters import gaussian_filterfrom ops import concatdef gauss_kernel_fixed(sigma, N): # Non-Adaptive kernel si...

2019-09-11 16:50:52

tensorflow fake quantization 伪量化训练

tensorflow fake quantization 伪量化训练tensorflow伪量化训练简单说就是用float类型的模拟int类型的运算。在fake quantization训练的过程中,尽量使float类型的计算精度接近int类型的精度。fake quantization 需要在计算图中添加一个伪量化的节点,才能进行伪量化训练,同时该方法的训练出来的模型需要使用,对应的伪量化转pb代...

2019-09-02 09:20:48

tensorfow checkpoint 转pb 模型 conv2d的输出节点名字是BiasAdd

constant_graph = graph_util.convert_variables_to_constants(sess, sess.graph_def, ['*/BiasAdd'])为自己定义的name scope。如果使用tf.layers.conv2d实现的卷积操作,要将pb模型的输出结果为该卷积的结果,需要指定为 /BiasAdd而不是/Conv2D...

2019-08-06 11:11:52

使用tf.layers.conv2d()转PB模型时记得加Conv2D后缀

tf.layers.conv2d()会自动添加Conv2D例如我们这样设置tf.layers.conv2d( , name='output')我们将checkpoint转换成pb模型时,需要制定一个输出节点。使用layers这个包,如name为output,如果直接设定该节点为输出节点,则会报错。原因:tensorflow的layers会自动的name的后面加上Conv2D下级scope...

2019-07-29 16:31:54

tensorflow用tf.nn.conv2d_transpose实现tf.layers.conv2d_transpose

用nn的操作实现layers的操作def deconv(x, cnum, kernel_size = 3, scale_size = 2,stride = 2, name='upsample', padding='SAME', ): b, w, h, c = x.shape[0], x.shape[1], x.shape[2], x.shape[3] b, w, h, c = i...

2019-07-29 14:41:42

How to process Conv weight during the model trainning

这里写自定义目录标题Tensorflow如何在训练的时候对卷积的权重进行一些特殊处理步骤如下整体代码Tensorflow如何在训练的时候对卷积的权重进行一些特殊处理比如对卷积的权重进行求均值,取最大值等等自定义的操作。步骤如下获取想要操作的的卷积核权重,保存到一个list中申请一个同该卷核相同shape的占位符;使用tf.assign()创建一个更新卷积核权重的操作op;整体代码...

2019-07-22 16:40:27

Make the SPNE softmax layer support the 4D model with axis=3

实现SNPE softmax layer的4D tensor 第4轴的排序SNPE的softmax只支持1D和2D的输入,如何实现4D数据的排序呢? 并且SNPE的排序的轴是固定的axis=-1,如何对4D数据的第3个轴排序呢?def softmax(data, axis=3): dt_shape = data.get_shape().as_list() dt_axis1 = ...

2019-05-05 17:15:32

How to implement tf.clip_by_value() when converted the TF PB model to DLC model

如何在SNPE中实现Tensorfow的tf.clip_by_value()操作def clip_by_value(x, min, max, name='clip'): with tf.name_scope(name=name): with tf.name_scope(name='clipmin'): res = tf.maximum(x, min...

2019-05-05 17:15:19

Tensrfow GAN Discriminator 如何使用hinge loss训练

hinge loss核心点:网络的输出要确保是[-1,1]范围之前一直用cross entrype loss这一点没有台注意,所以之前一直没写对!hinge loss 核心代码 def Hinge_loss(pos, neg, name='Hinge_loss'): with tf.variable_scope(name): d_loss ...

2019-04-24 10:17:51

pyTorch onnx 学习(二)

添加自定义的onnx operations 在pyTorch中定义的网络图以及其运算,在onnx中不一定支持,因此,需要自定义的添加operators。如果onnx支持则可以直接使用,一下是支持的网络以及运算:add (nonzero alpha not supported)sub (nonzero alpha not supported)muldivcatmmaddmm...

2018-09-17 13:50:00

pyTorch onnx 学习(一)

官方文档pyTorch版本AlexNet模型转换到caffe2版本的模型AlexNet模型已经训练好,来自与torchvision包,现在需要转换成onnx格式的模型,转换后的结果为alexnet.onnx:importtorchimporttorchvisiondummy_input=torch.randn(10,3,224,224,device='cud...

2018-09-17 11:10:36

tensorboard,本地浏览器访问远程服务器

ssh -L 16006:127.0.0.1:6006 zhiweige@109.105.1.145tensorboard –logdir=”./log_free_form” –port=6006http://127.0.0.1:16006/

2018-08-08 09:08:08

对抗式生成网络---验证码的生成

最近看生成式对抗网络,做了一点有意思的事情,发现这个东西用于生成验证码真是太爽了,当然精度还有待提高。传送门 关于生成式对抗网络的原理,自己百度下很多博文 条件生成式对抗网络,也有很多概述 使用的原始域图像为SVHN数据集(老外的门牌号数字),目标域图像为MINST数据集,利用生成式对抗网络可以完成下图的转换。看见这个我想起让我想起了12306的验证码,这让我觉得生成式对抗网络可能会应用于A

2017-09-29 13:53:19

2016天猫抢红包脚本

天猫抢红包脚本本脚本纯属娱乐,最重要的就是开心,抢到抢不到靠大家的缘分了。准备的东西如下:win7 64位python-2.7.3.amd64.msipywin32-218.win-amd64-py2.7.exe*飞行吧喵喵游戏第一步登录天猫进入主会场,找到飞行吧喵喵的游戏,先进去玩一局要自杀死掉,然后记下按钮的坐标,每个人的坐标不同,可以用QQ截图从左上角开始然后将鼠标放在按钮部位就会像

2016-11-02 14:42:18

目标检测简要综述

转自:http://imbinwang.github.io/blog/object-detection-reviewBin WangAbout Archive目标检测简要综述 May 6, 2015 6 minute read 目标检测(Object Detection)是计算机视觉领域中一个基础性的研究课题,主要包含两类不同的检测任务:目标实例检测(Instance Object Detec

2016-05-26 14:06:28

Torch7深度学习教程(七)

这一章的内容是将前面讲的东西总结下,完整地实现我们的CNN实例require 'paths';require 'nn';---Load TrainSetpaths.filep("/home/ubuntu64/cifar10torchsmall.zip"); trainset = torch.load('cifar10-train.t7');testset = torch.load('cifa

2016-05-14 10:29:59

Torch7深度学习教程(六)

这一章用实例讲解在正式训练前需要对训练集的处理以及基本操作,请大家从头开始运行itorch 导入两个包,虽然这章没有涉及网络的建立,但是不导入nn这个包的话,数据的读入会出错,具体我也不太清楚,这个是google出来的,我刚开没有导入nn包,导致文件一直无法读取。 参数为文件的绝对路径,文件的下载我放到了这里(需要2个积分下载,请大家支持下) http://download.csdn.n

2016-05-13 14:17:25

Torch7深度学习教程(五)

这一节先介绍一些基本操作,然后再对我们前面建立的网络进行训练神经网络的前向传播和反向传播 随即生产一张照片,1通道,32x32像素的。为了直观像是,导入image包,然后用itorch.image()方法显示生成的图片,就是随即的一些点。 用之前建立好的神经网络net调用forward()方法输入随即生成的图片得到输出的结果,如打印出来的形式,net最后是10个输出节点,这里输出了10个值

2016-05-07 19:31:05

Torch7深度学习教程(四)

这一章不涉及太多的神经网络的原理,重点是介绍如何时候Torch7神经网络 首先require(相当于c语言的include)nn包,该包是神经网络的依赖包,记得在语句最后加上“;”,这个跟matlab一样不加的话会打印出来数据。Torch可以让我们自己一层一层的设计自己的网络,像是容器一样可以一层一层地把你自己的Layer(神经网络的中的层)往里面添加。 首先,要构造一个神经网络容器,即

2016-05-07 09:13:40

Torch7深度学习教程(三)

函数的使用 这是函数的定义方式,声明的关键字+定义的函数名+形参的名字,在此博主返回两个值,具体的函数功能在后面再说 这是初始化一个5x2的矩阵,并且初值都为1。这里有多了一种初始化矩阵的方法。 这是先声明一个2x5的矩阵,然后再调用fill()方法其值全部初始化为4。 将a,b矩阵输入到addTensors函数里面,注意这里是实参,前面定义的a,b是形参,这个有点c基础的应

2016-05-06 14:08:24

查看更多

勋章 我的勋章
  • GitHub
    GitHub
    绑定GitHub第三方账户获取
  • 勤写标兵Lv1
    勤写标兵Lv1
    授予每个自然周发布1篇到3篇原创IT博文的用户。本勋章将于次周周三上午根据用户上周的博文发布情况由系统自动颁发。