5 ifruoxi

尚未进行身份认证

暂无相关简介

等级
TA的排名 4w+

TensorRt教程系列(转)

记录下偶然发现的一个TensorRt教程博客。特此分享下TensorRT

2019-06-11 20:16:12

Linux之cudnn升级方法

在安装tensorrt的时候,要求cudnn版本为7.3.1,而我之前安装的版本是5.1.10,因此需要对cudnn进行升级,升级方法很简单,而且不会对现有安装环境造成破坏,升级完之后tensorflow还可以正常使用经过搜索找了一个博客,因此记录下,便于后期再次查找。Linux之cudnn升级方法...

2019-06-11 20:14:42

反卷积(Deconvolution)、上采样(UNSampling)与上池化(UnPooling)【转】

原文:https://blog.csdn.net/a_a_ron/article/details/79181108反卷积对于每个层基本上有以下四个操作组成,ConvReLUMaxPooling[optionally]Norm[optionally]对应的反向操作为,unpoolrectify(ReLU)filter(Deconv)反卷积实现:https://gith...

2019-03-13 17:48:56

GPU优化 - Caffe 显存优化[译·转]

来源:https://blog.csdn.net/langb2014/article/details/824148131.Caffe-memorymultiloading功能原文-SqueezingMemoryoutofCaffeCaffe的一个优化版本-caffe-yjxiong.测试了一下,ResNet101相对于官方caffe,能够明显节省显存占用...

2019-03-12 18:20:58

失踪人口回归

毕业开始工作后,一直在补之前学校里没有好好学习的课程,后悔在学校没有好好学习。各位在校生有大量时间可以学习,还是多学点知识,工作之后都会有用的!!!还有之前写的几个博客,看到大家都在留言,很感谢各位的支持。后期我会更新一些我近期学习的东西,望大家指正,一起进步。另外,大家都在问手势识别的git地址为:https://github.com/BaofengZan/GestureRecognitio...

2019-03-05 17:09:11

包含目录、库目录、附加包含目录、附加库目录、附加依赖项之详解(转)

包含目录、库目录、附加包含目录、附加库目录、附加依赖项之详解

2017-11-09 10:52:01

c++调用Python的第二个小程序

c++调用py文件基本设置同上一个博客#helloworld.pydefprintHello():print("helloC++andPython")#include<Python.h>//前面所做的一切配置都是为了调用这个头文件和相关库#include<iostream>usingnamespacestd;intmain(){Py_Initialize();

2017-11-09 10:36:18

c++调用Python的第一个小程序

例子来源:http://www.cnblogs.com/findumars/p/6142330.htmlVS2010的配置(设置编译环境)1.c++调用python需要在vs2010中的cpp文件中加<Python.h>,这个头文件在python安装目录Python\include下要成功引入就要把Python.h的头文件目录(如D:\python3.4.2\include放在菜单>项目

2017-11-08 14:44:46

windows 下将caffe的运行日志打印出来

怎样在windows下输出训练caffemodel的log日志并画出accuracy和loss曲线?-kusoGod的回答-知乎#可以先建立一个log文件夹caffetrain--solver=deepid/deepid2/deepid_solver.prototxt>log/XXXXX.log2>&1

2017-11-06 10:24:59

TensorFlow全新的数据读取方式:Dataset API入门教程(转)

原文:何之源-知乎例子:读入磁盘图片与对应label讲到这里,我们可以来考虑一个简单,但同时也非常常用的例子:读入磁盘中的图片和图片相应的label,并将其打乱,组成batch_size=32的训练样本。在训练时重复10个epoch。对应的程序为(从官方示例程序修改而来):#函数的功能时将filename对应的图片文件读进来,并缩放到统一的大小def_parse_function(filen

2017-11-06 09:58:31

Tensorflow Object Detection API

1首先下载源码https://github.com/tensorflow/models2按照官方说明文档安装依赖库:TensorflowObjectDetectionAPIdependsonthefollowinglibraries:Protobuf2.6Pillow1.0lxmltfSlim(whichisincludedinthe“tensor

2017-10-28 11:07:16

tensorflow实现 Inception V3

架构输入图像尺寸:299x299x3卷积1:3x3/2输入图像尺寸:149x149x32卷积2:3x3/1输入图像尺寸:147x147x32卷积3:3x3/1输入图像尺寸:147x147x64池化1:3x3/2输入图像尺寸:73x73x64卷积4:3x3/1输入图像尺寸:71x71x80卷积5:3x3/2输入图像尺寸:35x35x19

2017-10-22 17:55:25

TF-slim

原文地址:importtensorflow.contrib.slimasslimslim是一个使构建,训练,评估神经网络变得简单的库。它可以消除原生tensorflow里面很多重复的模板性的代码,让代码更紧凑,更具备可读性。另外slim提供了很多计算机视觉方面的著名模型(VGG,AlexNet等),我们不仅可以直接使用,甚至能以各种方式进行扩展。子模块介绍:(1)arg_scope:

2017-10-21 19:31:50

Inception V3

2015年12月,RethinkingtheInceptionArchitectureforComputerVision一文中提出了InceoptionV3模型。推荐博客:《RethinkingtheInceptionArchitectureforComputerVision》笔记相比于InceptionV2中,将5x5用两个3X3代替,在InceptionV3网络

2017-10-21 15:06:03

Inception V2

2015年,Google在论文《BatchNormalization:AcceleratingDeepNetworkTrainingbyReducingInternalCovariateShift》提出了InceptionV2模型。InceptionV2学习了VGGNet,用两个3x3的卷积来代替5x5的大卷积(减少了参数,减轻了过拟合。)另外文中还提出了著名的BN归一化

2017-10-21 13:19:23

Inception V1

与VGGNet同年的冠军-InceptionV1不仅控制了计算量和参数量,同时分类性能也非常好。相比于AleXNet(8层)和VGGNet(19层),inceptionV1具有22层。InceptionV1参数少但是效果好的原因有:(1)去除了最后的全连接层,大大减少了参数量,并减轻了过拟合。用“全局平均池化层来代替”(该想法来源于NetworkInNetwork)(2)精

2017-10-21 12:59:00

Tensorflow实现VGGNet

Tensorflow实现VGGNet#导入库importtensorflowastf#1.3importmathimporttimefromdatetimeimportdatetimeVGGNet中具有很多层,可以降每一个卷积层(参数初始化、卷积、relu)放在一个函数中,方便后面编写网络。defconv_op(input_op,name,kh,kw,n_ou

2017-10-20 14:12:51

tensorflow 实现AlexNet(附lrn API介绍)

2012年,ALex提出了深度卷积网络模型AlexNet。AlexNet中包含了几个比较新的技术点,也首次在CNN中应用了RELU、Dropout、LRN等tricks。在AlexNet中包含了5个卷积层,其中3个卷积层后面连接了maxpool层,最后还有三个全连接层。AlexNet将LeNet的思想发扬光大,将CNN基本原理应用到了很深的网络中,其主要用到的创新点有(1)使用RELU作为激活函数

2017-10-20 10:20:43

Tensorflow_GPU_2

深度学习训练并行模式在深度学习中不仅可以利用单个CPU加速学习同时可以利用多个GPU或多台机器并行化地训练深度模型具有两种模式:(1)同步模式(2)异步模式深度学习模型的训练是一个迭代的过程。在每一轮迭代中,前向传播算法会根据当前参数的取值计算出在一小部分训练数据上的预测值,然后反向传播算法再根据损失函数计算参数的梯度并更新参数。在并行化第训练深度学习模型时,不同设备(GPU或CPU)可以在不同训

2017-10-17 17:02:01

Tensorflow_GPU_1

Tensorflow加速计算(多GPU和分布式)1使用GPU基本操作在Tensorflow中可以通过tf.device()函数来手动指定运行操作的设备。对于CPU而言,在默认的情况下,即使的电脑有多个GPU,Tensorflow依然不会区分它们,都是用/cpu:0作为名称。对于GPU而言,则会使用/gpu:0,/gpu:1,…/gpu:nTensorflow提供了一个快捷的方式来查看运行设备:在

2017-10-17 13:10:19

查看更多

勋章 我的勋章
    暂无奖章