自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(63)
  • 收藏
  • 关注

转载 TensorRt教程系列(转)

记录下偶然发现的一个TensorRt教程博客。特此分享下TensorRT

2019-06-11 20:16:12 10120 2

转载 Linux之cudnn升级方法

在安装tensorrt的时候,要求cudnn版本为7.3.1,而我之前安装的版本是5.1.10,因此需要对cudnn进行升级,升级方法很简单,而且不会对现有安装环境造成破坏,升级完之后tensorflow还可以正常使用经过搜索找了一个博客,因此记录下,便于后期再次查找。Linux之cudnn升级方法...

2019-06-11 20:14:42 959

转载 反卷积(Deconvolution)、上采样(UNSampling)与上池化(UnPooling)【转】

原文:https://blog.csdn.net/a_a_ron/article/details/79181108反卷积对于每个层基本上有以下四个操作组成,ConvReLUMaxPooling [optionally]Norm [optionally]对应的反向操作为,unpoolrectify(ReLU)filter(Deconv)反卷积实现:https://gith...

2019-03-13 17:48:56 819

转载 GPU优化 - Caffe 显存优化[译·转]

来源:https://blog.csdn.net/langb2014/article/details/824148131. Caffe - memory multiloading 功能原文 - Squeezing Memory out of CaffeCaffe 的一个优化版本 - caffe-yjxiong. 测试了一下, ResNet101 相对于官方 caffe, 能够明显节省显存占用...

2019-03-12 18:20:58 720

转载 包含目录、库目录、附加包含目录、附加库目录、附加依赖项之详解(转)

包含目录、库目录、附加包含目录、附加库目录、附加依赖项之详解

2017-11-09 10:52:01 654

原创 c++调用Python的第二个小程序

c++调用py文件基本设置同上一个博客#helloworld.pydef printHello(): print("hello C++ and Python")#include<Python.h>//前面所做的一切配置都是为了调用这个头文件和相关库#include<iostream>using namespace std;int main(){ Py_Initialize();

2017-11-09 10:36:18 409

原创 c++调用Python的第一个小程序

例子来源:http://www.cnblogs.com/findumars/p/6142330.htmlVS2010的配置(设置编译环境)1. c++调用python需要在vs2010中的cpp文件中加 <Python.h>,这个头文件在python安装目录Python\include下要成功引入就要把Python.h的头文件目录(如D:\python3.4.2\include放在菜单 > 项目

2017-11-08 14:44:46 572

转载 windows 下将caffe的运行日志打印出来

怎样在windows下输出训练caffemodel的log日志并画出accuracy和loss曲线? - kusoGod的回答 - 知乎# 可以先建立一个log文件夹caffe train --solver=deepid/deepid2/deepid_solver.prototxt >log/XXXXX.log 2>&1

2017-11-06 10:24:59 1640

转载 TensorFlow全新的数据读取方式:Dataset API入门教程(转)

原文: 何之源-知乎例子:读入磁盘图片与对应label讲到这里,我们可以来考虑一个简单,但同时也非常常用的例子:读入磁盘中的图片和图片相应的label,并将其打乱,组成batch_size=32的训练样本。在训练时重复10个epoch。对应的程序为(从官方示例程序修改而来):# 函数的功能时将filename对应的图片文件读进来,并缩放到统一的大小def _parse_function(filen

2017-11-06 09:58:31 6540 1

原创 Tensorflow Object Detection API

1 首先下载源码https://github.com/tensorflow/models2 按照官方说明文档安装 依赖库:Tensorflow Object Detection API depends on the following libraries:Protobuf 2.6 Pillow 1.0 lxml tf Slim (which is included in the “tensor

2017-10-28 11:07:16 740

原创 tensorflow实现 Inception V3

架构输入图像尺寸: 299x299x3 卷积1: 3x3/2 输入图像尺寸: 149x149x32 卷积2: 3x3/1 输入图像尺寸: 147x147x32 卷积3: 3x3/1 输入图像尺寸: 147x147x64 池化1: 3x3/2 输入图像尺寸: 73x73x64 卷积4: 3x3/1 输入图像尺寸: 71x71x80 卷积5: 3x3/2输入图像尺寸: 35x35x19

2017-10-22 17:55:25 4508 2

原创 TF-slim

原文地址: import tensorflow.contrib.slim as slimslim是一个使构建,训练,评估神经网络变得简单的库。它可以消除原生tensorflow里面很多重复的模板性的代码,让代码更紧凑,更具备可读性。另外slim提供了很多计算机视觉方面的著名模型(VGG, AlexNet等),我们不仅可以直接使用,甚至能以各种方式进行扩展。子模块介绍: (1)arg_scope :

2017-10-21 19:31:50 387

原创 Inception V3

2015年12月,Rethinking the Inception Architecture for Computer Vision一文中提出了Inceoption V3模型。推荐博客: 《Rethinking the Inception Architecture for Computer Vision》笔记相比于Inception V2中,将5x5用两个3X3代替,在Inception V3网络

2017-10-21 15:06:03 950

原创 Inception V2

2015年,Google在论文《Batch Normalization: Accelerating Deep Network Training by Reducing Internal Covariate Shift》提出了Inception V2模型。Inception V2学习了VGGNet,用两个3x3的卷积来代替5x5的大卷积(减少了参数,减轻了过拟合。) 另外文中还提出了著名的BN归一化

2017-10-21 13:19:23 731

原创 Inception V1

与VGGNet同年的冠军-Inception V1 不仅控制了计算量和参数量,同时分类性能也非常好。相比于AleXNet (8层)和VGGNet(19层),inception V1 具有22层。InceptionV1参数少但是效果好的原因有: (1) 去除了最后的全连接层,大大减少了参数量,并减轻了过拟合。用“全局平均池化层来代替”(该想法来源于 Network In Network) (2)精

2017-10-21 12:59:00 2049

原创 Tensorflow实现VGGNet

Tensorflow实现VGGNet# 导入库import tensorflow as tf # 1.3import mathimport timefrom datetime import datetimeVGGNet中具有很多层,可以降每一个卷积层(参数初始化、卷积、relu)放在一个函数中,方便后面编写网络。def conv_op(input_op, name, kh, kw, n_ou

2017-10-20 14:12:51 583

原创 tensorflow 实现AlexNet(附lrn API介绍)

2012年,ALex提出了深度卷积网络模型AlexNet。AlexNet中包含了几个比较新的技术点,也首次在CNN中应用了RELU、Dropout、LRN等tricks。在AlexNet中包含了5个卷积层,其中3个卷积层后面连接了maxpool层,最后还有三个全连接层。AlexNet将LeNet的思想发扬光大,将CNN基本原理应用到了很深的网络中,其主要用到的创新点有(1) 使用RELU作为激活函数

2017-10-20 10:20:43 816

原创 Tensorflow_GPU_2

深度学习训练并行模式在深度学习中不仅可以利用单个CPU加速学习同时可以利用多个GPU或多台机器并行化地训练深度模型具有两种模式:(1) 同步模式(2)异步模式深度学习模型的训练是一个迭代的过程。在每一轮迭代中,前向传播算法会根据当前参数的取值计算出在一小部分训练数据上的预测值,然后反向传播算法再根据损失函数计算参数的梯度并更新参数。在并行化第训练深度学习模型时,不同设备(GPU或CPU)可以在不同训

2017-10-17 17:02:01 371

原创 Tensorflow_GPU_1

Tensorflow加速计算(多GPU和分布式)1 使用GPU基本操作在Tensorflow中可以通过tf.device()函数来手动指定运行操作的设备。对于CPU而言,在默认的情况下,即使的电脑有多个GPU,Tensorflow依然不会区分它们,都是用/cpu:0作为名称。对于GPU而言,则会使用/gpu:0,/gpu:1,…/gpu:nTensorflow提供了一个快捷的方式来查看运行设备: 在

2017-10-17 13:10:19 543

原创 制作自己的图像数据 (1)

利用图像数据制作能够输入Tensorflow的数据格式文件夹格式:ROOT_FOLDER | ------ SUBFOLDER(CLASS 0)| | --- image1.jpg | | ..... | | ------SUBFOLDER(CLAS

2017-10-16 20:53:33 513

原创 制作自己的图像数据

利用图像数据制作能够输入Tensorflow的数据格式文件夹格式:ROOT_FOLDER | ------ SUBFOLDER(CLASS 0)| | --- image1.jpg | | ..... | | ------SUBFOLDER(CLAS

2017-10-16 20:50:41 589 1

原创 卷积神经网络物体检测之感受野大小计算

近期再看RCNN等经典文章,又看到了“感受野”的概念。再正向传播中我们可以很方便地由前一个feature map通过卷积核,来计算下一个feature map的大小,但是很少去思考:感受野的尺寸(相当于卷积和大小)大小是如何计算的。首先给两个博客,写的很经典。 博客1博客2在RCNN中所说的感受野可以看作是一个“相对的”概念。 比如, 在RRCNN论文中有一段描述,Alexnet网络pool5输

2017-10-15 20:16:40 1867

原创 Tensorflow实现LSTM

RNN和LSTMRNNRNN循环神经网络对处理时间系列的数据或周期性数据很有用。在传统的神经网络中,只是在深度上进行多层的连接,层与层之间具有连接,但是在同一层内部节点之间没有连接。这对于处理前后有关系的数据无能为力,RNN则考虑了这一点,在广度上也进行连接。具体的,RNN网络会对前面的信息进行记忆并应用于当前的输出的计算中,即隐藏层的输入不仅包含输入层的输出还包含上一时刻隐藏层的输出。理论上,RN

2017-10-14 16:48:59 6660 1

原创 Caffe转换tensorflow并 跨平台调用

原文地址: Caffe转换tensorflow并 跨平台调用使用 caffe-tensorflow这个开源项目 ,直接可以转换caffe 模型文件 为 tensorflow 模型参数 转换训练的模型 为 tensorflow 训练的模型文件格式,交给tensorflow调用,tensorflow 有C++ PYTHON 的api 而且支持手机端,各种平台,所以网上很多 吹牛逼的 项目手机上调用 ,

2017-10-14 11:46:58 876

原创 tensorflow神经网络

神经网络模型训练及优化使用手写字体mnist数据#载入库import tensorflow as tffrom tensorflow.examples.tutorials.mnist import input_data# 设置超参数INPUT_NODE = 784 #输入节点 OUTPUT_NODE = 10 # 输出节点LAYER1_NODE = 500 # 隐藏层节点BATCH_SIZE

2017-10-12 19:53:47 544

转载 机器学习系列(19)_通用机器学习流程与问题解决架构模板

原文地址:Approaching (Almost) Any Machine Learning Problem 原文翻译与校对:@姜范波 && @黄文畅 && 寒小阳 时间:2016年10月。 出处:http://blog.csdn.net/han_xiaoyang/article/details/52910022 分类器与超参数的选择:

2017-10-11 09:18:29 398

转载 用机器学习解决问题的思路

原始博客: 机器学习系列(4)_机器学习算法一览,应用建议与解决思路当我们拿到一堆数据时,该如何去下手? 1. 首先要可视化,了解数据 2. 选择合适的机器学习算法 3. 分析所得模型的状态(过拟合、欠拟合)并解决 4. 大量级数据的特征分析和可视化 5. 各种损失函数的优缺点及选择1 数据可视化 然而当大量数据出现的时候,图像可视化就可以让我们直观的理解数据的分布

2017-10-10 16:03:49 2475

原创 基于opencv和Tensorflow的实时手势识别(3)

在第二部分,我们没有进行参数的优化,后来进行了优化,loss进过几千次迭代,已经下降到0.0002左右,还是比较好的。 本次这里介绍测试的代码,并将两个代码融合。测试代码和训练代码基本是一样的,就不多赘述,直接上代码def test(X_test, y_test): # EVAL_INTERVAL_SECS = 10 # 每10秒加载一次模型,并在测试数据上测试准确率 with

2017-10-10 14:22:01 11236 69

原创 基于opencv和Tensorflow的实时手势识别(2)

在第(1)个博客中,我们搭建了能够录制、并保存手势的python代码。我录制了几个动作如下: 本节,利用录制的数据搭建一个简单的网络进行训练和测试。先不用考虑和上一个代码进行融合,那么本节的代码就变得简单的多。(1)分析: 输入的图片大小是200*200 这里我们采用网络的架构如下: **注: 在tensorflow中tf.nn.conv2d()中padding的参数有两种“SAME”和

2017-09-28 15:56:10 8817 3

原创 基于opencv和Tensorflow的实时手势识别(1)

临近毕业,找工作压力大,由于实验室的规定,研究生三年没有实习、没有项目经验。为了能在简历上增点彩,就准备自己搞点小东西,希望可以找到一个称心的工作。第一个小demo是基于opencv和tensorflow的手势识别。手势识别无论是在学术界还是工业界都已经很完美了,我这里也是从最简单的开始,一步一步来,防止自己自信心被打击。基本计划是: (1) 利用opencv录制需要的手势 (2)tensorf

2017-09-26 09:48:25 38762 13

转载 十图详解tensorflow数据读取机制(附代

文章转载至: https://zhuanlan.zhihu.com/p/27238630(知乎首发:我的AI实验田)在学习tensorflow的过程中,有很多小伙伴反映读取数据这一块很难理解。确实这一块官方的教程比较简略,网上也找不到什么合适的学习材料。今天这篇文章就以图片的形式,用最简单的语言,为大家详细解释一下tensorflow的数据读取机制,文章的最后还会给出实战代码以供参考。

2017-06-06 09:09:27 2165

原创 Tensorflow 基础教程(1)

在使用Tensorflow之前先了解下Tensorflow的几个基础知识: 1 使用图(graph)来表示计算 2 在回话(session)中执行图 3 使用张量(tensor)来代表数据 4 通过变量(Variables)维护状态 5 通过供给(feeds)和取回(fetches)将数据传入或传出任何操作实际上,可以将编写Tensorflow代码总结为两部: 1 组装一个graph

2017-06-04 16:42:30 505

原创 判别模型和生成模型(cs229 part 4)

摘要: 判别模型:有限样本--->判别函数--->预测模型 --->预测分析:对条件概率(后验概率) p(y|x)p(y|x)建模,在有限样本下建立判别函数,不考虑样本的产生模型,直接研究预测模型。生成模型:无穷样本--->概率密度模型--->产生模型 --->预测分析:对p(x|y)p(x|y)进行建模。首先建立样本的概率密度模型,再利用模型进行推理预测,要求已知样本无穷或者尽可能的大。判别模型

2017-06-01 10:23:09 431

原创 机器学习的数学基础(1)

对象是指含有一组特征的行向量,一个特征表示为矩阵中的一列。 1. 相似性度量两个向量之间的距离(此时向量最为n维坐标系中的点)计算,在数学上称为向量的距离,也可以称为样本间的相似性度量,它反映某类事物在距离上接近或远离的程度。 在介绍向量间的各类距离公式前,先介绍下范数的概念: 范数:向量的范数可以简单理解为向量的长度,或者向量到坐标系原点的距离,或者相应空间内的两点之间的距离。 L1范数

2017-02-13 22:08:04 585

原创 使用Python的Tkinter库创建GUI(附实例:回归)

我们前面介绍了树回归中的回归树和模型树 两种回归方式。 本节我们首先将树回归和标准回归进行比较,然后创建出一个GUI,通过交互的形式更好去观察模型树和回归树之间的奥秘。1. 树回归与标准回归的比较 我们之前介绍过几种回归模型,为了比较哪种模型更好?一个比较客观的方法就是计算相关系数(R2R^{2}值)。该相关系数可以直接去调用Numpy库中的corrcoef(yHat, y, rowv

2017-01-05 20:10:45 6525

原创 Python解析JSON数据的基本方法

1 JSON数据格式介绍 JSON(JavaScript Object Notation) 是一种轻量级的数据交换格式。 JSON建构于两种结构:简单来说,就是Javascript中的对象和数组。所以可以通过这两种结构可以表示各种复杂的结构: 1 对象: 对象在js中表示为”{}”括起来的内容,数据结构为{key:value, key:value…}的键值对结构,在面向

2017-01-03 15:49:01 5884

原创 树回归CART(Classification And Regression Tree)(2)

前面,我们分析了树回归的切分函数。但是如果一棵树节点过多,表明该模型可能对数据“过拟合”。为了避免过拟合,经常通过“剪枝”技术来降低决策树的复杂度。在前面chooseBestSplit()函数中设置的提前终止条件,实际上就是在进行一种所谓的的“预剪枝”。相对应的“后剪枝”则是需要训练集和测试集的共同作用。1 预剪枝 我们在树回归中: 树的构建算法对输入的参数tolS 和 tolN 非常敏感。而去手

2016-12-30 16:01:59 1226

原创 Python 练习册,每天一个小程序-解答

习题来源: https://github.com/Yixiaohan/show-me-the-code 要学习Python的可以去试着刷下题。 我也是参考着别人的想法,再加上一些自己的思考和分析。希望经过自己的努力,能达到一个更高的水平。 分析 题目中涉及到对图片的处理,就需要用到Python中常用的第三方库Pillow。 对于Pillow的安装和使用,可以参考 http://www.

2016-12-29 14:27:15 3442

原创 树回归CART(Classification And Regression Tree)(1)

前面我们介绍了线性回归和加权线性回归,但是线性回归创建模型需要拟合所有的样本(对样本中所有的点都计算预测值和真实值的误差,并求出最小的回归系数)。当数据过多或者特征之间的关系十分复杂时,构建全局模型就比较困难,并且在实际的生活中很多问题都是非线性的,全局线性模型去拟合数据显然是不可能的。 一个可行的办法:分割原始数据集,使数据集分为多个易建模的数据,然后使用线性回归来建模。所以这里介绍一种树结构算

2016-12-28 16:28:11 868

原创 机器学习--偏差(Bias)、方差(Variance)和误差(error)

对学习算法除了通过实验估计其泛化性能,还通过“偏差-方差分解”来解释学习算法的泛化性能。偏差-方差分解试图对学习算法的期望泛化错误率(模型输出值与真实值之差的均值(期望))进行分解。 假设有一数据集,对测试样本x,y为真实的标签,由于可能出现的噪声在数据集上的便签为yDy_{D},f(x;D)f(x;D)为在训练集上训练得到的模型f在x上的输出。偏差、方差和误差的含义: 偏差(Bias)度量了

2016-12-26 11:45:18 2219

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除