4 loveliuzz

尚未进行身份认证

我要认证

暂无相关简介

等级
TA的排名 6k+

Pytorch数据加载——Dataset和DataLoader详解

一、可迭代对象与迭代器简介可迭代对象(iterable):实现了 __iter__ 方法,该方法返回一个迭代器对象; 迭代器(iterator):迭代器含有 __iter__ 和 next 方法,当调用 __iter__ 返回迭代器自身,当调用 next() 方法返回容器下一个值; 二者关系:使用 iter(可迭代对象) 转换为 (迭代器).二、pytorch输入数据pipline“三步走”策略一般pytorch的数据加载到模型的操作顺序如下:1、创建一个 Dataset 对象,必须实

2020-09-23 17:52:46

Ubuntu18.04下安装配置Caffe-SSD-GPU版本及遇到问题解决办法

主要参照以下的博客内容:https://blog.csdn.net/CAU_Ayao/article/details/84000151https://blog.csdn.net/jancis/article/details/102824091https://blog.csdn.net/wudi_X/article/details/80012764...

2020-05-08 10:03:26

tensorflow框架到caffe框架的模型转换

本文参考以下系列内容:tensorflow2caffe(1) : caffemodel解析,caffemodel里面到底记录了什么?tensorflow2caffe(2) : 如何在tensorflow中取出模型参数tensorflow2caffe(3) : 如何将tensorflow框架下训练得到的权重转化为caffe框架下的权重参数tensorflow2caffe(4) : c...

2020-04-27 10:46:54

Caffe在win10+VS2013+GPU (cuda8.0+cudnn5.1) /CPU +Anaconda3-4.2.0(虚拟环境py2)+Matlab-R2014a版本编译

参考链接:https://blog.csdn.net/u011947630/article/details/818787670. 编译环境操作系统:Windows10IDE: VS2013GPU: NVIDIA GTX 1050Ti1、VS2013安装官网地址:https://my.visualstudio.com/Downloads?q=Visual%20Studio%...

2020-01-09 16:29:00

头部姿态估计原理及可视化

一、简述 头部姿态估计(Head Pose Estimation ):通过一幅面部图像来获得头部的姿态角. 在3D 空间中,表示物体的旋转可以由三个欧拉角(Euler Angle)来表示:分别计算 pitch(围绕X轴旋转),yaw(围绕Y轴旋转) 和 roll(围绕Z轴旋转) ,分别学名俯仰角、偏航角和滚转角,通俗讲就是抬头、摇头和转头。百闻不如一见,上示意图: ...

2019-10-24 09:41:30

PyTorch学习(基础)—— Tensor & autograd

几乎所有的深度学习框架背后的设计核心都是:张量和计算图。一、Tensor 在pytorch中,Tensor(一般可译作“张量”)是重要的数据结构,torch.Tensor是存储和变换数据的主要工具,可认为是一个高维数组,它可以是一个数(标量)、一维张量(向量)、二维张量(矩阵)或更高维的张量。Tensor和numpy中的多维数组ndarray很类似,但Tensor可以使用GP...

2019-09-23 17:42:27

PyTorch学习(三)—— DataLoader

一、Manual data feed二、DataLoaderimport torchimport numpy as npfrom torch.autograd import Variablefrom torch.utils.data import Dataset, DataLoaderclass DiabetesDataset(Dataset): # Ini...

2019-09-10 17:20:05

PyTorch学习(二)—— Linear regression、Logistic Regression、Softmax Classifier

一、Linear regression(in PyTorch way) import torchfrom torch.autograd import Variable# data define(3*1)x_data = Variable(torch.Tensor([[1.0], [2.0], [3.0]]))y_data = ...

2019-09-09 19:28:25

PyTorch学习(一)——Linear Model、Gradient Desent、Back propogation

一、Linear Model1、Mde和lLoss函数的构建2、计算权重w的损失loss3、画出w和mse的关系图4、全部整体的代码import matplotlib.pyplot as pltimport numpy as npx_data = [1.0, 2.0, 3.0]y_data = [2.0, 4.0, 6.0]# ou...

2019-09-05 17:02:54

softmax loss及其变种

2019-08-08 16:05:24

A-Softmax(SphereFace)的总结及与L-Softmax的对比

目录1. A-Softmax的推导2. A-Softmax Loss的性质3. A-Softmax的几何意义4. 源码解读 A-Softmax的效果 与L-Softmax的区别【引言】SphereFace在MegaFace数据集上识别率在2017年排名第一,用的A-Softmax Loss有着清晰的几何定义,能在比较小的数据集上达到不错的效果。这个是他们总结...

2019-06-24 16:34:25

生成对抗网络(Generative Adversarial Nets)——GAN

目录一、生成对抗网络的定义及优势二、生成对抗网络原理深入理解GAN基础思想:实际中的GAN:三、生成对抗网络的训练过程一、生成对抗网络的定义及优势GAN 主要包括了两个部分,即生成器 (generator)与判别器 (discriminator)。(1)生成器主要用来学习真实图像分布从而让自身生成的图像更加真实,以骗过判别器。(2)判别器则需要对接收...

2018-12-17 18:10:28

TensorFlow tf.data 导入数据(tf.data官方教程)

原文:https://blog.csdn.net/u014061630/article/details/80728694 导入数据(Reading data)TensorFlow读取数据的四种方法:tf.data、Feeding、QueueRunner、Preloaded data。本篇的内容主要介绍 tf.data API的使用目录导入数据(Reading data)1....

2018-11-23 17:03:07

TensorFlow 数据读取的四种方法总结

读取数据(Reading data)====================推荐:如何构建高性能的输入 pipeline====================TensorFlow输入数据的方法有四种:1、tf.data API:可以很容易的构建一个复杂的输入通道(pipeline)(首选数据输入方式)(Eager模式必须使用该API来构建输入通道)2、Feeding:使用Pytho...

2018-11-23 16:17:07

深入理解反卷积

参考链接:https://www.zhihu.com/question/48279880/answer/525347615参考链接:https://blog.csdn.net/itleaks/article/details/80336825什么是反卷积?上采样(Upsample)在应用在计算机视觉的深度学习领域,由于输入图像通过卷积神经网络(CNN)提取特征后,输出的尺寸往往会变小,...

2018-11-14 18:07:37

两种常用的全参考图像质量评价指标——峰值信噪比(PSNR)和结构相似性(SSIM)

原文:https://blog.csdn.net/zjyruobing/article/details/49908979 1.PSNR(Peak Signal to Noise Ratio)峰值信噪比:MSE表示当前图像X和参考图像Y的均方误差(Mean Square Error),H、W分别为图像的高度和宽度;PSNR的单位是dB,数值越大表示失真越小。n为每像素的比特数,一般的灰度...

2018-11-08 15:56:58

导数,偏导数,方向导数与梯度的定义与联系

参考博客https://blog.csdn.net/baishuo8/article/details/81408369和知乎https://www.zhihu.com/question/36301367一、导数(derivative)导数,是我们最早接触的一元函数中定义的,可以在 xy 平面直角坐标系中方便的观察。当 Δx→0时,P0处的导数就是因变量y在x0处的变化率,反映因变量...

2018-10-30 17:37:58

深度学习——dropout理解

文章转载自:https://blog.csdn.net/u012762419/article/details/795340851.dropout解决的问题深度神经网络的训练是一件非常困难的事,涉及到很多因素,比如损失函数的非凸性导致的局部最优值、计算过程中的数值稳定性、训练过程中的过拟合等。其中,过拟合是很容易发生的现象,也是在训练DNN中必须要解决的问题。过拟合我们先来讲一下什么...

2018-09-30 18:04:53

深度学习中的优化方法总结

转载自:https://blog.csdn.net/u012151283/article/details/78154917梯度下降沿着整个训练集的梯度方向下降。可以使用随机梯度下降很大程度地加速,沿着随机挑选的小批量数据的梯度下降。批量算法和小批量算法使用小批量的原因n个样本均值的标准差是σn√σn,其中σσ是样本值真实的标准差。分母n−−√n表明使用更多的样本来估计梯度的方法的回...

2018-09-27 11:24:30

机器学习sklearn19.0聚类算法——层次聚类(AGNES/DIANA)、密度聚类(DBSCAN/MDCA)、谱聚类

一、层次聚类BIRCH算法详细介绍以及sklearn中的应用如下面博客链接:http://www.cnblogs.com/pinard/p/6179132.htmlhttp://www.cnblogs.com/pinard/p/6200579.html 二、密度聚类 三、密度最大值聚类...

2018-09-19 09:24:53

查看更多

勋章 我的勋章
  • 持之以恒
    持之以恒
    授予每个自然月内发布4篇或4篇以上原创或翻译IT博文的用户。不积跬步无以至千里,不积小流无以成江海,程序人生的精彩需要坚持不懈地积累!
  • 1024勋章
    1024勋章
    #1024程序员节#活动勋章,当日发布原创博客即可获得
  • 勤写标兵Lv1
    勤写标兵Lv1
    授予每个自然周发布1篇到3篇原创IT博文的用户。本勋章将于次周周三上午根据用户上周的博文发布情况由系统自动颁发。