自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(27)
  • 收藏
  • 关注

转载 C++移位运算符详细解释

原文连接:https://www.cnblogs.com/shrimp-can/p/5145351.html移位运算符包括左移"<<“和右移”>>"左移运算符<<:1.无符号语法格式:需要移位的数字<<移位的次数n运算规则:按二进制形式把所有数字向左移动相应的位数,高位移出(舍弃),低位的空位补0。相当于乘以2的n次方例如:4<<2 ,就是将数字4左移2位过程:4的二进制形式:00000000 00000000 00000000 00

2021-05-26 14:38:24 662 1

原创 Matlab 读取文件夹下的所有文件

maindir = 'your path' %你需要读的文件的文件夹subdir = dir(maindir); %结构体,包含该目录下的所有文件名for k = 1:size(subdir) if( isequal( subdir(k).name, '.' )||isequal( subdir(k).name, '..')) % 如果不是目录则跳过 continue; end data = importdata(fullfile(maindir, sub

2021-01-13 22:11:21 3291 1

原创 RuntimeError: CUDA error: CUBLAS_STATUS_ALLOC_FAILED when calling `cublasCreate(handle)`

RuntimeError: CUDA error: CUBLAS_STATUS_ALLOC_FAILED when calling cublasCreate(handle)Exception raised from createCublasHandle at …\aten\src\ATen\cuda\CublasHandlePool.cpp:8 (most recent call first):记录一下pytorch训练DCGAN的bug。。找了半天才发现,原来是判别器最后一行没加Sigmoid,导

2020-11-12 10:42:59 4187 1

原创 数据集乱序的几种方法

random.shuffle和numpy.random.shuffle的区别random.shuffle只能对一维list和两维list进行数据打乱numpy.random.shuffle可以对列表和数组进行数据打乱1. 使用索引值from random import shufflex_train, y_train = load_data()# 创建索引index = [i for i in range(len(x_train))]# 打乱索引shuffle(index)# 获得打乱的

2020-10-26 16:15:33 2875

原创 python实现数据顺序查找、二分查找,并进行算法分析

顺序查找Sequential Search无序表查找如果数据项保存在如列表这样的集合中,我们会称这些数据项具有线性或者顺序关系。在Python List中,这些数据项的存储位置称为下标( index) ,这些下标都是有序的整数。通过下标,我们就可以按照顺序来访问和查找数据项,这种技术称为“顺序查找”要确定列表中是否存在需要查找的数据项首先从列表的第1个数据项开始,按照下标增长的顺序,逐个比对数据项,如果到最后一个都未发现要查找的项,那么查找失败。代码很简单:def sequential

2020-07-02 00:15:33 841

原创 Python中numpy数组操作 包括改变、增删数据维度的一些函数方法总结

目录Numpy数组操作修改数组形状reshape(arr, newshape, order='C')flatflatten(order='C')ravel(a, order='C')翻转数组transpose(arr, axes)和.Trollaxis(arr, axis, start)swapaxes(arr, axis1, axis2)改变数据维度(增加、删除)expand_dims(arr, axis)squeeze(arr, axis)newaxis参考Numpy数组操作修改数组形状resha

2020-06-28 00:05:02 2037

原创 如何在Pytorch中使用TensorBoard

TensorBoard:TensorFlow中强大的可视化工具

2020-06-22 22:51:49 693

原创 机器学习中交叉熵和相对熵的关系

机器学习中交叉熵和相对熵的关系首先需要了解几个概念自信息: 描述单个事件的不确定性 I (x)=−log⁡[p(x)]\text { I }(x)=-\log [\boldsymbol{p}(\boldsymbol{x})] I (x)=−log[p(x)]信息熵:描述整个事件的不确定性,事件越不确定,熵也就越大。即对自信息在事件上的概率分布求期望 H(P) =Ex∼p[I(x)]=−∑iNP(xi)log⁡P(xi)\text { H(

2020-06-22 10:50:37 321

原创 有趣的动态规划实例——博物馆大盗问题

问题描述大盗潜入博物馆,面前有5件宝物,分别有重量和价值,大盜的背包仅能负重20公斤,请问如何选择宝物,总价值最高?物品重量价值1232343484585910动态规划解法明确问题以后,我们需要建立动态规划表格m[(i, w)]:其中 iii 是装物品的数量 ( 0≤i≤50\le i\le 50≤i≤5 ),www 是物品的载重 ( 0≤w≤200\le w\le 200≤w≤20 )mmm 则是这些物品的总价值, 也

2020-06-21 11:27:33 705

原创 Pytorch中的卷积操作——nn.Conv2d, nn.ConvTranspose2d

前言pytorch中用nn.Module实现卷积操作总共有3种Conv1d, Conv2d, Conv3d而这三种方式只是卷积核在不同的维度上进行卷积的结果,基本参数一致,这里以Conv2d为例进行介绍。nn.Conv2d(in_channels, out_ channels, kernel_ size, stride=1, padding=0, dilation=1, groups=1, bias=True, padding_mode=’ zeros’ )功能:对多个二维信号进行二维卷积主要参数

2020-06-16 20:57:56 1402

原创 Pytorch之nn.Module和Containers三种搭建模型方式

torch.nnnn.Parameter:张量子类表示可学习参数,如weight, biasnn.Module:所有网络层基类,管理网络属性nn.functional:函数具体实现,如卷积、池化、激活函数等nn.init:参数初始化方法nn.Module中重要属性parameters:存储管理nn.Parameter类modules:存储管理nn.Module类buffers :存储管理缓冲属性,如BN层中的running_ mean***_hooks:存储管理钩子函数self.

2020-06-16 15:44:25 210

原创 python读取和保存mat文件、读取pickle文件并转化为mat文件

使用scipy.io进行mat文件的读取和保存打开mat文件后,数据被存储于字典之中,假设我们该例子mat中字典名称为data,需要在loadmat后通过字典调用数据。import scipy.io as sioopen_path='/.mat' # 需要打开的文件路径save_path='/.amt' # 需要保存的文件路径dataset = sio.loadmat(open_path)['data'] # 数据读取sio.savemat(save_path, {'dict_name'

2020-05-29 12:12:53 2095

原创 LSTM在keras中参数return_sequences、return_state的区别(代码详细对比)

一、定义return_sequences:默认为false。当为false时,返回最后一层最后一个步长的hidden state;当为true时,返回最后一层的所有hidden state。return_state:默认false.当为true时,返回最后一层的最后一个步长的输出hidden state和输入cell state。二、实例验证下图的输入是一个时间步长为3,维度为1的数组。一共有2层神经网络(其中第一层必须加上“return_sequences=True”,这样才能转化

2020-05-28 16:03:38 780

原创 tensorflow2.0用RNN实现股票预测

前言关于RNN的具体结构和计算过程这里就不过多的进行赘述了,还不知道的小伙伴可以问下度娘或者谷歌。(本文是学习了北京大学曹健老师的tensorflow课程所做笔记,仅供参考)数据分析在股票数据上我们使用tushare财经数据接口包,用该模块下载近10年的SH600519贵州茅台的日K线数据。改写6位数的股票代码即可下载我们需要的股票历史数据。import tushare as tsdf1 = ts.get_k_data('600519', ktype='D', start='2010-04-26

2020-05-25 22:50:37 2253 3

原创 深度卷积生成对抗网络DCGAN之实现动漫头像的生成(基于keras Tensorflow2.0实现)

起飞目录DCGAN简介反卷积(上采样upsampling2D)数据集代码实战数据导入和预处理生成器G判别器D训练模块完整代码结果DCGAN简介原始GAN在图片生成方面具有一定的缺陷:存在训练不稳定,训练过程中梯度易消失等一系列问题。而DCGAN(Deep Convolutional Generative Adeversarial Networks)深度卷积生成对抗网络,最主要是在原始GAN的基础上加入了卷积和反卷积(上采样)的操作,而CNN卷积神经网络在处理和提取图片特征的工作中具有明显的先天优势,所

2020-05-22 13:19:41 5820 26

原创 生成式对抗网络GAN之实现手写字体的生成(基于keras Tensorflow2.0实现)详细分析训练过程和代码

????目录生成式对抗网络简介代码实战模型整体搭建生成器模型判别器模型训练模块完整代码结果生成式对抗网络简介生成式对抗网络(GAN, Generative Adversarial Networks )是一种深度学习模型,是近年来复杂分布上无监督学习最具前景的方法之一。模型通过框架中(至少)两个模块:生成模型(Generative Model)和判别模型(Discriminative Model)的互相博弈学习产生相当好的输出。(参考百度百科)简单来说,GAN通过生成器和判别器的相互博弈,首先训练判别

2020-05-21 20:27:11 4390 7

原创 Pytorch之图像预处理transforms(常用操作汇总)

Pytorch Transforms操作汇总数据增强(Data Augmentation)torchvision计算机视觉工具包torchvision.transforms :常用的图像预处理方法transforms.Compose (transforms)1.图像裁切(Crop)transforms.RandomCrop(size, padding=None, pad_if_needed=False, fill=0, padding_mode='constant')transforms.CenterCro

2020-05-15 16:43:27 10445

原创 从零开始入门学习pytorch之DataLoader和Dataset

torch.utils.data.DataloaderDataLoader( dataset,batch_ size=1,shuffle=False,sampler=None,batch_ sampler=None ,num workers=0,collate_ fn=None ,pin_ memory=False,drop_ last=False,timeout=0 ,worker_ init_ fn=None ,multiprocessing context=None )功能:

2020-05-13 20:13:48 235

原创 从零开始入门学习pytorch之逻辑回归

逻辑回归简介逻辑回归是线性的二分类模型,是分析自变量x和因变量y(概率)之间关系的方法模型表达式:f(x)称为sigmoid函数,也称为Logistic函数,其图像如下图所示将输入x映射到输出y上,然后通过逻辑回归函数将f(x)大于0.5令为标签1,而小于0.5为标签0,对输入的x进行二分类的逻辑回归。代码实现import torchimport torch.nn as nnimport matplotlib.pyplot as pltimport numpy as nptorch

2020-05-13 12:28:46 588

原创 从零入门学习pytorch之自动求导系统autograd

torch. autograd.backward(tensors, grad_ tensors=None, retain_ graph=None, create_ .graph=False)功能:自动求取梯度tensors:用于求导的张量,如lossretain_ graph:保存计算图create_ graph :创建导数计算图,用于高阶求导grad_ tensors :多梯度权重torch. autograd. grad (outputs, inputs,

2020-05-13 00:02:23 124

原创 从零开始学习pytorch之计算图与动态图机制

计算图(Computational Graph)前言在学习了张量的一系列操作后,我们知道深度学习就是对张量进行计算和操作。随着张量种类和计算的增多,会导致各种各样想不到的问题,比如我们多个操作之间该并行还是顺序执行;如何协同各种底层设备以及如何避免各种冗余的操作等等,这些问题都会影响到我们的运算效率,甚至都会引入到一些不必要的bug,而计算图就是为了解决这一个问题而产生的。计算图是用来描述运算的有向无环图。计算图有两个主要元素:节点(Node)和边(Edge),节点表示数据,如向量、矩阵;张

2020-05-10 00:11:59 605

原创 从零开始学习pytorch之线性回归

代码实现代码实现较简单,且注释很完整就不在一一赘述。import torchimport matplotlib.pyplot as plt# 随机数种子,保证每次随机数产生是一样的torch.manual_seed(10)# 学习率lr = 0.1# 创建数据集20个点(x,y)x = torch.rand(20,1)*10y = 2*x + (5 + torch.randn(20, 1))# 初始化可训练指标w和bw = torch.randn((1), requires_grad

2020-05-09 12:11:56 235

原创 从零开始学习Pytorch之张量的数学运算

一、加减乘除torch.add(input, alpha=1, other, out=None)功能:逐元素计算input+alpha×other·input:第一个张量·alpha:乘项因子·other:第二个张量t1 = torch.randn((3,3))#3×3的标准正态分布矩阵t2 = torch.ones_like(t1)t_add = torch.add(t1, 10, t2)print('t1:\n{}\nt2:\n{}\nt_add:\n{}'.format(t1,t2,

2020-05-08 18:59:51 636

原创 从零开始学习pytorch之张量的操作:拼接、切分、索引和变换

张量的拼接torch.cat(tensors, dim=0, out=None)功能:将张量按维度dim进行拼接·tensors:张量序列·dim:要拼接的维度import torcht = torch.ones((2,3))t_0 = torch.cat([t,t], dim=0)t_1 = torch.cat([t,t], dim=1)print('t_0:{} shape:{}\nt_1:{} shape:{}'.format(t_0,t_0.shape,t_1,t_1.shape)

2020-05-08 17:39:24 401

原创 找零兑换问题:递归解法

引言用递归解决找零兑换问题,首先先要明确递归三定律1.最小规模问题(基本结束条件)2.减小问题规模(向结束条件演进)3.解决减小了规模的相同问题(调用自身)应用到实际找零兑换的问题上,首先明确最小规模问题:需要兑换的找零,其面值正好等于某种硬币。如我们需要找零25分,刚好有25分面值的硬币,这里就只需要1个硬币就可完成找零。其次是减小问题的规模:对每种硬币的面值分别尝试。如美元硬币...

2020-05-08 13:19:05 1880 2

原创 tf2.0入门之fashion_mnist图片分类并完成给图识物

Fashion_mnist数据集简介import tensorflow as tfimport tensorflow as tffrom PIL import Imageimport numpy as npimport matplotlib.pyplot as plt#导入数据集(x_train, y_train),(x_test, y_test) = tf.keras.datase...

2020-04-22 20:33:14 1318 1

原创 tf2.0入门实战,神经网络实现简单的分类任务

tf2.0单层神经网络实现鸢尾花分类导入数据和标签数据集打乱分割训练集和测试集转换x数据类型,否则要报错配成【输入特征,标签】对,每次喂入一小撮batch初始化可训练参数嵌套循环迭代,with结构更新参数,显示当前loss损失函数图像正确率图像欢迎使用Markdown编辑器新的改变功能快捷键合理的创建标题,有助于目录的生成如何改变文本的样式插入链接与图片如何插入一段漂亮的代码片生成一个适合你的列表...

2020-04-08 09:23:16 619

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除