1 troublemaker、

尚未进行身份认证

零基础的研究生

等级
TA的排名 13w+

pytorch搭建RNN-LSTM循环神经网络[分类]详解

因为RNN在长序列中进行反向传播,很可能会出现梯度消失或者梯度爆炸的情况,而LSTM能解决该问题,下面就使用LSTM对MNIST数据集进行分类操作这里主要讲解搭建RNN部分,其他部分和前文中CNN搭建类似。可参考pytorch搭建CNN卷积神经网络详解???? 搭建LSTM 重要!:class LSTM_RNN(nn.Module): """搭建LSTM""" ...

2020-04-06 21:23:04

pytorch搭建CNN卷积神经网络详解

个人觉得应该先写卷积操作的常见技术和公式操作,才能对卷积输入维度(结果),输出维度(结果)有更直观的了解吧。简单介绍一下卷积的常用trick:PaddingStriding下方是输入输出公式(本人开始也很困惑,找到对应公式后,就十分明朗了):n:原始输入的维度 | f:卷积核的大小 | p:padding的大小| s:stride的大小no padding: n - ...

2020-04-06 16:15:08

python中list-numpy.array-torch.tensor互相转换

⭐️list 转 numpyndarray = np.array(list)⭐️list 转 Tensortensor = torch.Tensor(list)⭐️numpy 转 listlist = ndarray.tolist()⭐️numpy 转 Tensortensor = torch.from_numpy(ndarray)⭐️Tensor 转 list...

2020-03-31 20:46:25

pytorch中SGD/Momentum/RMSprop/Adam优化器的简单比较

SGD是比较普通的优化器(其实SDG也挺好的)Momentum是SGD的升级版,代码里可看到和SGD用的也是同一个函数,只是加了动量RMSprop是Momentum的升级版Adam是RMSprop的升级版设置超参,准备数据 利用之前的回归来实现# 超参数LR = 0.01batch_size = 10epoches = 3torch.manual_seed(15)# 准备...

2020-03-30 14:39:18

pytorch中的批训练(batch)

用pytorch进行批训练其实很简单,只要把数据放入DataLoader(可以把它看成一个收纳柜,它会帮你整理好)大概步骤:生成X,Y数据将X,Y数据转为datasetdataset = Data.TensorDataset(X,Y)将dataset放入DataLoader中loader = Data.DataLoader( dataset=dataset, ...

2020-03-30 13:03:17

pytorch中torch.manual_seed()的理解

使用????:为CPU中设置种子,生成随机数torch.manual_seed(number)为特定GPU设置种子,生成随机数torch.cuda.manual_seed(number)为所有GPU设置种子,生成随机数torch.cuda.manual_seed_all()使用原因????:在需要生成随机数据的实验中,每次实验都需要生成数据。设置随机种子是为了确保每次生...

2020-03-30 11:26:21

python匹配包含文本的txt文件名

def find_file(content, file_dir): """ 匹配包含文本的txt文件 :param content: 文本 :param file_dir: txt所在文件目录 :return: 文件名 """ file_list = [] for file in os.listdir(file_dir): ...

2020-03-27 11:40:13

python找文字在对应文本中的索引

def find_idx(father_text, son_text): """ 匹配文本内容在文本中的索引 :param father_text: 文本 :param son_text: 文本中的文字 :return: 返回包含开始索引和结束索引的list """ start_position = father_text.index(son...

2020-03-27 11:32:48

解决Jupyter一次只能上传一个文件问题

Jupyter使用起来十分方便,碍于它一次只能传一个文件,操作实在繁琐,有的项目文件真的是好多文件,一个个上传真的会傻的 ????????????。那我们现在来一次直接传完他方法 ????:将的项目进行压缩,并上传到 Jupyter上(这样就上传了一次)在 Jupyter上新建一个处理压缩文件的脚本就ok了!!!解压代码:import zipfileimport osfile=zip...

2020-03-27 10:53:24

pytorch中保存网络和提取网络

保存网络:# 保存全部网络torch.save(网络, 网络名)# 只保存网络参数torch.save(网络.state_dict(), 网络名)保存整个网络,不需要再搭建结构;只保存网络参数需要在搭建之前一样的网络结构,再将参数放进去。就好比前者是去饭店直接买来一碗色香俱全的酸菜鱼,后者是老板加什么调料,多少调料,煮多久都告诉你,你回家自己做,,做完就和直接买来的一样了。据说只...

2020-03-23 22:21:54

pytorch快速搭建神经网络_Sequential

之前用Class类来搭建神经网络class Neuro_net(torch.nn.Module): """神经网络""" def __init__(self, n_feature, n_hidden_layer, n_output): super(Neuro_net, self).__init__() self.hidden_layer = tor...

2020-03-23 17:02:49

pytorch_搭建简单神经网络(分类)

用pytorch搭建神经网络,将数据分成两类环境 pytoch1.1.01. 生成训练数据# 准备数据data = torch.ones(100, 2)x1 = torch.normal(mean=2*data, std=1)y1 = torch.zeros(100) # x1 对应的标签x2 = torch.normal(mean=-2*data, std=1)y2...

2020-03-23 16:38:23

常备conda常用命令

显示所有的虚拟环境conda env listconda info --envs创建虚拟环境conda create -n xxxx python=3.6激活虚拟环境conda activate xxxx关闭虚拟环境conda deactivate删除虚拟环境conda remove -n xxxx --all重命名虚拟...

2020-03-23 15:30:42

pytorch—搭建简单神经网络(回归)

用pytorch搭建神经网络,拟合曲线: y=x2y=x^2y=x2环境 pytoch1.1.01. 生成训练数据# 准备数据x_data = torch.unsqueeze(torch.linspace(-1, 1, 100), dim=-1)y_data = x_data.pow(2)# 通过matplotlib可视化生成的数据# plt.scatter(x_data.n...

2020-03-20 21:25:21

pytorch中的relu,sigmiod,tanh等激励函数(激活函数)

什么是激励函数(激活函数):在神经网络中原本输入输出都是线性关系,但现实中,许多的问题是非线性的(比如,房价问题中,房价不可能随着房子面积的增加一直线性增加),这个时候就神经网络的线性输出,再经过激励函数,便使得原本线性的关系变成非线性了,增强了神经网络的性能。常用的激励函数(激活函数):relu,sigmoid,tanh,softmax,softplustorch 实现激励函数(...

2020-03-20 17:32:49

word交叉引用——在正文中给参考文献做链接

word交叉引用只需两步即可,3分钟即会第一步: 插入编号文档中有如下参考文献,但还没有[1],[2],[3]等编号。那么先给参考文献编号序号,使用word—>开始—>编号接下来给参考文献标好序号,光标选到某参考文献前,点编号即可自动编号,如下图所示标完序号如图所示第二步:正文引用编号将光标定位在正文中需要插入参考文献上标的地方,点击“...

2020-03-19 11:36:14

论文中的常见缩写(w.r.t/i.e./et al等)的意思

w.r.t:with respect to的缩写,意思是关于、谈到、涉及等。i.e.:id est的缩写,意思是即,换句话说等。et al. :et alia(“and others;and co-workers”)的缩写,意思是:其他人、等人。通常在列文献作者时使用,把主要作者列出后,其他作者放在et al.中。e.g.:exempli gratia的缩写,意思是列,例如。etc.:e...

2020-03-17 14:30:47

Ubuntu镜像.ios文件极速下载

官网下载地址(…慢…慢…):Ubuntu官网:https://ubuntu.com官网下载地址:http://releases.ubuntu.com/18.04/需要下"16.04"或其他版本的:只需把"18.04"改成对应版本极速下载地址:阿里云镜像:http://mirrors.aliyun.com/ubuntu-releases/14.04/需要下"16.04...

2020-03-13 20:57:37

pytorch中的Variable——反向传播必备

什么是Variable?在pytorch中tensor是tensor的数据格式,variable是variable的数据格式,那tensor和variable有什么区别呢?variable是tensor的封装,其实variable也是tensor生成的(tensor是variable他爸)。在神经网络中,常需要反向传播这些的,所以需要各个节点是连接在一起的,是个计算图。tensor的数...

2020-03-11 16:49:53

Torch和Numpy之间的简单对比

numpy和torch两者用法十分相似,torch可以说是神经网络中的numpy。numpy和torch之间的互相转换:import torchimport numpy as npnp_data = np.arange(6).reshape(2, 3)print("Numpy 数据:", np_data)torch_data = torch.tensor([[0, 1, 2], ...

2020-03-10 20:25:20

查看更多

勋章 我的勋章
  • 签到新秀
    签到新秀
    累计签到获取,不积跬步,无以至千里,继续坚持!
  • 技术圈认证
    技术圈认证
    用户完成年度认证,即可获得
  • 新人勋章
    新人勋章
    用户发布第一条blink获赞超过3个即可获得
  • 持之以恒
    持之以恒
    授予每个自然月内发布4篇或4篇以上原创或翻译IT博文的用户。不积跬步无以至千里,不积小流无以成江海,程序人生的精彩需要坚持不懈地积累!
  • 1024勋章
    1024勋章
    #1024程序员节#活动勋章,当日发布原创博客即可获得
  • 勤写标兵Lv3
    勤写标兵Lv3
    授予每个自然周发布7篇到8篇原创IT博文的用户。本勋章将于次周周三上午根据用户上周的博文发布情况由系统自动颁发。