- 博客(19)
- 收藏
- 关注
原创 2020-11-27
如何将本地的项目通过git上传到GitHub1.将本地文件上传到本地仓库中,也就是文件夹的拿个.git中git add .2.输入git commit -m "add" 提交到本地的版本控制库里,引号里面是你对本次提交的说明信息。git commit -m "add"3.将本地的文件上传到远程仓库中git push -u origin master...
2020-11-27 21:30:54 103
原创 pytorch安装带gpu时, ImportError: DLL load failed: 找不到指定的模块
出现ImportError: DLL load failed: 找不到指定的模块 这个问题时可以选择安装版本较低的cuda,即torch官网中安装9.2版本的cuda
2019-11-08 09:23:48 627
原创 关于使用谷歌云盘中免费GPU(Google Colab Colaboratory)出现的关联不显示解决方法
1.设置-管理应用-Google Colaboratory 勾选“默认情况下使用”。2.直接访问 https://colab.research.google.com 创建NoteBook就可以了。在NoteBook里面写的代码会自动同步到谷歌云盘里面。以后打开方式里面就有Google Colaboratory了。解决方法从关联那里下面的评论里找的...
2019-08-10 22:56:57 2671
原创 力扣刷题1——无重复字符的最长字串
时间 :19/1/3题目:给定一个字符串,请你找出其中不含有重复字符的 最长子串 的长度。网址:https://leetcode-cn.com/problems/longest-substring-without-repeating-characters/comments/示例:输入: "abcabcbb" 输出: 3 解释: 因为无重复...
2019-01-03 23:02:12 746
转载 莫烦pytorch学习笔记(十三)——LSTM循环神经网络
高级神经网络——LSTM循环神经网络RNN的弊端之前我们说过, RNN 是在有顺序的数据上进行学习的. 为了记住这些数据, RNN 会像人一样产生对先前发生事件的记忆. 不过一般形式的 RNN 就像一个老爷爷, 有时候比较健忘. 为什么会这样呢?想像现在有这样一个 RNN, 他的输入值是一句话: ‘我今天要做红烧排骨, 首先要准备排骨, 然后…., 最后美味的一道菜就出锅了’, shu...
2018-08-03 09:50:42 2017
原创 莫烦pytorch学习笔记(十二)——循环神经网络RNN(Recurrent Neural Network)
高级神经网络结构——循环神经网络RNN序列数据我们想象现在有一组序列数据 data 0,1,2,3. 在当预测 result0 的时候,我们基于的是 data0, 同样在预测其他数据的时候, 我们也都只单单基于单个的数据. 每次使用的神经网络都是同一个 NN. 不过这些数据是有关联 顺序的 , 就像在厨房做菜, 酱料 A要比酱料 B 早放, 不然就串味了. 所以普通的神经网络结构并不能让 ...
2018-08-03 09:33:52 1033
原创 莫烦pytorch学习笔记(十二)——什么是卷积神经网络CNN(Convolutional Neural Network)
高级神经网络——什么是什么是卷积神经网络CNN(Convolutional Neural Network)卷积神经网络是近些年逐步兴起的一种人工神经网络结构, 因为利用卷积神经网络在图像和语音识别方面能够给出更优预测结果, 这一种技术也被广泛的传播可应用. 卷积神经网络最常被应用的方面是计算机的图像识别, 不过因为不断地创新, 它也被应用在视频分析, 自然语言处理, 药物发现, 等等. 近期最...
2018-08-02 20:04:41 1061
原创 莫烦pytorch学习笔记(十一)——Optimizer优化器
建造第一个神经网络——Optimizer优化器要点这节内容主要是用 Torch 实践,中起到的几种优化器。下图就是这节内容对比各种优化器的效果:伪数据为了对比各种优化器的效果, 我们需要有一些数据, 今天我们还是自己编一些伪数据, 这批数据是这样的:import torchimport torch.utils.data as Dataimport tor...
2018-08-02 16:00:50 6041
原创 莫烦pytorch学习笔记(十)——加速神经网络训练
建造第一个神经网络——加速神经网络训练加速神经网络训练包括下面几种模式:Momentum AdaGrad RMSProp Adam Stochastic Gradient Descent (SGD)越复杂的神经网络 , 越多的数据 , 我们需要在训练神经网络的过程上花费的时间也就越多. 原因很简单, 就是因为计算量太大了. 可是往往有时候为了解决复杂的问题, 复杂的结构和大数据又...
2018-08-02 11:18:49 1838
原创 莫烦的学习笔记(九)——批训练
建造第一个神经网络——批训练1.要点Torch 中提供了一种帮你整理你的数据结构的好东西, 叫做 DataLoader, 我们能用它来包装自己的数据, 进行批训练. 而且批训练可以有很多种途径。2.DataLoaderDataLoader 是 torch 给你用来包装你的数据的工具. 所以你要讲自己的 (numpy array 或其他) 数据形式装换成 Tensor, 然后再放进这...
2018-08-02 10:03:04 3954 5
原创 莫烦pytorch学习笔记(八)——保存提取
建造第一个神经网络——保存提取1.要点训练好一个模型,我们当然想要保存它, 留到下次要用的时候直接提取直接用, 这就是这节的内容啦。我们用回归的神经网络举例实现保存提取。2.保存我们快速地建造数据,搭建网络:torch.manual_seed(1) # reproducible# 假数据x = torch.unsqueeze(torch.linspace(-1, ...
2018-08-01 16:46:53 1296
原创 莫烦pytorch学习笔记(七)——快速搭建法
建造第一个神经网络——快速搭建法1.要点Torch 中提供了很多方便的途径, 同样是神经网络, 能快则快。本篇博客我们看看如何用更简单的方式搭建同样的回归神经网络。2.快速搭建之前写神经网络时用到的步骤,我们用net代表这种方式搭建的神经网络。class Net(torch.nn.Module): def __init__(self, n_feature, n_hid...
2018-07-31 20:29:41 587
原创 莫烦pytorch学习笔记(六)——区分类型(分类)
建立第一个神经网络——区分类型(分类)1.要点上一节学习笔记(五)讲到,神经网络有两类,回归和分类,上节简单介绍了回归,本节介绍分类。2.建立数据集import torchimport matplotlib.pyplot as plt# 假数据n_data = torch.ones(100, 2) # 数据的基本形态x0 = torch.normal(2...
2018-07-31 20:03:17 1714 1
原创 莫烦pytorch学习笔记(五)——关系拟合(回归)
建造第一个神经网络——关系拟合(回归)1.要点神经网络分为两种类型,一种回归,一种分类。回归是连续的值,比如房价问题;分类是一堆数据,比如一堆图片,神经网络将起划分为两种不同类型。2.建立数据集我们创建一些假数据来模拟真实的情况. 比如一个一元二次函数: y = a * x^2 + b, 我们给 y 数据加上一点噪声来更加真实的展示它。import torchfrom to...
2018-07-31 16:11:12 2885
原创 莫烦pytorch学习笔记(四)——激励函数(Activation)
1.什么是Activation普通神经网络出来的数据都是一个线性的数据,将输出来的结果用激励函数处理。2.Torch中的激励函数import torchimport torch.nn.functional as F # 激励函数都在这,nn是神经网络模块from torch.autograd import Variable# 做一些假数据来观看图像,-5到5,取200...
2018-07-31 14:30:04 1797
原创 莫烦pytorch学习笔记(三)——激励函数(Actibvation Function)
1.非线性方程我们为什么要使用激励函数?因为激励函数是为了解决我们日程生活中不能用线性方程所概括的问题。什么是线性方程(linear function)?y随x变化而线性变化的方程叫线性方程。可知,非线性方程是y不随x变化线性变化的方程。激励函数的作用就是为了让线性方程变成非线性方程,简而言之就是让直线变弯,“掰弯”线性方程。2.激励函数y=AF(Wx),其中AF指的就是激励函...
2018-07-31 12:47:27 911
原创 莫烦pytorch学习笔记(二)——变量(Variable)
1.什么是Variable 在torch中的Variable就是一个存放会变化的值的地理位置。里面的值会不停发生变化,就像一个装鸡蛋的篮子,鸡蛋数会不断发生变化。那谁是里面的鸡蛋呢,自然就是torch的Tensor了(换言之就是torch是用tensor计算的,tensor里面的参数都是variable的形式),如果用Variable进行计算,那返回的也是一个同类型的Variable...
2018-07-30 20:42:00 9324 1
原创 莫烦pytorch学习笔记(一)——torch or numpy
1. 用 Numpy 还是 TorchTorch 自称为神经网络界的 Numpy, 因为他能将 torch 产生的 tensor 放在 GPU 中加速运算 (前提是你有合适的 GPU), 就像 Numpy 会把 array 放在 CPU 中加速运算.所以神经网络的话, 当然是用 Torch 的 tensor 形式数据最好咯. 就像 Tensorflow 当中的 tensor 一样.当然, 我们...
2018-07-30 19:39:15 1101
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人