自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(61)
  • 资源 (1)
  • 收藏
  • 关注

转载 算法—经验模态分解

简介我们在实践中必须处理的所有真实过程都很复杂,作为一项原则,包含大量的分量。例如天气。在分析降水图时,我们应记住,它们表示各种各样的过程的互动,例如季节变换、全球变暖/变冷过程、洋流变化、气旋和反气旋的动态、排放到大气中的二氧化碳的量、太阳活动周期等,内容不胜枚举。 因此很难分析此类图,因为其分量在相互作用时会遮挡我们要识别的规律或让规律扭曲。这样会让人有理由出现将考虑的过程分解为单个分...

2018-08-28 20:24:51 42694 9

原创 cnn_lstm资料汇总

1、keras/examples at master · keras-team/keras · GitHubhttps://github.com/keras-team/keras/tree/master/examples(上面有keras的各种案例,包括convLSTM,也是采用1D卷积)2、deep learning - CNN-LSTM in Keras: Dimension Error - ...

2018-03-30 14:14:28 3291 1

转载 tflearn 保存模型重新训练

tflearn 保存模型重新训练 - bonelee - 博客园https://www.cnblogs.com/bonelee/p/8582381.html

2018-03-29 09:07:38 1813

原创 eary stop(收藏,待整理)

Tensorflow实现卷积神经网络,用于人脸关键点识别 - 神经网络与深度学习-炼数成金-Dataguru专业数据分析社区http://f.dataguru.cn/thread-843155-1-1.html用DNN对Iris数据分类的代码--tensorflow--logging/monitoring/earlystopping/visualizing - CSDN博客https://blog...

2018-03-29 09:04:21 332

原创 TnesorBoard使用方法(待更新)

TnesorBoard菜鸟教程(包含TFlearn例子) - CSDN博客https://blog.csdn.net/hwj_wayne/article/details/78224599tensorflow中如何进行可视化和减轻过拟合 - 云计算技术频道 - 红黑联盟https://www.2cto.com/net/201708/669715.html...

2018-03-29 08:58:53 491

原创 教程网站

强化学习 Reinforcement Learning 教程系列 | 莫烦Pythonhttps://morvanzhou.github.io/tutorials/machine-learning/reinforcement-learning/例子 Examples — TensorLayer 中文版 1.7.4 文档http://tensorlayercn.readthedo

2018-03-29 08:57:27 335

转载 BN的具体实现

Implementing Batch Normalization in Tensorflow - R2RThttps://r2rt.com/implementing-batch-normalization-in-tensorflow.html

2018-03-26 20:44:15 1567

转载 终于理解了RNN里面的time_step

TensorFlow中RNN实现的正确打开方式https://zhuanlan.zhihu.com/p/28196873TensorFlow中RNN实现的正确打开方式何之源8 个月前上周写了一篇文章介绍了一下RNN的几种结构,今天就来聊一聊如何在TensorFlow中实现这些结构,这篇文章的主要内容为:一个完整的、循序渐进的学习TensorFlow中RNN实现的方法。这个学习路径的曲线较为平缓,应...

2018-03-25 09:53:03 30974 18

转载 python怎样安装whl文件

python怎样安装whl文件_百度经验https://jingyan.baidu.com/article/d45ad14857168e69552b801f.htmlpython怎样安装whl文件|浏览:1627|更新:2017-06-07 13:32|标签:PYTHON 123456

2018-01-15 17:05:13 642

转载 TensorFlow--tf.concat

tf.concat是连接两个矩阵的操作tf.concat(concat_dim, values, name='concat')除去name参数用以指定该操作的name,与方法有关的一共两个参数:第一个参数concat_dim:必须是一个数,表明在哪一维上连接     如果concat_dim是0,那么在某一个shape的第一个维度上连,对应到实际,就是叠

2018-01-13 22:16:55 215

转载 TensorFlow--tf.get_variable

tf.get_variable(name,  shape, initializer): name就是变量的名称,shape是变量的维度,initializer是变量初始化的方式,初始化的方式有以下几种:tf.constant_initializer:常量初始化函数tf.random_normal_initializer:正态分布tf.truncated_normal_initializ

2018-01-13 21:27:56 391

转载 TensorFlow--tf.Variable

tf.Variable(initializer, name):initializer是初始化参数,可以有tf.random_normal,tf.constant,tf.constant等,name就是变量的名字,用法如下:[python] view plain copyimport tensorflow as tf;    import 

2018-01-13 20:55:53 237

转载 Numpy--np.identity

两个函数的原型为:np.identity(n, dtype=None)np.eye(N, M=None, k=0, dtype=);np.identity只能创建方形矩阵np.eye可以创建矩形矩阵,且k值可以调节,为1的对角线的位置偏离度,0居中,1向上偏离1,2偏离2,以此类推,-1向下偏离。值绝对值过大就偏离出去了,整个矩阵就全是0了

2018-01-13 20:54:00 867

转载 TensorFlow--tf.nn.rnn_cell.DrououtWrapper

tf.nn.rnn_cell.DrououtWrapper(cell, input_keep_prob=1.0, output_keep_prob=1.0)主要的参数就是三个,第一个就是输入的循环神经网络的cell,可以设定为BasicLSTMCell等等。第二个参数就是输入数据使用dropout,后面的概率,如果是1,就不会执行dropout。第三个参数是一样的意思,即输出数据使

2018-01-11 19:05:51 913

转载 Tensorflow--tf.nn.rnn_cell.BasicLSTMCell

tf.nn.rnn_cell.BasicLSTMCell(n_hidden, forget_bias=1.0, state_is_tuple=True): n_hidden表示神经元的个数,forget_bias就是LSTM们的忘记系数,如果等于1,就是不会忘记任何信息。如果等于0,就都忘记。state_is_tuple默认就是True,官方建议用True,就是表示返回的状态用一个元祖

2018-01-11 18:56:10 5903

转载 Tensorflow--tf.reshape

tf.reshape(tensor, shape, name=None) 函数的作用是将tensor变换为参数shape的形式。 其中shape为一个列表形式,特殊的一点是列表中可以存在-1。-1代表的含义是不用我们自己指定这一维的大小,函数会自动计算,但列表中只能存在一个-1。(当然如果存在多个-1,就是一个存在多解的方程了)好了我想说的重点还有一个就是根据shape如何变换矩阵

2018-01-11 18:43:31 232

原创 LSMT

零基础入门深度学习(6) - 长短时记忆网络(LSTM) - 作业部落 Cmd Markdown 编辑阅读器 https://zybuluo.com/hanbingtao/note/581764 该篇文章讲解清晰。注意“门”的理解:就是一个开关。门打开,信息通过,关上,信息不通过。一共有三个门,遗忘门,输入门,输出门。 遗忘门是通过h(t-1)和x(t)产生针对C(t-1)是否通过的门信号;输

2018-01-05 12:01:07 2635

转载 RNN. LSTM matlab

版权声明:本文为博主原创文章,未经博主允许不得转载。最近在学习RNN和LSTM,(1): http://magicly.me/2017/03/09/iamtrask-anyone-can-code-lstm/(2):  https://zybuluo.com/hanbingtao/note/581764(3): http://blog.sina.com.cn

2018-01-04 22:21:38 3615 2

转载 使用交叉熵作为代价函数

二次代价函数(quadratic cost):其中,C表示代价函数,x表示样本,y表示实际值,a表示输出值,n表示样本的总数。例如:假如我们使用梯度下降法(Gradient descent)来调整权值参数的大小,权值w和偏置b的梯度推导如下:其中,z表示神经元的输入。w和b的梯度跟激活函数的梯度成正比,激活函数的梯度越大,

2017-12-26 20:46:18 1503

转载 MATLAB-size

例如:x=[1,2,3;4,5,6]是一个2*3的矩阵,则:d = size(X);    %返回矩阵的行数和列数,保存在d中[m,n] = size(X)%返回矩阵的行数和列数,分别保存在m和n中m = size(X,dim);%返回矩阵的行数或列数,dim=1返回行数,dim=2返回列数

2017-12-26 15:46:55 275

原创 NN代码解析

function nn = nnbp(nn)%NNBP performs backpropagation% nn = nnbp(nn) returns an neural network structure with updated weights n = nn.n; sparsityError = 0; switch nn.output c

2017-12-26 15:07:36 3068

转载 梯度检验

0. 引言对于一个函数来说,通常有两种计算梯度的方式:数值梯度(numerical gradient);解析梯度(analytic gradient);数值梯度的优点是容易编程实现,不要求函数可微,然而,数值梯度缺点很明显,通常是近似解,同时求解速度很慢,因此在设计机器学习目标函数时,通常设计成可微的函数,可以快速地求解其解析梯度,同时这个梯度是确切解。1. 为何进

2017-12-26 11:02:16 6830

转载 Levenberg-Marquardt(列文伯格-马夸尔特)算法

什么是最优化?Levenberg-Marquardt算法是最优化算法中的一种。最优化是寻找使得函数值最小的参数向量。它的应用领域非常广泛,如:经济学、管理优化、网络分析 、最优设计、机械或电子设计等等。根据求导数的方法,可分为2大类。第一类,若f具有解析函数形式,知道x后求导数速度快。第二类,使用数值差分来求导数。根据使用模型不同,分为非约束最优化、约束最优化、最小二乘

2017-12-25 20:13:57 16735 4

转载 二分K-means算法

前面我们在是实现K-means算法的时候,提到了它本身存在的缺陷:1.可能收敛到局部最小值 2.在大规模数据集上收敛较慢对于上一篇博文最后说的,当陷入局部最小值的时候,处理方法就是多运行几次K-means算法,然后选择畸变函数J较小的作为最佳聚类结果。这样的说法显然不能让我们接受,我们追求的应该是一次就能给出接近最优的聚类结果。其实K-means的缺点的根本原因

2017-12-25 20:12:55 872

转载 k均值聚类

1.K-均值聚类法的概述   之前在参加数学建模的过程中用到过这种聚类方法,但是当时只是简单知道了在matlab中如何调用工具箱进行聚类,并不是特别清楚它的原理。最近因为在学模式识别,又重新接触了这种聚类算法,所以便仔细地研究了一下它的原理。弄懂了之后就自己手工用matlab编程实现了,最后的结果还不错,嘿嘿~~~  简单来说,K-均值聚类就是在给定了一组样本(x1, x2, ..

2017-12-25 19:06:31 684 1

转载 K-折交叉验证(k-fold crossValidation)

k-重交叉验证(k-fold crossValidation):定义: 在机器学习中,将数据集A分为训练集B(training set)和测试集C(test set),在样本量不充足的情况下,为了充分利用数据集对算法效果进行测试,将数据集A随机分为k个包,每次将其中一个包作为测试集,剩下k-1个包作为训练集进行训练。[M,N]=size(data);//数据

2017-12-25 18:41:57 34059 1

转载 RNN

一、RNN简介RNN的目的使用来处理序列数据。在传统的神经网络模型中,是从输入层到隐含层再到输出层,层与层之间是全连接的,每层之间的节点是无连接的。但是这种普通的神经网络对于很多问题却无能无力。例如,你要预测句子的下一个单词是什么,一般需要用到前面的单词,因为一个句子中前后单词并不是独立的。RNNs之所以称为循环神经网路,即一个序列当前的输出与前面的输出也有关。具体的表现形式为网络会对前面的信

2017-12-05 22:24:27 820

原创 稀疏度MATLAB源码分析

目前为止,我们已经讨论了神经网络在有监督学习中的应用。在有监督学习中,训练样本是有类别标签的。现在假设我们只有一个没有带类别标签的训练样本集合  ,其中  。自编码神经网络是一种无监督学习算法,它使用了反向传播算法,并让目标值等于输入值,比如  。下图是一个自编码神经网络的示例。自编码神经网络尝试学习一个  的函数。换句话说,它尝试逼近一个恒等函数,从而使得输出  

2017-12-04 15:17:32 3373

原创 MATLAB—反向传播

function nn = nnbp(nn)%NNBP performs backpropagation% nn = nnbp(nn) returns an neural network structure with updated weights n = nn.n;%先让n=nn.n,就是最后一层输出的情况 sparsityError = 0; switch nn

2017-12-04 14:20:46 3300

转载 matlab——深度学习NN

==========================================================================================最近一直在看Deep Learning,各类博客、论文看得不少但是说实话,这样做有些疏于实现,一来呢自己的电脑也不是很好,二来呢我目前也没能力自己去写一个toolbox只是跟着Andrew Ng的

2017-12-03 21:58:12 5104 3

转载 matlab——NN代码(nnsetup)解析

本片主要介绍一种对于网络参数的改进方式,这也是大牛Hinton在前两年对深度网络的一个工作,主要的方法就是dropout,思想就是在训练网络的时候随机扔掉一些网络权值进行训练,其方法在前面的DeepLearnToolbox工具箱中也有集成,通过在这个工具箱中设置dropout参数可以直接实现网络中加入dropout的算法思想,本文旨在研究该工具箱时涉及到了dropout这块然后希望

2017-12-03 16:18:02 9934 1

转载 matlab——cell(以及和struct的转换)

元胞数组    它与数组的区别是:每个元素可以是不同类型的,可是不同大小的矩阵,也可以是字符串,结构体等, 使用元胞数组要区分(),{}的区别。      1)创建元胞数组[cpp] view plain copy print?>> c(1,1)={[1,2;3 4]};  >> c(1,2)={'tom is a sb'};

2017-11-30 17:17:42 16155 1

转载 matlab——struct

下面内容来自百度经验工具/原料MATLABstruct结构数组方法/步骤第一,通过“.”创建结构数组。在命令行窗口输入如下代码:student.name='Jason'; student.class='class 3';student.results={'Engl

2017-11-30 16:37:14 4123

转载 添加深度学习工具箱

为MATLAB添加深度学习工具箱深度学习工具箱下载地址:https://github.com/rasmusbergpalm/DeepLearnToolbox。一、配置1、 下载后解压,把解压后的文件夹复制到MATLAB工具箱文件夹下的位置,比如我的是:D:\MATLAB2012b\toolbox;2、 打开MATLAB界面,在命令窗口中添加深度学习工具箱

2017-11-30 11:01:09 1182

转载 Matlab 归一化函数premnmx [-1,1]

Matlab 归一化函数premnmx(1)基本算法:函数目的是把数据处理成[-1,1]之间,算法是:如a=[2,4,3,5],那么计算过程就是:2*(2-2)/(5-2)-1=-1;2*(4-2)/(5-2)-1=1/3=0.6666;2*(3-2)/(5-2)-1=-0.66662*(5-2)/(5-2)-1=1;(

2017-11-29 20:39:04 20078

转载 深度学习-BP曲线拟合(预测)

曲线拟合常用到polyfit(多项式拟合函数)、lsqcurvefit(非线性拟合函数)、BP神经网络 其中lsqcurvefit需要特定的函数表达式而BP神经网络不要 曲线拟合有个好用的软件 1stopt1.简单实例根据已知工资数值来预测工资走向P=[566 632 745 755 769 789 985 1110 1313 1428 1782 1920 21

2017-11-29 20:37:10 14815

转载 MATLAB积累----repmat(重复)

B = repmat(A,m,n)B = repmat(A,[m n])B = repmat(A,[m n p...])这是一个处理大矩阵且内容有重复时使用,其功能是以A的内容堆叠在(MxN)的矩阵B中,B矩阵的大小由MxN及A矩阵的内容决定,如果A是一个3x4x5的矩阵,有B = repmat(A,2,3)则最后的矩阵是6x12x5例如:>>B=repmat( [1

2017-11-27 19:36:13 11674

原创 MATLAB 积累----MAX函数

matlab中的 MAX函数的几种形式  (1)max(a)  (2)max(a,b)  (3)max(a,[],dim)  (4)[C,I]=max(a)  (5)[C,I]=max(a,[],dim)  max函数的结果  (1)max(a)  如果 a 是一个矩阵,比如 a=[1,2,3;4,5,6],max(a)的意思就是找出矩阵每列的最大值, 本例中:max(a)=[4,5,6]  (2

2017-11-27 19:19:55 1558

转载 深度学习:稀疏自编码MATLAB

稀疏性限制刚才的论述是基于隐藏神经元数量较小的假设。但是即使隐藏神经元的数量较大(可能比输入像素的个数还要多),我们仍然通过给自编码神经网络施加一些其他的限制条件来发现输入数据中的结构。具体来说,如果我们给隐藏神经元加入稀疏性限制,那么自编码神经网络即使在隐藏神经元数量较多的情况下仍然可以发现输入数据中一些有趣的结构。 稀疏性可以被简单地解释如下。如果当神经元的输出接近于1的时候我们认

2017-11-27 16:54:54 8776 6

转载 深度学习:自编码进行模式分类

在第三节我们已经介绍了 简单网络的自编码学习 知道了自编码学习其实就是学习到了输入数据的隐含特征,通过新的特征来表征原始数据,本节将介绍如何使用这些隐含特征进行模式分类; 还是以前面的三层自编码网络:  抽象一下如下:  其中学习到的权值系数W1与W1’是不一样的,我们把W1叫做编码权值,W1’叫做译码权值,原始数据在编码权值下的新数据Y就可以视为学习到了新维度下的数据

2017-11-27 16:47:43 10294

粒子滤波算法

对粒子滤波有很好的介绍及拓展

2017-06-08

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除