自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(28)
  • 收藏
  • 关注

转载 LSTM循环神经网络中的超长序列问题

点击打开链接

2017-11-21 16:25:05 1874 1

转载 信息增益

知乎上看到的说法,觉得不错熵:表示随机变量的不确定性。条件熵:在一个条件下,随机变量的不确定性。信息增益:熵 - 条件熵在一个条件下,信息不确定性减少的程度!通俗地讲,X(明天下雨)是一个随机变量,X的熵可以算出来, Y(明天阴天)也是随机变量,在阴天情况下下雨的信息熵我们如果也知道的话(此处需要知道其联合概率分布或是通过数据估计)即是条件熵。两者相减就是信息增

2017-11-07 13:46:07 317

原创 交叉熵损失函数好文推荐

点击打开链接点击打开链接

2017-10-25 15:47:57 1033

原创 pip安装工具包时超时问题的简单解决

pip install snownlp --timeout 6000直接在原有的命令后面添加 --timeout 时间即可

2017-10-23 17:19:33 699

转载 tensorflow的共享变量的联系与区别

点击打开链接可以参照上面的网页进行学习

2017-10-23 15:34:57 167

原创 numpy.savez

如果你想将多个数组保存到一个文件中的话,可以使用numpy.savez函数。savez函数的第一个参数是文件名,其后的参数都是需要保存的数组,也可以使用关键字参数为数组起一个名字,非关键字参数传递的数组会自动起名为arr_0, arr_1, ...。savez函数输出的是一个压缩文件(扩展名为npz),其中每个文件都是一个save函数保存的npy文件,文件名对应于数组名。load函数自动识别npz

2017-10-19 17:16:47 1805

转载 tensorflow高阶教程:tf.dynamic_rnn

引言TensorFlow很容易上手,但是TensorFlow的很多trick却是提升TensorFlow心法的法门,之前说过TensorFlow的read心法,现在想说一说TensorFlow在RNN上的心法,简直好用到哭 【以下实验均是基于TensorFlow1.0】简要介绍tensorflow的RNN其实在前面多篇都已经提到了TensorFlow的RNN,也在我之前的文

2017-10-19 11:48:56 290

转载 DataFrame 数据合并,连接(merge,join,concat)

点击打开链接

2017-10-19 10:11:02 592

原创 tf.placeholder()

最基本的用法是提供一个占位符,具体可以参考点击打开链接

2017-10-17 11:35:05 351

原创 dropout_keep_prob

测试时dropout_keep_prob一般都设置为1,也就是保留全部结果也就是说dropout_keep_prob只在训练的时候有用

2017-10-17 10:52:45 13105 3

原创 正则化

L2正则化,是让权重衰减,从而变小。在权重小的情况下,数据x随机的变化不会对神经网络的模型造成太大的影响L1正则化,是让权重w靠近0,从而降低网络复杂度

2017-10-16 14:00:25 144

转载 tensorflow中的矩阵生成(数据初始化)与变换函数

点击打开链接

2017-10-13 17:06:04 3039

原创 优化器的使用

使用tf.train.Optimizer.minimize与使用tf.train.Optimizer.compute_gradients结合tf.train.Optimizer.apply_gradients是一样的效果具体详见点击打开链接

2017-10-11 14:52:45 365

原创 Python中numpy模块中小方法详解

点击打开链接eye:生成指定行数的单位矩阵

2017-10-10 17:24:37 257

原创 dynamic_rnn的参数time_major

outputs,states = tf.nn.dynamic_rnn(lstm_cell,X_in,initial_state=_init_state,time_major=False)lstm_cell 是定义的隐藏层的cell, X_in是输入的训练数据(128batch,28steps,128hidden)其中time_major是说的时间点28steps是否位于X_in中第一个维度

2017-09-25 14:24:53 2578

原创 tensorflow常用函数简述

tf.matmul :矩阵相乘

2017-09-25 14:03:42 308

原创 卷积神经网络

CNN通过感受野以及权值共享减少了神经网络需要训练的参数个数

2017-09-21 11:44:48 132

原创 学习率

学习率越大,模型收敛的越快速,在模型的训练后期,可以适当的将优化器中的学习率慢慢调小

2017-09-21 11:21:53 645

原创 简述梯度下降法在神经网络中的作用

在已经熟悉神经网络的相关知识的前提下:使用激活函数以后,除了能将输入信号转换为输出信号以后,还能回传损失函数中的误差,可以使用梯度下降更新权重值,通过计算误差函数E相对于权重参数W的梯度,在损失函数梯度的相反方向上更新权重参数

2017-09-21 10:35:27 3819

原创 神经网络中优化器的作用

一句话,用来更新和计算影响模型训练和模型输出的网络参数,使其逼近或达到最优值,从而最小化(或最大化)损失函数E(x)

2017-09-21 09:57:28 13713 4

原创 Mapreduce算法五、mapJoin与标识

Mapreduce算法四、mapJoin与标示

2016-10-24 22:02:35 232

原创 Mapreduce算法四、key值和value值分别是组合值

Mapreduce算法四、key值和value值分别是组合值

2016-10-24 21:41:33 1062

原创 Mapreduce算法三、利用cleanup对reduce结果进行排序

Mapreduce算法三、利用cleanup对reduce结果进行排序

2016-10-24 21:20:16 1026

原创 Mapreduce算法二、数据去重(HashSet)

Mapreduce算法二、数据去重(HashSet)

2016-10-24 20:48:53 530

原创 MapReduce算法一、简单求和计数(类似WordCount)

MapReduce算法一、简单求和计数(类似WordCount)

2016-10-24 20:30:17 1805

原创 二次排序

对第一列排序,如果相同的话,对第二列进行排序

2016-10-24 13:16:17 301

原创 搭建Hadoop HA集群

(学习笔记) 搭建Hadoop HA集群

2016-10-22 21:34:19 276

原创 (Hdoop Distributed File System )分布式文件系统原理;HDFS文件系统基本架构和运行机制

理解分布式文件系统原理,掌握HDFS文件系统基本架构和运行机制

2016-10-21 20:33:54 891

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除