3 鱼之天空

尚未进行身份认证

我要认证

暂无相关简介

等级
TA的排名 5w+

隐马尔可夫模型基本问题——概率计算问题详细讲解(转载)

转载地址:https://blog.csdn.net/zhuqiang9607/article/details/83934961

2020-07-30 08:30:14

神经网络模型总结(转载)

https://www.cnblogs.com/silence-cho/p/11620863.html在LeNet-5的图中400 * 120 是说有120个5 * 5 * 16的卷积核。

2020-07-29 23:20:38

安装相关问题

原文链接https://blog.csdn.net/arthur_holmes/article/details/105095088?utm_medium=distribute.pc_relevant.none-task-blog-baidujs-1conda通过参数设置修改超时时间

2020-06-15 21:57:09

常用神经网络模型总结

转载链接:https://blog.csdn.net/qq_24690701/article/details/81868048

2020-06-07 10:08:19

Tensorflow深度学习-自编码器

前面我们介绍了在给出样本及其的标签的情况下,神经网络如何学习的算法,这类算 法需要学习的是在给定样本????下的条件概率????(????|????)。在社交网络蓬勃发展的今天,获取海量 的样本数据????,如照片、语音、文本等,是相对容易的,但困难的是获取这些数据所对应 的标签信息,例如机器翻译,除了收集源语言的对话文本外,还需要待翻译的目标语言文 本数据。数据的标注工作目前主要还是依赖人的先验知识(Prior Knowledge)来完成,如亚马 逊的Mechanical Turk系统专门负责数据标注业务

2020-06-04 20:45:31

Tensorflow梯度相关,LSTM,GRU

我们把梯度值接近于0的现象叫做梯度弥散(Gradient Vanishing),把梯度值远大于1的 现象叫做梯度爆炸(Gradient Exploding)。梯度弥散和梯度爆炸是神经网络优化过程中间比 较容易出现的两种情况,也是不利于网络训练的。????′=????−????∇????L当出现梯度弥散时,∇????L ≈ 0,此时????′ ≈ ????,也就是说每次梯度更新后参数基本保持不变, 神经网络的参数长时间得不到更新,具体表现为L几乎保持不变,其它评测指标,如准确 度,也保持不变。当出现梯

2020-06-04 18:14:21

Tensorflow过拟合与欠拟合

由于真实数据的分布往往是未知而且复杂的,无法推断出其分布函数的类型和相关参 数,因此人们在选择学习模型的容量时,往往会根据经验值选择稍大的模型容量。但模型 的容量过大时,有可能出现在训练集上表现较好,但是测试集上表现较差的现象。当模型的容量过大时,网络模型除了学习到训练集数据的模态之外,还把额外的观测 误差也学习进来,导致学习的模型在训练集上面表现较好,但是在未见的样本上表现不 佳,也就是模型泛化能力偏弱,我们把这种现象叫作过拟合(Overfitting)。当模型的容量过 小时,模型不能够很好地学习到训

2020-06-03 17:27:43

Tensorflow导数梯度相关

导数与梯度不知道的同学可以再回去看看数学,其实数学还是很有用的。在高中阶段,我们就接触到导数(Derivative)的概念,它被定义为自变量????产生一个微小 扰动∆????后,函数输出值的增量∆????与自变量增量∆????的比值在∆????趋于0时的极限????。导数本身没有方向,偏导数本身也没有方向。考虑本质上为多元函数的神经网络模型,比如shape为[784, 256]的权值矩阵????,它包 含了784 × 256个连接权值????,我们需要求出784 × 256个偏导数。需要注

2020-06-02 19:20:11

Tensorflow油耗预测实战

加载数据dataset_path = keras.utils.get_file("auto-mpg.data","http://archive.ics.uci.edu/ml/machine-learning-databases/auto-mpg/auto-mpg.data")命名数据表名称column_names = ['MPG','Cylinders','Displacement','Horsepower','Weight','Acceleration', 'Model Year'.

2020-06-02 13:26:10

Tensorflow误差计算

1. 均方误差计算均方差(Mean Squared Error,简称MSE)误差函数把输出向量和真实向量映射到笛卡尔 坐标系的两个点上,通过计算这两个点之间的欧式距离(准确地说是欧式距离的平方)来衡 量两个向量之间的差距。MSE(y, o) = \tfrac{1}{d_{out}}\sum _{I = 1}^{d_{out}}(y_{I} - o_{i})^2均方差误差函数广泛应用在回归问题中,实际上,分类问题中也可以应用均方差误差 函数。在TensorFlow中,可以通过函数方式或层...

2020-06-02 10:30:46

Tensorflow深度学习-第四天

前向传播的最后一步就是完成误差的计算L = g(f_{\theta} (x), y)代表了利用????参数化的神经网络模型,????(∙)称之为误差函数,用来描述当前网络的预测值???? (????)与真实标签????之间的差距度量,比如常用的均方差误差函数。L称为网络的误差????(Error,或损失Loss),一般为标量。我们希望通过在训练集????train上面学习到一组参数????使 得训练的误差L最小:从另一个角度来理解神经网络,它完成的是特征的维度变换的功能,比如4层的MNI

2020-06-02 09:38:08

Tensorflow深度学习-第三天

为了区分需要计算梯度信息的张量与不需要计算梯度信息的张量,TensorFlow增加了 一种专门的数据类型来支持梯度信息的记录:tf.Variable。tf.Variable类型在普通的张量类 型基础上添加了name,trainable等属性来支持计算图的构建。由于梯度运算会消耗大量的 计算资源,而且会自动更新相关参数,对于不需要的优化的张量,如神经网络的输入????, 不需要通过tf.Variable封装;相反,对于需要计算梯度并优化的张量,如神经网络层的????和????,需要通过tf.Variable包

2020-05-30 16:47:41

Tensorflow深度学习-第二天

上面讲到了我们通过采样多个数据样本及,然后找到一条最好的直线,使其尽可能地让所有采集点到该直线到误差之和最小。但是由于观测误差的存在,当我们采集多个数据点时,可能不存在一条直线完美的穿过所有采样点。退而求其次,我们希望能找到一条比较“好”的位于采样点中间的直线。那么怎么衡量“好”与“不好”呢?一个很自然的想法就是,求出当前模型的 所有采样点上的预测值????????(????)+ ????与真实值????(????)之间的差的平方和作为总误差L:latex公式的写法L = \frac{1}

2020-05-30 09:01:46

Tensorflow深度学习-第一天

有监督学习 有监督学习的数据集包含了样本????与样本的标签????,算法模型需要学习到映射关系???? : ???? → ????,其中????代表模型函数,????为模型的参数。在训练时,通过计算模型的预测值???? (????)与真实标签????之间的误差来优化网络参数????,使得网络下一次能够预测更精准。常见的有监督学习有线性回归、逻辑回归、支持向量机、随机森林等。无监督学习 收集带标签的数据往往代价较为昂贵,对于只有样本????的数据集,算法需要自行发现数据的模态,这种方式叫作无监督学习。无

2020-05-28 22:22:59

操作系统实践?

实现支持异步任务的线程池使用python3理解原理,自行实现ThreadPoolExecutor

2020-05-28 16:54:28

进程同步

一共享内存在某种程度上,多进程共享物理内存。由于操作系统的进程管理,进程间的内存空间是独立的进程默认是不能访问进程空间之外的内存空间的通过共享内存就不一样。共享内存允许不相关的进程访问同一片物理内存共享内存是两个进程之间共享和传递数据最快的方式共享内存未提供同步机制,需要借助其他机制管理访问。使用共享内存的四个步骤:1. 申请共享内存2. 连接到进程空间3. 使用共享内存4. 脱离进程空间&删除共享内存的例子:无共享内存是高性能后.

2020-05-28 14:48:25

线程同步

1. 互斥量问题:两个线程的指令交叉执行解决:互斥量可以保证先后执行原子性是指一系列操作不可被中断的特性。这一系列操作要么全部执行完成,要么全部没有执行不存在部分执行,部分没有执行的情况。互斥量是最简单的线程同步的方法互斥量,处于两态之一的变量:解锁和加锁。这两个状态可以保证资源访问的串行。操作系统直接提供了互斥量的API,开发者可以直接使用。互斥量代码如下:#include <stdio.h>#include <stdlib.h>#in

2020-05-26 19:04:32

设备管理

1. 广义的IO设备分类类型:按使用特性进行分类:按信息交换的单位进行分类:按设备的共享属性进行分类:按传输速率分类:2. IO设备的缓冲区CPU与IO设备的速率不匹配专用缓冲区只适用于特定的IO进程当这样的进程比较多时,对内存的消耗也大操作系统划出可供多个进程使用的缓冲区,称之为缓冲池3. spooling技术所以,逻辑上,系统为每一个用户都分配了一台独立的高速共享设备所以是虚拟设备技术...

2020-05-26 16:18:32

文件管理

一 文件管理1. 了解文件的逻辑结构逻辑结构的文件类型逻辑结构文件分类:有结构文件:文件内容由定长记录和可变长记录组成定长记录存储文件格式,文件描述等结构话数据项可变长记录存储文件具体内容文件逻辑结构:PNG文件标记PNG数据块 可变长记录文件结束标记无结构文件:也称为流式文件文件内容长度以字节为单位如:exe文件,dll文件,so文件顺序文件是指按照顺序存放在存储介质中的文件磁带的特性使得磁带文件只能存储顺序文件顺序文件是所.

2020-05-26 15:37:19

存储管理

操作系统课程链接:https://www.bilibili.com/video/BV1a54y1D7R8?p=10一 内存分配与回收随着计算机和程序越来越复杂,使得存储成为必要。存储管理解决的问题:1. 确保计算机有足够的内存处理数据2. 确保程序可以从可用内存中获取一部分内存使用3. 确保程序可以归还使用后的内存以供其他程序使用内存分配的过程1. 单一连续分配是最简单的内存分配方式,只能在单用户,单进程的操作系统中使用。2. 固定分区分配是支持多道程序的最简单分配方式

2020-05-25 17:13:44

查看更多

勋章 我的勋章
  • 持之以恒
    持之以恒
    授予每个自然月内发布4篇或4篇以上原创或翻译IT博文的用户。不积跬步无以至千里,不积小流无以成江海,程序人生的精彩需要坚持不懈地积累!
  • 勤写标兵Lv4
    勤写标兵Lv4
    授予每个自然周发布9篇以上(包括9篇)原创IT博文的用户。本勋章将于次周周三上午根据用户上周的博文发布情况由系统自动颁发。