- 博客(21)
- 资源 (4)
- 收藏
- 关注
原创 傻瓜式讲解Conv1D家族-系列1-Conv1d
========================= 这篇博客主要是讲解 Conv1d =======================处理一维数据如文本或者语音时,需要用到一维卷积,综合网上各种资料和自己的理解,尽可能傻瓜式的说明Conv1d的过程,从而说明 ConvTranspose1d的运算过程,并且用 Pytorch验证。Pytorch 的 Conv1d 的官方文档:https://pytorch.org/docs/stable/generated/torch.nn.Conv1d.html.
2021-02-25 16:46:30 2328 1
原创 不用框架,实现非连续语音识别Demo(python源码)
GMM-HMM语音识别原理1.HMM隐马尔科夫模型(HMM)是一种统计模型,用来描述含有隐含参数的马尔科夫过程。难点是从隐含状态确定出马尔科夫过程的参数,以此作进一步的分析。下图是一个三个状态的隐马尔可夫模型状态转移图,其中x 表示隐含状态,y 表示可观察的输出,a 表示状态转换概率,b 表示输出概率:a:转移概率b:输出概率y:观测状态x:隐含状态一个HMM模型是一个五元组(π,A...
2018-06-13 20:04:10 12032 18
原创 Manacher算法
背景介绍:很多类似于如下的问题:给定一个字符串,求出该字符串的最大回文长度.比如:s = "abba"s = "hjkjh"等.如果用传统的方法进行暴力比较,以其中的每个字符为中心,两边逐渐对比,效率很差.复杂度是O(n^2)后来有人提出了manacher算法(马拉车算法)该算法的基本原理是:给定一个字符串hoabccccbacc,然后在该字符串内插入该字符串不...
2019-03-01 15:35:05 243
原创 二叉树的遍历
输入: [1,null,2,3]二叉树的遍历在数据结构中是非常基本的算法.如下代码包含的是二叉树的前序遍历、中序遍历、后序遍历三种算法。前序遍历顺序:根节点->左子树->右子树中序遍历顺序:左子树->根节点->右子树后序遍历顺序:左子树->右子树->根节点代码如下所示:#include <iostream>#include <vector&...
2018-07-08 17:20:10 304
原创 tensorflow实现卷积
之前在不用框架的情况推导过cnn的前向和后向传播算法,并且实现了.地址如下:https://blog.csdn.net/u010866505/article/details/77857394由于项目中要用tensorflow的框架,因此需要用tensorflow的API:tf.nn.conv2d(input, filter, strides, padding, use_cudnn_on_gpu=N...
2018-07-04 19:00:18 4044
原创 哈希表建立字典,修改,删除、保存字典
哈希表是记录的存储位置和关键字之间建立的一种映射关系,这个映射关系就是hash函数.1:构建hash函数的方法:直接定植法:平方取中法除留余数法折叠法随机数法在构建hash函数的时候,会存在关键字不一样,但是记录会是一样的情况.key1≠key2,但是f(key1)=f(key2),这里的f就是哈希函数.这种现象就是冲突.解决这种冲突有如下办法:开放定址法(线性探测法)再散列函数法链地址法公共溢出...
2018-06-23 14:29:39 1347
原创 两个数之和
给定一个整数数组和一个目标值,找出数组中和为目标值的两个数。你可以假设每个输入只对应一种答案,且同样的元素不能被重复利用。示例:给定 nums = [2, 7, 11, 15], target = 9因为 nums[0] + nums[1] = 2 + 7 = 9所以返回 [0, 1]这题目其实比较简单,但是我参考了如下两个网址的方法:https://blog.csdn.net/mimi99...
2018-06-23 14:01:51 299
原创 HMM前向后向算法
HMM前向后向算法HMM的三个基本问题中,对于HMM参数的学习是最难的。对于给定的观测序列O,如何估计模型参数使得P(O|λ)最大。目前为止,可能并不存在一种方法使得P(O|λ)最大,但是接下里的前向后向算法是能够使上述问题得到局部最优。首先:假设给定模型λ和观测序列,计算观测序列出现的概率P(O|λ)。令隐含状态序列I={i1,i2...iT};观测序列是O={O1,O2,...OT},计算联合...
2018-06-12 21:52:09 8376
原创 KNN算法
KNN近邻算法工作原理:存在一个样本数据集合,即训练样本集,每个数据对应一个标签;当输入没有标签的数据后,将新数据的每个特征和样本集数据中对应的特征进行比较,然后提取出特征最相似的数据的分类标签。一般说来,只选择样本集中前k个最相似的数据。一般k为不大于20的整数。最后,选择k个最相似数据中出现次数最多的分类,作为新数据的分类。K近邻模型的三要素:1):距离度量2):K值的选择
2016-04-08 22:04:12 752
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人