自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(24)
  • 收藏
  • 关注

原创 pytorch 1D卷积与1D深度可分离卷积

1.传统一维卷积:2.改变groups:将Input的通道分成groups个独立的通道,分别进行卷积。相应的卷积核的通道数也会减小,如下图所示。下图将64个通道分成32个groups,每个组由两个通道构成,时间维保持不变。一个1d卷积核的大小为(64 / 32, kernel)。由于output_channels = 128。对每个group卷积一次会得到输出的一个channel,所以需要对32个group卷积(output_channels / groups = 128/32)4遍。因此要求o

2021-07-28 13:51:26 3307 1

原创 SDW-MWF波束形成严谨推导深入细节

语音失真加权多通道维纳滤波器上一篇介绍了GSC波束形成的推导。添加链接描述

2021-06-29 16:49:41 980

原创 多通道混响抑制:GWPE(Generalized Weighted Prediction Error)

1.模型构建考虑一个M个说话人,N个麦克风的场景。sm[k](1≤m≤M)s^{m}[k](1 \leq m \leq M)sm[k](1≤m≤M):第m个说话人k时刻的信号。yn[k]y^{n}[k]yn[k]和vn[k](1≤n≤N)v^{n}[k](1 \leq n \leq N)vn[k](1≤n≤N):第n个麦克风k时刻的接收信号。则有:y[k]=∑τ=0J−1HT[τ]s[k−τ]+v[k]        

2021-03-07 21:21:18 1042

原创 语音增强:基于混响模型的LCMV滤波器

混响的定义:混响效果等效为不同延迟的信号的叠加,因此即混响效果可以表示为一个FIR滤波器与信号源卷积的形式。即y(t)=g⃗∗s⃗(t)\mathrm{y}(t)=\vec{g} * \vec{s}(t)y(t)=g​∗s(t)“*”表示卷积。g⃗\vec{g}g​为混响的时域响应,长度为LgL_{g}Lg​,向量s⃗(t)=[s(t),s(t−1),…,s(t−Lg)]\vec{s}(t)=\left[s(t), s(t-1), \ldots, s\left(t-L_{g}\right)\rig

2021-02-08 23:56:49 479

原创 麦克风阵列方向图模型

本节讨论宽带声源信号模型下的信号模型。考虑一个白噪声源sss(它涵盖了整个频谱),其方差为σs2=1\sigma_{s}^{2}=1σs2​=1。在这一信号模型中,考虑第n个传感器为yn(k)=s[k−(n−1)τs)],n=1,2,⋯ ,N式(1.1)y_{n}(k)=s\left[k-(n-1)\tau_{s})\right], \quad n=1,2, \cdots, N \quad式(1.1)yn​(k)=s[k−(n−1)τs​)],n=1,2,⋯,N式(1.1)对于远场信号τs=dsi

2021-02-07 11:38:33 562

原创 固定波束形成:LS波束形成

LS波束形成的目的是使输出的方向响应逼近设置的方向响应。如想设计一个波束形成器使得入射角度位于θ1\theta_{1}θ1​ 和 θ2\theta_{2}θ2​之间的信号能够通过,而使来自其他方向的信号衰减,则期望的方向响应可以表示为:Sd(θ)={1,θ1⩽θ⩽θ20, 其他 S_{\mathrm{d}}(\theta)=\left\{\begin{array}{ll}1, & \theta_{1} \leqslant \theta\leqslant \theta_{.

2021-02-04 23:33:40 788 1

原创 语音增强:最优约束非迭代维纳滤波与心理学约束方法严谨推导

1.最优约束非迭代维纳滤波通过将语音失真和噪声失真作为约束条件进行语音增强。符号定义:y为带噪接收信号,d为噪声,x为语音信号,Y(w)Y(w)Y(w)为带噪信号频谱,X^(ω)\hat{X}(\omega)X^(ω)为对纯净语音谱的估计,D(w)\mathrm{D}(\mathrm{w})D(w)为噪声频谱,H为N×N的估计矩阵,F为N点离散傅里叶变化矩阵。F=1N[11⋯11ejω0⋯ej(N−1)ω0⋮⋮⋱⋮1ej(N−1)ω0⋯ej(N−1)(N−1)ω0]F=\frac{1}{\sqrt{

2021-02-01 11:33:07 215

原创 语音特征i-Vector EM估计公式推导

“Useful Derivations for i-Vector Based Approach to Data Clustering in Speech Recognition” Yu Zhang这篇文章较为详细地推到了i-Vecoter的由来,解答了许多困惑,salute!正文假设Yi=(y1i,y2i,…,yTii)\boldsymbol{Y}^{i}=\left(\boldsymbol{y}_{1}^{i}, \boldsymbol{y}_{2}^{i}, \ldots, \boldsymbol

2020-12-24 21:29:52 336 2

原创 GSC波束形成严谨推导深入细节

GSC广义旁瓣相消器的基本结构如下图所示:u(t)=xd(t)⋅a(θd)+∑j=1M−1xj(t)⋅a(θj)+N(t)u(t)=x_{d}(t) \cdot a\left(\theta_{d}\right)+\sum_{j=1}^{M-1} x_{j}(t) \cdot a\left(\theta_{j}\right)+N(t)u(t)=xd​(t)⋅a(θd​)+j=1∑M−1​xj​(t)⋅a(θj​)+N(t)某时刻空间中存在M个信号与噪声,其中M-1个为干扰信号。则对于LCMV来说权向量

2020-12-13 22:53:46 4028 11

原创 LCMV波束形成严谨推导深入细节

LCMV(线性约束最小方差)实际上是MVDR(最小方差无畸变响应)的一种扩展,将MVDR里只对期望方向做约束,变为也对指定的干扰方向加约束。依然使用MVDR严谨推导里的模型,空间中存在期望信号xd(t)x_{d}(t)xd​(t)其导向矢量为a(θd)a\left(\theta_{d}\right)a(θd​),以及M-1个干扰信号xj(t)x_{j}(t)xj​(t)其导向矢量为a(θj)a\left(\theta_{j}\right)a(θj​),阵列个数为NLCMV要求解的问题可以写为:{min

2020-12-07 21:35:09 4893 3

原创 Pycharm Run/Debug Configurations Script Parameters 设置路径程序不识别的问题解决

Parameters 里出现的文件的路径必须用双引号表示!否则程序无法识别路径

2020-10-27 13:09:36 1345

翻译 反卷积与棋盘效应

译自:https://distill.pub/2016/deconv-checkerboard/Part1当我们使用神经网络生成图像时,往往需要从一个低维空间(低分辨率)图像映射回高维空间(高分辨率)图像,实现的方法就是反卷积。不幸的是,反卷积很容易导致输出的某些位置产生重叠。这种情况发生在卷积核不是步长的整数倍的情况下。对于一个一维信号反卷积卷积核大小为3,步长为2(对于步长s>1的反卷积,会在输入单元之间插入s-1个0,如下图空白。)卷积的结果在某些位置不重叠,在某些位置重叠一次,产生

2020-10-15 22:30:47 390

原创 ResNet 调制识别+Network 剪枝

基于ResNet 的调制方式识别,并应用网络剪枝技术给模型瘦身的Keras实现。参考论文1.Learning Efficient Convolutional Networks through Network Slimming2.Over the Air Deep Learning Based Radio Signal Classification调制识别网络结构:训练数据:RML2016.10a.tar.bz2输入数据维度为(100000,128,2),长度为128点的调制信号,分为I/Q两路。

2020-09-28 21:45:34 3144 8

原创 显卡驱动又双叒叕怎么办?

1.卸载旧驱动sudo apt-get remove nvidia-*sudo apt-get autoremove2.下载显卡驱动(如果之前没下载)如“NVIDIA-Linux-x86_64-410.93.run”放到/home/路径下,并重新命名为x.run(方便操作)3.同时按下ctrl+alt+F7进入命令行4.重新安装驱动sudo service lightdm stop#关闭当前显示sudo chmod a+x x.runsudo sh x.run -no-opengl-fil

2020-09-21 14:47:59 177

翻译 深度网络剪枝与轻量化

常见模型剪枝方法Low-rank Decomposition:低秩分解。将权值矩阵分解为低秩矩阵Weight Quantization:权值量化。HashNet 提出去量化网络的权值。在训练之前,网络的权值被hash到不同的组,并且组内的权重是共享的。这样只有共享的权重和hash indices需要被储存,可以节省很大一部分存储空间。然而,这些技术既不能节省运行时的内存,又不能节省推理时间,因为在推理期间,共享的权重需要被恢复到原来的位置(相当于还多了个解码的过程)Weight Pruning /

2020-09-18 12:20:30 1728

原创 Transformer:Position Embedding解读

在RNN里,句子被分成一个个单词依次送入网络,这样自带句子的输入自带文本顺序。但是Transformer结构将所有位置的单词一起输入网络,这样就会丧失文本的顺序。所以需要Position Embedding 来解决这个问题。首先会想到的是给不同位置的单词赋予一个[0,1]之间的值。0代表开头的单词,1 代表结尾的单词。但是由于我们无法提前预知下一段话有多少单词,所以相邻单词位置编码数值的差值会随着句子长度的变化而变化。另外一种想法是线性地为每个位置的单词安排编码值。即第一个单词为1,第二个

2020-09-10 00:41:38 7028 2

原创 MVDR波束形成严谨推导深入细节

{min⁡WHRWs.tWHA(θ)=1,AH(θ)W=1\left\{\begin{array}{l}\min \mathbf{W}^{\mathrm{H}} \mathbf{R} \mathbf{W} \\ \mathbf{s . t} \mathbf{W}^{\mathrm{H}} \mathbf{A}(\mathbf{\theta})=\mathbf{1}, \mathbf{A}^{\mathrm{H}}(\boldsymbol{\theta}) \mathbf{W}=\mathbf{1}\end{

2020-09-02 16:04:09 12301 15

原创 GraphSage笔记

GraphSAGE 前向传播算法步骤hvk\mathbf{h}_{v}^{k}hvk​:节点v通过聚合k层邻居节点后得到的embedding表示。当k=1时,算法第3~7行,更新所有节点vvv的hv1\mathbf{h}_{v}^{1}hv1​,当k=2时,算法第3~7行,对于所有节点vvv,用节点vvv相邻节点uuu的hv1\mathbf{h}_{v}^{1}hv1​聚合去更新所有节点v的hv2\mathbf{h}_{v}^{2}hv2​...

2020-08-26 18:21:53 835 3

翻译 图卷积网络

文章来自https://tkipf.github.io/graph-convolutional-networks/图卷积网络(GCNS)的定义对于图卷积网络模型,目标是学习一种信号/特征的图表示函数G=(V,E)\mathcal{G}=(\mathcal{V}, \mathcal{E})G=(V,E),其输入为:每个结点iii的特征xix_{i}xi​组成的N×DN \times DN×D的特征矩阵XXX(NNN:节点的数量,DDD:输入特征的维度)图结构的矩阵表示,常见的为图的邻接矩阵AAA,输

2020-08-19 23:28:22 287

原创 从零开始NLP

记录从零开始NLP的学习过程1.首先了解什么是word embedding:https://www.zhihu.com/question/53354714/answer/8127785892.word embedding 之 word2vec方法:word2vec的两种方法:CBOW(Continuous Bag-of-Words)和Skip-GramCBOW:输入一个word的上下文去预测当前word。Skip-Gram:输入一个word去预测word的上下文https://www.ji

2020-08-06 15:02:23 245

原创 知识图谱之问答系统学习笔记

知识图谱学习笔记前言知识库概念知识库问答(knowledge base question answering,KB-QA)知识库问答的主流方法语义解析(Semantic Parsing)什么是逻辑形式:语义解析KB-QA的方法框架:信息抽取(Information Extraction)如何回答问题如何确定候选答案如何对问题进行信息抽取如何构建特征向量对候选答案进行分类如何改变文本的样式插入链接与图片如何插入一段漂亮的代码片生成一个适合你的列表创建一个表格设定内容居中、居左、居右SmartyPants创建一

2020-07-29 22:27:00 1106

原创 Logistic Regression 牛顿法,DFP,BFGS求解推导

2020-03-18 17:55:54 323

原创 GBDT二分类初始化模型推导。

为什么GBDT二分类的初始化第一个弱学习器F0(x)=log[P(Y=1∣x)/(1−P(Y=1∣x))]F_0(x)=log[P(Y=1|x) /(1-P(Y=1|x))]F0​(x)=log[P(Y=1∣x)/(1−P(Y=1∣x))]P(Y=1|x)为训练样本中y=1的比例...

2020-03-13 16:48:30 432

原创 关于梯度提升树残差(李航机器学习)的一些理解(附代码)

恰逢最近在学习提升树(boosting tree)算法,参考了李航统计学习方法(第二版),但仍觉有一些疑惑,遂上网看了很多资料但仍感觉有些细节不清楚,主要原因是网上的公式符号使用自成一体,且一些结论缺少具体推理,于是以李航统计学习书上的公式表达为基础,记录一些思考。一:采用平方误差损失函数时损失函数的负梯度就是提升树的残差首先在书8.4节,167页,当损失函数为负梯度时:其中分别代表真...

2020-01-27 23:34:02 967

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除