自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(78)
  • 收藏
  • 关注

原创 Point Cloud Library

Point Cloud Library

2023-03-18 00:56:34 361

原创 摄像头三维建模

三维重建

2023-03-08 07:04:37 658

原创 TMUX tutorial

TMUX tutorial

2023-01-25 00:09:40 119

原创 MIT RF Machine Learning Challenge

本文对MIT RF challenge 做一个介绍,官方网址在 https://rfchallenge.mit.edu/. Challenge总共有三个,本文着重于第一个 single channel challenge. 官方提供了一份starter code,因此我们从这里着手: https://github.com/RFChallenge/rfchallenge_singlechannel_starter.准备所有RF采集的数据都将用SigMF的格式存储pip install git+http

2022-02-08 03:32:25 209

原创 1-bit Massive MIMO

本文我们读一下 1-bit massive MIMO transmission: embracing interference with symbol-level precodingMassive MIMO的问题作者首先从Massive MIMO的问题入手。Massive MIMO的主要增益在于BS可以利用spatial multiplexing同时同频发送多个数据流。同时 channel hardening effect 进一步简化了信道估计和功率分配问题。当然,这一切的前提是我们能实现完美的ful

2021-12-01 17:05:18 347

原创 Fundamental Limits of Caching in Wireless D2D Networks

本文我们读一下 D2D coded caching 一篇比较早的paper: Fundamental Limits of Caching in Wireless D2D Networks.Abstract首先这是一个D2D网络,只有用户没有基站,所有人的通信都是one-hop。每个用户都可以提前cache一些信息,取决于他们的本地容量。他们的需求可以是一个有限信息集中的任意信息。实际上这个问题在有基站的中心化场景下已经被研究过了。在他们的场景下,有一个全知的基站拥有所有的信息。由这个基站给所有用户广播

2021-10-29 23:42:01 225

原创 Feedback Code: the Modulo-SK Scheme

本文中我们介绍一些经典的SK scheme. 本文内容基于paper: A Coding Scheme for Additive Noise Channels with Feedback-Part I: No Bandwidth Constraint, by J. SCHALKWIJK & T. KAILATH.The Robbins-Monro Procedure首先我们介绍一下 Robbins-Monro Procedure. 要解决的问题是找一个未知函数 F(x)F(x)F(x) 的零点

2021-10-18 21:40:18 163

原创 向量空间的一些基本定义

内积两个向量 x1\bm{x_1}x1​ and x2\bm{x_2}x2​ 的内积定义为⟨x1,x2⟩=x1⊤x2=∑ix1[i]x1[2]\langle\bm{x_1,x_2}\rangle=\bm{x}_1^\top\bm{x_2} =\sum_i \bm{x_1}[i]\bm{x_1}[2]⟨x1​,x2​⟩=x1⊤​x2​=i∑​x1​[i]x1​[2]从几何的角度想,向量的内积表征的是一种空间结构,只与两个向量的长度和夹角有关:⟨x1,x2⟩=∥x1∥∗∥x2∥∗cos⁡θ\langle

2021-08-17 00:07:20 605

原创 函数的 smoothness 和 convexity

本文讲解一下函数 smoothness 和 convexity 的基本定义,等价定义,和性质。

2021-08-14 21:54:46 1542 1

原创 On the convergence of FedAvg on non-iid data

On the convergence of FedAvg on non-iid data

2021-08-13 03:44:32 4543 12

原创 NoisyNN, Generalization Performance

The Effects of Adding Noise During Backpropagation Training on a Generalization Performance

2021-07-23 21:14:33 331

原创 Transformer 超详细教程 1: 结构解析

本文中,我们一起分析一下 Transformer 的 pytorch 实现,原代码地址为:这个 code 是关于语言翻译的,主要task是读入一个文档输出对应的翻译文档。大概的编写流程是初始化文档并读入;初始化Transformer model;训练model;验证训练后model性能.初始化 Transformer我们首先看一下第二步中,Transformer这个model是怎么初始化的。我们主要关注 Transformer. init() 这个函数:class Transformer

2021-03-26 14:20:31 2345

原创 Hugging Face Transformers 学习1

我们来学习一下 Hugging Face Transformers 这个很方便的NLP library。本节我们首先看一下官方的 Quick Tour: https://huggingface.co/transformers/quicktour.html#Pipeline官方的解释从pipeline开始。它把所有的东西全部打包到了一起为一个端到端的工具,对初学者非常友好。好,首先加载pipelinefrom transformers import pipeline加载完之后我们来创建第一个模型

2021-03-20 16:39:10 699

原创 PyTorch教程1

三大要素支撑起了近十年 Deep Leanring 的发展浪潮: DL algorithm, Big data, Computation power. 从本节起,我们学习一下 PyTorch 的使用。创建Tensor首先,什么是Tensor?Tensor是一个任意维度的矩阵 (从标量开始). 而编写神经网络 (NN) 的过程其实就是一个构建一个Tensor的计算图的过程。其中,所有参与计算的变量都要以Tensor的形式存在。 创建一个Tensor也很简单:直接创建 torch.Tensorimp

2021-03-10 16:40:23 287

原创 MARL多智能体强化学习

总结自Wang Shusen youtube教程 https://www.youtube.com/watch?v=KN-XMQFTD0oMARL 四种设定:Fully cooperative。 多个机器人协同装配汽车;一个机械手臂举箱子另一个伸手拿。这些例子中agent都是合作关系。即使action不同,他们的利益都是一样的,最终收到的reward也是一样的。总结起来就是说他们需要为同一目的相互配合。Fully competitive。一方的收益是另一方的损失。一种就是零和博弈,双方的reward

2021-03-09 16:19:39 427

原创 Stanford 3: rTop-k: A Statistical Estimation Approach to Distributed SGD

本文同样来自stanford 组,不过他研究的是分布式学习中的weight compression and estimation problem.问题建模分布式统计参数估计首先,我们考虑 NN 有 ddd 个参数, 他们服从分布 pθp_\thetapθ​. 总共有 nnn 个节点观测 pθp_\thetapθ​ 每个节点得到一个 realization XnX_nXn​。 因此我们有X1,X2,...,Xn∼i.i.d.pθX_1,X_2,...,X_n\overset{\text{i.i.d.}

2021-02-22 11:00:06 139

原创 Stanford 2 :Neural Network Compression for Noisy Storage Devices

本文是作者上一篇文章的延续,原文标题Neural Network Compression for Noisy Storage Devices背景在上一篇文章中,作者研究了先压缩再coding的方法来提升NN的存储效率并对抗噪声。本文中,作者exploit联合压缩和coding算法。作者考虑一个多输入单输出的神经网络,训练数据从 pdata(x,y)p_\text{data}(x,y)pdata​(x,y) 中采样得到。注意这里分布unknown只知道data,而我们训练神经网络的目的就是学习到这个联

2021-02-21 17:05:10 133

原创 Stanford1 -- Noisy Neural Network Compression for Analog Storage Devices

本文来自 stanford 组,原文标题Noisy Neural Network Compression for Analog Storage DevicesIntroduction背景本文的背景是用模拟器件存储NN weights capacity更大但同时更noisy。一般情况下,这个 noise 是写入 cell 的值的 non-linear function;输入的范围 limited 有最大值最小值限制,也就是说我们得scale input.Motivation本文的motiv

2021-02-21 15:41:35 134

原创 Noisy machines: understanding noisy NNs and enhancing robustness to analog hardware errors

原文来自ARM:NOISY MACHINES: UNDERSTANDING NOISY NEURAL NETWORKS AND ENHANCING ROBUSTNESS TO ANALOG HARDWARE ERRORS USING DISTILLATION本文主要分析对于一个NN,当well trained weights 被 noise 污染之后:会对原NN的表达能力有什么影响;怎么训练NN使得它能抵抗noise.背景现在的神经网络变得越来越大,所以说对于mobile NN来说,大的NN

2021-02-19 21:38:14 262

原创 3. DRL算法分析

PPO paper 见 ArXiv:OpenAI: https://arxiv.org/pdf/1707.06347.pdfDeepMind: https://arxiv.org/pdf/1707.02286.pdfA3C and A2C

2021-02-09 21:56:33 1728

转载 2. 关于DRL的一些经验

转自知乎专栏, 原文 深度强化学习落地方法论 https://zhuanlan.zhihu.com/p/95989190以下是 summarize 的结果。

2021-02-09 21:50:31 3038

原创 1. The DeepCode Paper

在第一讲,我们来summarize一下DeepCode这篇paper的主要思路。

2021-02-09 21:47:12 168

原创 OFDM channel estimation

OFDM 系统信道估计模型理论上,我们可以在频域发送一个preamble, 比如说64点的LTS (每个element都是 +1 or -1)。这样,频域接收信号的形式为 (假设无ICI)ML Estimation由于导频信号矩阵 X\bm{X}X 我们已知且可逆,所以 H\bm{H}H 的 ML estimation 为H^=X−1Y\hat{\bm{H}}=\bm{X}^{-1}\bm{Y}H^=X−1Y这一操作实际上就是对应点除。如果我们看这个方法的 MSE 的话可以得到MSEml=E[

2021-01-18 21:53:26 389

原创 复数 标量/向量/矩阵 求导

Wirtinger derivative: 令 z=x+jyz=x+jyz=x+jy,则 f(z)f(z)f(z) 对 zzz 和 zzz 的共轭 z∗z^*z∗ 求导结果为∂∂z=12(∂∂x−i∂∂y)\frac{\partial}{\partial z}=\frac{1}{2}\left(\frac{\partial}{\partial x}-i\frac{\partial}{\partial y} \right)∂z∂​=21​(∂x∂​−i∂y∂​)∂∂z∗=12(∂∂x+i∂∂y)\frac

2020-12-02 22:32:31 7371 2

原创 Markov Chains

BasicsDef 1: Stochastic process 随机过程一个随机过程 X={X(t):t∈T}\bm{X}=\{X(t):t\in \bm{T}\}X={X(t):t∈T} 是一个随机过程的集合。ttt 可以是连续的也可以是离散的。如果 T\bm{T}T 是 countably infinite, 我们可以把 X\bm{X}X 称为一个离散时间序列,这时候我们可以取 t=0,1,2,3,...t=0,1,2,3,...t=0,1,2,3,....Reamrk: 随机过程就是一堆随机变量

2020-11-24 17:36:21 534

原创 MMSE and LMMSE Estimators 2: MMSE and LMMSE estimators

==

2020-11-22 18:03:52 209

原创 MMSE and LMMSE Estimators 1: The estimation problem

Estimation Problem参数估计问题存在于各色系统中。特别的,在通信系统中,我们传递的消息是离散时,decoding一般称为 detetcion,但如果传输的信号是连续的实数时,我们一般称decoding问题为 estimation.未知变量: θ\thetaθ观测量: y\bm{y}yEstimator: θ^=g(y)\hat{\theta}=g(\bm{y})θ^=g(y)Estimation performance:Estimation error: θ^−θ\hat{

2020-11-22 16:05:51 402

原创 Lattice原理及在通信中的应用 5 Applications -- Compute-and-Forward

本讲我们研究另一篇著名的paper: compute-and-forward.

2020-11-19 14:24:09 674 1

原创 Lattice原理及在通信中的应用 5 Applications -- AWGN Channel Coding

这一节我们主要讲一下Lattice在通信中的应用。AWGN Channel Coding首先这篇paper来自 Uri Erez & Ram Zamir 2004年的经典论文 “Achieving 12log⁡(1+SNR)\frac{1}{2}\log (1+ \text{SNR})21​log(1+SNR) on the AWGN channel with lattice encoding and decoding”. 本文证明了使用 lattice code可以achieve Gaussi

2020-11-18 19:07:04 396

原创 Lattice原理及在通信中的应用 2 Packing, Covering, Quantization, Modulation

Packing, Covering, Quantization, Modulation再讲了大一堆概念之后,我们终于可以开始来看看 lattice 的一些性质了。其实lattice有很好的几何含义,因此实际上关于 lattice的概念和性质都还是很好理解的。首先一个问题就是 packing。还记得第一讲中的 nnn 维球 Br\mathcal{B}_rBr​ 么,我们首先研究怎么用lattice来pack balls。为了方便叙述,我们进一步定义Unit-radius ball 的 Volume:

2020-11-18 19:05:55 950

原创 Lattice原理及在通信中的应用 1 Lattice 基础

本文 largely based on Prof. Kschischang 和 Chen Feng 2014 年给的 tutorial。原 tutorial 的标题是 “An Introduction to Lattices and their Applications in Communications”. Slide 在网上可以下载到。Lattice 基础Notations我们将使用的一些符号:R,C\mathbb{R,C}R,C: 实数域和复数域。所谓域 (field) 是指一种可进行加减乘除

2020-11-17 11:16:19 1963 1

原创 Capacity of the Gaussian Two-Way Relay Channel to Within 1/2 Bit

ystem model如上图所示,本文考虑 Gaussian TWRN.[Signal Flow]假设 Node i={1,2}i=\{1,2\}i={1,2} 的 rate 是 RiR_iRi​ (bits/channel use), 那么使用了 nnn 次信道之后,他总共可以传 nRinR_inRi​ 个 bits. 那他的codebook的大小就可以为 2nRi2^{nR_i}2nRi​. 我们把 Node iii 使用 nnn 次信道想传输的 message 记作Wi∈{1,2,3,..

2020-11-14 16:43:36 200

原创 The Factor Graph Approach to Model-Based Signal Processing

让我们来研究一下 The Factor Graph Approach to Model-Based Signal Processing 这篇文章。本文主要是以图模型来解信号处理问题,建议所有做信号处理的同学们都仔细研究一下,这是一项很有用的工具。Forney-style factor graph原始的因子图中有两种节点: variable node and factor node. 而Forney-style factor graph 中有 nodes, edges and half-edges (仅连

2020-10-27 15:15:43 280

原创 MIT 线性代数 Linear Algebra 32:左逆,右逆,伪逆

本节是本课程的最后一讲. Prof Strang在这一讲主要讲了非方阵的逆. 大量的内容跟之前有关, 算是小小的复习吧.方阵的逆首先, 我们都知道如果一个方阵可逆, 那么AA−1=A−1A=I\bm{AA^{-1}}=\bm{A^{-1}A}=\bm{I}AA−1=A−1A=I...

2020-10-12 16:55:07 738

原创 MIT 线性代数 Linear Algebra 31:线性变换的基变换和图像压缩

这一节, Prof.Strang 接着上一讲的内容作了一些补充Eigenvector Basis上一讲我们讲到的那个投影的例子,如果使用 eigenvector 做 basis, 投影变换在此基下的矩阵形式就是一个对角阵. 那么, 这个结果是否通用尼? 答案是肯定的.本节我们只考虑 m=nm=nm=n, 输入输出使用同样的 basis 的情况.Proposition 1: 如果使用 eigenvectors {x1,x2,...,xn}\{x_1,x_2,...,x_n\}{x1​,x2​,...,

2020-10-12 15:52:02 356

原创 MIT 线性代数 Linear Algebra 30:线性变换和其矩阵形式

在这一节的开始,让我们先短暂忘记矩阵,研究什么是线性变换。实际上,线性变换是比矩阵更 general 的定义。只不过在 linear algebra 中我们用矩阵来分析线性变换。线性变换满足以下两个条件的变换 TTT 我们称为线性变换T(v+w)=T(v)+T(W)T(v+w)=T(v)+T(W)T(v+w)=T(v)+T(W)T(cv)=cT(v)T(cv)=cT(v)T(cv)=cT(v)可以看到,线性变换实际上就是一个线性函数:输入线性组合的输出等于输出的线性组合。Fact 1: T(0)

2020-10-12 11:52:00 418

原创 MIT 线性代数 Linear Algebra 29: 奇异值分解 SVD

这一讲我们讲一个重要的矩阵分解,奇异值分解 Singular value decomposition,通常称为SVD.SVD 的基本想法是,任意一个矩阵都能分解为A=UΣV−1=UΣV⊤\bm{A}=\bm{U}\Sigma\bm{V}^{-1}=\bm{U}\Sigma\bm{V}^\topA=UΣV−1=UΣV⊤的形式,其中 U\bm{U}U, V\bm{V}V 均为正交阵,Σ\bm{\Sigma}Σ 是一个对角矩阵。Question: 当 A\bm{A}A 是实对称矩阵时,SVD分解为特征值分

2020-10-11 17:58:40 328

原创 MIT 线性代数 Linear Algebra 28: 对称矩阵与Jordan Form

在本节开始前,Prof. Strang 先回顾了一下positive definite matrix,有一些新内容More about positive definiteness如果 A\bm{A}A 正定,则 A−1\bm{A}^{-1}A−1 正定。这个结论直接看特征值就行, A−1\bm{A}^{-1}A−1 的特征值是 A\bm{A}A 的倒数 (不记得的往前看,A\bm{A}A的特征多项式两边同乘 A−1\bm{A}^{-1}A−1 即可得到),所以也全是正数。if A B

2020-10-10 16:49:12 1098

原创 MIT 线性代数 Linear Algebra 27:正定矩阵 和 函数的极小值 (hessian matrix)

正定矩阵我们之前已经介绍过正定矩阵, 这里在回顾一遍首先我们讨论的矩阵必须是对称矩阵 A⊤=A\bm{A}^\top=\bm{A}A⊤=A, 其次,我们希望它满足所有特征值都是正数,or所有pivots都是正数, or所有子行列式都是正数,orx⊤Ax>0\bm{x}^\top\bm{A}\bm{x}>0x⊤Ax>0, ∀x≠0\forall \bm{x}\neq\bm{0}∀x​=0.之前没涉及到的就是第四点,实际上这一点也是大多数教科书用来定义正定矩阵的性质。这一节

2020-10-09 17:23:03 926

原创 MIT 线性代数 Linear Algebra 26:复矩阵,傅里叶矩阵, 快速傅里叶变换 FFT

这一讲我们来讲一下复矩阵。线性代数中,复矩阵是避免不了的话题,因为一个简单实矩阵都有可能有复数特征值。复矩阵我们着重看一下复矩阵和实矩阵在运算上的区别。距离首先,一个复数向量的的距离求法发生了变化x⊤x  →  xHx\bm{x}^\top\bm{x}~~\rightarrow~~ \bm{x}^H\bm{x}x⊤x  →  xHx其中,xH\bm{x}^HxH 指的是共轭转置。相应的,内积也发生了变化内

2020-10-09 16:18:27 1857

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除