自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(57)
  • 收藏
  • 关注

原创 Linux上新建用户、sudo权限配置以及shell配置

利用chatGPT生产的答案,进行了几次选择,效果不错。

2023-03-27 17:03:04 370

原创 利用screen保持代码在linux服务器上持续运行

通过chatGPT生成的利用screen保持代码在linux服务器上持续运行教程,非常准确。

2023-03-27 10:34:50 142

原创 linux 挂载 cifs文件夹

linux 挂载 cifs文件夹

2022-08-15 19:37:45 1354

原创 设置PyCharm使用Anaconda的环境

设置PyCharm使用Anaconda的环境PyCharm的安装以及Anaconda的安装和环境的新建这里就不做赘述了。为每一个PyCharm中的project设置特定的编译器及资源路径在PyCharm中新建一个project后,该项目的默认编译器应该是系统默认的python.exe。为了选择特定的编译环境,我们需要个性化设置一下。首先点击菜单栏中的File,打开Settings。在Pr...

2020-03-17 12:39:01 45513

转载 从距离、范数、內积,线性结构到度量空间、赋范空间、內积空间、欧几里得空间、巴拿赫空间、希尔伯特空间

上交视频地址

2019-07-05 08:59:01 1362

原创 支持向量机-Support Vector Machine

支持向量机-Support Vector Machine将在SVM之前初窥SVM,没想到其涉及了诸多最优化问题的内容,特此在理解SVM的同时,整理了会用到的最优化相关知识,都在这里了。关于SVM的讲解,我看到了两种方法。一种是网上最多的最优超平面方法求解;另一种是Andrew Ng在Coursera上通过逻辑回归延伸出来的方法。这里我先整理根据网上看到的方法。1. 什么是超平面?维基百...

2018-12-05 16:12:23 279

原创 最优化之凸集、凸函数、上确界、Jensen不等式、共轭函数、Fenchel不等式、拉格朗日乘子法、KKT条件

最优化之凸集、凸函数、上确界1.直线的向量表达1.1 共线定理对于任意两个向量a⃗,b⃗\vec{a}, \vec{b}a,b且b⃗≠0\vec{b} \neq 0b̸​=0,当a⃗∣∣b⃗\vec{a}||\vec{b}a∣∣b时,存在唯一实数λ\lambdaλ,使得a⃗=λb⃗\vec{a}=\lambda \vec{b}a=λb1.2 共面定理如果两个向量a⃗,b⃗\vec{a}...

2018-11-16 11:15:48 3973

原创 矩阵基础概念之行列式与秩

矩阵基础概念及运算1. 矩阵的线性运算性质 1.1 设矩阵A,B,C,DA,B,C,DA,B,C,D为同型矩阵,OOO为零矩阵,k,lk,lk,l为任意常数,则有A+B=B+AA+B = B+AA+B=B+A (交换律)(A+B)+C=A+(B+C)(A+B)+C = A+(B+C)(A+B)+C=A+(B+C) (结合律)A+O=O+A=AA+O = O+A = AA+O=O+A=...

2018-11-13 16:15:53 8126 1

原创 卡方检验 (Chi-square test / Chi-square goodness-of-fit test)

卡方检验 (Chi-square test / Chi-square goodness-of-fit test)1. 什么是卡方检验卡方检验是一种以χ2\chi^2χ2分布为基础的用途广泛的假设检验方法。是一种非参数检验方法。它的无效假设H0H_0H0​为:观察频数与期望频数没有显著性差异。2. 独立性检验以下面的表格为例,我们来探究喝牛奶对感冒发病率有没有影响:实际值感冒人...

2018-10-30 10:11:46 38705 6

原创 生存分析(Survival Analysis)、Cox风险比例回归模型(Cox proportional hazards model)及

生存分析(Survival Analysis)、Cox风险比例回归模型(Cox proportional hazards model)及C-index1. 生存分析生存分析指的是一系列用来探究所感兴趣的事件的发生的时间的统计方法。常见的有1)癌症患者生存时间分析2)工程中的失败时间分析等等。1.1 定义给定一个实例 iii,我们用一个三元组来表示 (Xi,δi,Ti)(X_i, \del...

2018-10-29 17:07:34 219830 19

原创 Windows 10 下 转移MySQL 8.0的数据库文件夹

Windows 10 下 转移MySQL 8.0的数据库文件夹随着数据的不断导入,MySQL中的数据越来越多,所占据的存储空间也越来越大。默认安装MySQL时,其会将数据库文件放到默认目录...

2018-10-25 11:00:26 8355 6

原创 极大似然估计、最小二乘法及朴素贝叶斯

极大似然估计1. 问题定义样本集DDD中的样本都是独立同分布,且样本数为mmmD={(X1,Y1),(X2,Y2),... ,(Xm,Ym)}D=\{(X_1, Y_1), (X_2, Y_2), ...\ ,(X_m,Y_m)\}D={(X1​,Y1​),(X2​,Y2​),... ,(Xm​,Ym​)}其中,Xk={x1,x2,...&

2018-10-24 16:43:06 1080

转载 Deep learning II - III Multi-class classification - Softmax activation

Softmax activation为了从二分类扩展到多分类,在最后一层神经网络上,设置与分类种类一样多的Neurons,然后使用Softmax activation function来得到多分类的网络...

2018-06-27 17:53:15 302

转载 Deep learning III - II Machine Learning Strategy 2 - Multi-task Learning 多任务学习

Multi-task Learning 多任务学习多任务学习和多分类学习不同,从其cost function就能看出。当训练的一组任务都能够共享一些低等级特征时当对于每个任务的数据都很相似时(从一幅图像中识别不同的东西,如行人、信号灯、车辆等等)当能训练足够大的神经网络时 ...

2018-06-27 17:34:43 226

转载 Deep learning III - II Machine Learning Strategy 2 - Transfer Learning 转换学习

Transfer Learning 转换学习当你有类似的两个工作(如猫咪识别和狗狗识别),你已经有一个很不错的猫咪识别网络了,但是狗狗识别的数据不太多,网络也还没有搭建。这时候Transfer learning(pre-training and fine tuning )就要发挥用处了。通过更换已有的猫咪网络的最后一层或者几层,用狗狗的数据重新训练模型,将能够得到不错的结果(保留了一些...

2018-06-27 17:08:00 353

转载 Deep learning III - II Machine Learning Strategy 2 - Bias and Variance with mismatched data distribu

Bias and Variance with mismatched data distribution 不相称数据分布的偏差和方差应对在mismatched data distribution情况下的模型评估,构建了development-train set作为中间评估手段。各个数据集之间的error反应的模型的问题如下图所示 举个例子: 如何消除由于data misma...

2018-06-27 16:53:56 283

转载 Deep learning III - II Machine Learning Strategy 2 - Mismatched training and dev/test set

Deep learning III - II Machine Learning Strategy 2 - Mismatched training and dev/test set 如何处理不相称的训练和测试集深度学习需要大量的数据来供其训练学习当你得到的金标准数据数量较少时(如10,000份),但你可以得到类似的大量数据数据(如200,000份),这时不应该将两部分数据shuffle...

2018-06-27 16:36:36 350

转载 Deep learning III - I Machine Learning Strategy - improving your model performance 如何减少可变避免的变差和方差

improving your model performance 如何减少可变避免的变差和方差

2018-06-27 16:12:16 153

转载 Deep learning III - I Machine Learning Strategy - train development and test sets 训练集、开发集和测试集

train development and test sets 训练集、开发集和测试集size of train development and test sets 待补充

2018-06-27 16:06:14 239

原创 使用 EuGENia 通过 .emf文件 快速生成 GMF editor 图形编辑器

使用 EuGENia 通过 .emf文件 快速生成 GMF editor 图形编辑器Official Tutorial Eclipse Distribution Download 1. 下载包好Epsilon的Ecilpse Distribution并解压 2. 新建一个Graphical editor project 3. 在新建的项目中的model文件夹下新建一个.e...

2018-06-22 11:41:33 1446

原创 Deep learning II - III Batch Normalization - Normalizing activation in a network 激励函数输出归一化

Normalizing activation in a network 激励函数输出归一化 之前我们提到过将输入归一化,能够使学习加速;但是,由于深度神经网络的层数较多,每一层的输出又会变成下一层的输入,因此对于每一层z[l]z[l]z^{[l]}(常用,应作为default)或者a[l]a[l]a^{[l]}的输出进行归一化,同样能够加速学习。如何计算Batch Norm...

2018-06-21 08:17:31 286

转载 Deep learning II - III Hyperparameter tuning - Hyperparameter tuning process 如何调整超参数以及范围选择

Hyperparameter tuning process调整步骤有哪些超参数需要调(红色最优先,黄色次之,紫色随后) 在调谐时,不要用grid;而是要随机选择参数,因为你并不知道什么参数会更重要 由粗到细。 范围选择对于n[l],#layersn[l],#layersn^{[l]}, \# layers等参数,使用random sampling unifo...

2018-06-21 08:15:35 861

转载 Deep learning II - II Optimization algorithms - learning rate decay 学习速率衰减

learning rate decay 学习速率衰减对于mini-batch gradient descent,其梯度下降可能会围绕最优点附近徘徊,但是由于learning rate不变,可能不会进一步靠近最优点(蓝色路径)如果learning rate会随着学习的深入不断衰减,那么上述情况会得到改善,最终的结果和更加靠近最优点(绿色路径) 方法 一 1 epoc...

2018-06-21 08:13:27 278

转载 Deep learning II - II Optimization algorithms - Adam (Adaptive Moment Estimation)自适应矩估计

Adam optimization algorithms将gradient descent with momentum和RMSprop相结合的算法,具有更好的表现效果和下降速度。 Hyperparameters 选择建议如下

2018-06-21 08:12:20 1220

转载 Deep learning II - II Optimization algorithms - RMSprop (Root Mean Square prop)均方根传递

RMSprop相较于gradient descent with momentum,RMSprop的思想是,对于梯度震动较大的项,在下降时,减小其下降速度;对于震动幅度小的项,在下降时,加速其下降速度。通过使用指数加权平均计算得到Sdw, SdbSdw, SdbS_{{\rm d}w},\ S_{{\rm d}b};使用他们来更新参数(如下图所示) Sdw...

2018-06-21 08:11:23 2658

转载 Deep learning II - II Optimization algorithms - Gradient descent with momentum 动量梯度下降算法

Gradient descent with momentum 动量梯度下降算法运用指数加权平均算法,计算梯度的指数加权平均,然后用这个梯度来更新权重。 当使用梯度下降时,下降路径可能会和上图蓝色路径相似,不断震荡;所以我们不能用比较大的learning_rate,以防出现如紫色路径一样的diverging。 通过使用指数加权平均,在纵坐标(以上图阐述)方向的来回震荡通过加权之后...

2018-06-21 08:09:49 449

转载 Deep learning II - II Optimization algorithms - Exponentially weighted averages 指数加权平均

Exponentially weighted averages 指数加权平均指数加权平均指的是通过综合当前点之前的数据和该点数据,通过调整加权值,来得到需要的值的技术。 Vt=βVt−1+(1−β)θtVt=βVt−1+(1−β)θtV_t = \beta V_{t-1} + (1-\beta)\theta_t当ββ\beta接近于1时(0.98),当前点的值VtVtV_t...

2018-06-20 14:06:20 179

转载 Deep learning II - II Optimization algorithms - Mini-batch gradient descent

Mini-batch gradient descent 1. 用batch gradient descent时,当数据量巨大时,向量化的实现同样很慢,并且需要处理全部数据后,gradient才会得到更新 2. 使用mini-batch gradient descent来训练时,每一个mini-batch都能时gradient得到更新(但不一定都使LL{\cal L}下降) ...

2018-06-20 13:20:13 294

转载 Deep learning II - I Practical aspects of deep learning - Gradient checking 梯度检查

Gradient checking 梯度检查 1. 先把参数展开成一个巨大的横向量 2. 依次计算每个向量对应的梯度 3. 检查近似的梯度和实际的梯度相差多少

2018-06-20 12:59:30 212

转载 Deep learning II - I Practical aspects of deep learning - Vanishing/Exploring gradients 梯度消失/爆炸

Vanishing/Exploring gradients 梯度消失/爆炸 如图所示,由于深度神经网络深度较大,当每一层的www都小于1或者都大于1时,最终的输出值会成指数级较小或上升,造成梯度消失或者爆炸,从而使得梯度下降变得困难 1. 为了不让zzz太大,当nnn越大时,www的值应该越小 2. 针对ReLUReLUReLU,初始化w[l]=np.random.randn...

2018-06-20 11:40:02 150

转载 Deep learning II - I Practical aspects of deep learning - Normalizing inputs 输入归一化

Normalizing inputs 输入归一化 1. 输入归一化能够加快训练速度 2. 首先,将输入减去均值 μ=1m∑i=1mx(i)μ=1m∑i=1mx(i)\mu = \frac{1}{m} \sum_{i=1}^m x^{(i)} x:=x−μx:=x−μx := x - \mu 3. 其次,方差归一化 σ2=1m∑i=1mx(i)∗∗2(∗∗meanselem...

2018-06-20 11:19:05 167

转载 Deep learning II - I Practical aspects of deep learning - other regularization methods 其他正则化方法

Other regularization methods 其他正则化方法Data augmentation 通过变化已有数据,来丰富数据集,通过使用更大的数据集来防止过拟合发生 Early stopping 通过观察dev set的表现,提前终止训练,从而得到不是很大的www值,从而产生类似于L2L2L_2正则化的效果 ...

2018-06-20 11:03:56 163

转载 Deep learning II - I Practical aspects of deep learning - Understanding dropout 理解随机失活正则化

Understanding dropout解释 1 通过dropout,每次训练都构建一个更小的神经网络,从而减小过拟合现象发生解释 2 通过dropout,每个neuron不能依赖前一层的某个特定的feature,所以不得不将权重值分散开,从而起到了shrink weights的作用,从而减小过拟合。 注意 dropout使得function JJJ 不在能用来做debug的工...

2018-06-20 10:50:35 232

转载 Deep learning II - I Practical aspects of deep learning - Dropout regularization 随机失活正则化

Dropout regularization 随机失活正则化在训练神经网络时,随机在每层选择一定数量的neuron关闭,从而达到减小过拟合的目的。看起来很疯狂,但是很有效。 1. 对应每一层生成以个mask d[3]d[3]d^{[3]} 2. 用mask与该层的neurons a[3]a[3]a^{[3]}覆盖,dropout一些neuron 3. 剩余的neur...

2018-06-20 10:43:13 226

转载 Deep learning II - I Practical aspects of deep learning - 正则化如何较少过拟合

How regularization reduces overfitting?解释 1 通过regularization, 使得神经网络各个层级的参数WWW都更小更趋近于零,从而使得一个复杂的神经网络变得更像一个简单的神经网络(当参数真为零是,就是简单的神经网络了),从而减小过拟合。 解释 2 以tanhtanh\tanh激励函数为例,当w[l]w[l]w^{[l]}较小时,则z[l...

2018-06-20 10:16:09 103

转载 Deep learning II - I Practical aspects of deep learning - Regularizing your neural network 神经网络范数正则化

Regularizing your neural network 神经网络正则化Logistic regression regularization先用简单的逻辑回归正则化作为例子,因为神经网络的参数WWW是2维的。无正则 J(w,b)=1m∑i=1mL(y^(i)−y(i))J(w,b)=1m∑i=1mL(y^(i)−y(i))J(w,b) = \frac{1}{m} \...

2018-06-20 10:01:48 186

转载 Deep learning I - III Shallow Neural Network - Backpropagation intuition反向传播算法启发

Backpropagation intuition简单的2层浅神经网络,第一层的activation function为tanh(z)tanh(z)tanh(z),第二层的activation function为sigmoid(z)sigmoid(z)sigmoid(z)。使用计算流图(computational graphs)表示如下图:...

2018-06-19 17:53:45 240

转载 CSDN Markdown 使用方法汇总

CSDN Markdown 使用方法汇总Markdown 语法 Markdown 分段函数 Markdown 换行对齐

2018-06-15 17:06:13 344

转载 Deep learning I - III Shallow Neural Network - Derivatives of activation functions激励函数导数推导

Derivatives of activation functions 激励函数的导数Derivatives of Sigmodsigmod=g(z)=11+e−z(1)(1)sigmod=g(z)=11+e−zsigmod = g(z) = \frac{1}{1+e^{-z}}\tag{1} g′(z)=ddzg(z)=d(1+e−z)−1d(1+e−z)∗d(1+e−z)d(...

2018-06-15 16:15:16 206

转载 Deep learning I - IV Deep neural network - Forward and backward propagation正向传播和反向传播模块化

Forward and backward propagation可以将正向传播和反向传播模块化。只需构建两个模块程序,即可完成模型的训练。 正向传播输入为A[l-1],输出为A[l],Cache为Z[l],W[l]和b[l] (W[l]和b[l]为了程序开发方便在这里作为cache存储) 反向传播输入为dA[l],输出为dA[l-1],dW[l],db[l] ...

2018-06-15 14:41:05 426

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除