2 Sakura_gh

尚未进行身份认证

我要认证

暂无相关简介

等级
TA的排名 9w+

机器学习系列全集,301页PDF精心整理!

机器学习笔记PDF版本合集

2020-08-05 15:17:01

机器学习系列27-循环神经网络RNN(Ⅱ)

Recurrent Neural Network(Ⅱ)上一篇文章介绍了RNN的基本架构,像这么复杂的结构,我们该如何训练呢?Learning TargetLoss Function依旧是Slot Filling的例子,我们需要把model的输出yiy^iyi与映射到slot的reference vector求交叉熵,比如“Taipei”对应到的是“dest”这个slot,则reference vector在“dest”位置上值为1,其余维度值为0RNN的output和reference vec

2020-08-05 12:19:10

机器学习系列26-循环神经网络(Ⅰ)

Recurrent Neural Network(Ⅰ)RNN,或者说最常用的LSTM,一般用于记住之前的状态,以供后续神经网络的判断,它由input gate、forget gate、output gate和cell memory组成,每个LSTM本质上就是一个neuron,特殊之处在于有4个输入:zzz和三门控制信号ziz_izi​、zfz_fzf​和zoz_ozo​,每个时间点的输入都是由当前输入值+上一个时间点的输出值+上一个时间点cell值来组成IntroductionSlot Filli

2020-07-30 16:29:32

机器学习系列25-支持向量机

Support Vector Machine支持向量机(SVM)有两个特点:SVM=铰链损失(Hinge Loss)+核技巧(Kernel Method)注:建议先看这篇博客了解SVM基础知识后再看本文的分析Hinge LossBinary Classification先回顾一下二元分类的做法,为了方便后续推导,这里定义data的标签为-1和+1当f(x)>0f(x)>0f(x)>0时,g(x)=1g(x)=1g(x)=1,表示属于第一类别;当f(x)<0f(x)&l

2020-07-30 16:27:36

机器学习系列24-迁移学习

Transfer Learning如果本文对你有帮助,请给我的github打个star叭,上面附有全系列目录和内容!更多优质内容欢迎关注我的微信公众号“Sakura的知识库”:迁移学习,主要介绍共享layer的方法以及属性降维对比的方法Introduction迁移学习,transfer learning,旨在利用一些不直接相关的数据对完成目标任务做出贡献not directly related以猫狗识别为例,解释“不直接相关”的含义:input domain是类似的,但task是无

2020-07-12 21:03:04

机器学习系列23-无监督学习之生成模型

Unsupervised Learning: Generation如果本文对你有帮助,请给我的github打个star叭,上面附有全系列目录和内容!更多优质内容欢迎关注我的微信公众号“Sakura的知识库”:本文将简单介绍无监督学习中的生成模型,包括PixelRNN、VAE和GAN,以后将会有一个专门的系列介绍对抗生成网络GANIntroduction正如Richard Feynman所说,“What I cannot create, I do not understand”,我无法创造的东

2020-07-12 21:02:02

机器学习系列22-无监督学习之自编码器

Unsupervised Learning: Deep Auto-encoder如果本文对你有帮助,请给我的github打个star叭,上面附有全系列目录和内容!更多优质内容欢迎关注我的微信公众号“Sakura的知识库”:文本介绍了自编码器的基本思想,与PCA的联系,从单层编码到多层的变化,在文字搜索和图像搜索上的应用,预训练DNN的基本过程,利用CNN实现自编码器的过程,加噪声的自编码器,利用解码器生成图像等内容IntroductionAuto-encoder本质上就是一个自我压缩和解压的

2020-07-12 21:00:23

机器学习系列21-无监督学习之近邻嵌入

Unsupervised Learning: Neighbor Embedding如果本文对你有帮助,请给我的github打个star叭,上面附有全系列目录和内容!更多优质内容欢迎关注我的微信公众号“Sakura的知识库”:本文介绍了非线性降维的一些算法,包括局部线性嵌入LLE、拉普拉斯特征映射和t分布随机邻居嵌入t-SNE,其中t-SNE特别适用于可视化的应用场景PCA和Word Embedding介绍了线性降维的思想,而Neighbor Embedding要介绍的是非线性的降维Manif

2020-07-12 20:58:39

机器学习系列20-无监督学习之词嵌入

Unsupervised Learning: Word Embedding如果本文对你有帮助,请给我的github打个star叭,上面附有全系列目录和内容!更多优质内容欢迎关注我的微信公众号“Sakura的知识库”:本文介绍NLP中词嵌入(Word Embedding)相关的基本知识,基于降维思想提供了count-based和prediction-based两种方法,并介绍了该思想在机器问答、机器翻译、图像分类、文档嵌入等方面的应用Introduction词嵌入(word embedding

2020-07-06 21:15:27

机器学习系列19-矩阵分解&推荐系统初步

Matrix Factorization如果本文对你有帮助,请给我的github打个star叭,上面附有全系列目录和内容!辛苦整理码字不易,免费分享给大家,也希望大家能帮忙点一点链接,给我更多的更新动力!本文介绍矩阵分解思想及其在推荐系统上的应用,分析用户背后的隐藏属性并预测其行为Introduction接下来介绍矩阵分解的思想:有时候存在两种object,它们之间会受到某种共同潜在因素(latent factor)的操控,如果我们找出这些潜在因素,就可以对用户的行为进行预测,这也是推荐系统

2020-07-03 10:11:02

机器学习系列18-无监督学习之PCA深入探讨(Ⅱ)

Unsupervised Learning: PCA(Ⅱ)如果本文对你有帮助,请给我的github打个star叭,上面附有全系列目录和内容!辛苦整理码字不易,免费分享给大家,也希望大家能帮忙点一点下图链接,给我更多的更新动力!本文主要从组件和SVD分解的角度介绍PCA,并描述了PCA的神经网络实现方式,通过引入宝可梦、手写数字分解、人脸图像分解的例子,介绍了NMF算法的基本思想,此外,还提供了一些PCA相关的降维算法和论文Reconstruction Component假设我们现在考虑的是手

2020-07-02 13:46:52

机器学习系列17-无监督学习之PCA推导(Ⅰ)

Unsupervised Learning: PCA(Ⅰ)如果本文对你有帮助,请给我的github打个star叭,上面附有全系列目录和内容!辛苦整理码字不易,免费分享给大家,也希望大家能帮忙点一点链接,给我更多的更新动力叭!本文将主要介绍PCA算法的数学推导过程上一篇文章提到,PCA算法认为降维就是一个简单的linear function,它的input x和output z之间是linear transform,即z=Wxz=Wxz=Wx,PCA要做的,就是根据xxx把W给找出来(zzz未知

2020-07-02 13:43:54

机器学习系列16-无监督学习引言

Unsupervised Learning: Introduction如果本文对你有帮助,请给我的github打个star叭,上面附有全系列目录和内容!辛苦整理码字不易,免费分享给大家,也希望大家能帮忙点一点链接,给我更多的更新动力叭!Unsupervised Learning无监督学习(Unsupervised Learning)可以分为两种:化繁为简聚类(Clustering)降维(Dimension Reduction)无中生有(Generation)对于无监督学习(Un

2020-06-29 22:02:54

机器学习系列15-半监督学习

如果本文对你有帮助,请给我的github打个star叭辛苦整理码字不易,免费分享给大家,也希望大家能帮忙点一点下面的图片,给我更多的更新动力叭!半监督学习(semi-supervised learning)1、introduction2、Semi-supervised Learning for Generative Model3、Low-density Separation Assumption:非黑即白4、Smoothness Assumption:近朱者赤,近墨者黑5、Better R

2020-06-28 08:24:13

python类变量、实例变量和私有变量的区别

Python支持面向对象编程,对于一个class类,具有两种类型的成员,一种是变量,另一种是方法(也就是我们平常所说的函数)。所谓的类,指的就是同一个类型的事物,是一个抽象的概念;而所谓实例,就是这个类型中的其中一样具体的事物。假设我有这样一个类:class A: test='this is the test' # 类变量 def __init__(self, name, age): self.name = name # 实例变量 self.__age =

2020-06-05 14:31:21

机器学习前沿算法介绍

上一篇推文介绍了机器学习领域比较常见的几种算法,除此之外,随着人工智能深度学习技术的飞速发展,也涌现了不少前沿研究和新的算法,本文会对上一篇推文进行简要回顾,并扩展介绍一些前沿算法机器学习算法回顾机器学习的本质就是寻找一个函数,它根据某种统计意义来预测现实中已发生或即将发生的现象,这个函数可以相当复杂,它也许具有上千万个参数,以至于根本没有人能够把这个函数的数学表达式给手写出来,但幸运的是,机器可以。给机器指定明确的任务当然机器是很笨的,你要给机器指派任务,首先要做的就是明确自己要找什么样的函.

2020-06-03 22:22:17

机器学习实战项目汇总

ML assignments, about Regression, Classification, CNN, RNN, Explainable AI, Adversarial Attack, Network Compression, Seq2Seq, GAN, Transfer Learning, Meta Learning, Life-long Learning, Reforcement Learning. It will be challenge but cheerful work!Learnin.

2020-05-29 13:01:40

机器学习笔记汇总

ML-notesnotes about machine learning很喜欢一句话:应用之道,存乎一心,与大家共勉ps:如果我的笔记对你有帮助,给个star叭!ML配套Assignments (ppt+code):https://github.com/Sakura-gh/ML-assignments内容包括:Regression, Classification, CNN, RNN, Explainable AI, Adversarial Attack, Network Compression,

2020-05-29 12:58:31

pyqt5如何在同一个窗口下切换不同界面

问题的提出和基本前提网上找了半天也没发现什么靠谱的解答,自己捣鼓着花费了好几个小时,总算是发现了两种能用的方法,先假设一下使用的场景:现在窗口的右半部分有两个界面想要切换显示我们主体窗口的控件为self.main_widget,网格布局为self.main_layout,分为左右两部分:布局的左半部分为self.left_widget,它的作用是导航栏(标签和按钮),因此有一个就足够了布...

2020-04-17 11:44:11

DP动态规划

DP动态规划的本质就是:求出规模为n的问题所需要的所有小规模问题的解,然后把该问题分解成两个小规模问题(考虑所有分解的情况),根据之前得到的解再加上小规模问题合并的代价得到这一种分解的答案,综合考虑所有的分解答案,取最优解遍历并先后求解规模为i的问题,其中i=1~N比如先求出规模为1的问题,再去求规模为2的问题(利用已有的规模为1的问题的答案),然后去求规模为3的问题(利用已有的规模为1和2的...

2020-04-10 20:24:37

查看更多

勋章 我的勋章
  • 持之以恒
    持之以恒
    授予每个自然月内发布4篇或4篇以上原创或翻译IT博文的用户。不积跬步无以至千里,不积小流无以成江海,程序人生的精彩需要坚持不懈地积累!
  • 勤写标兵Lv2
    勤写标兵Lv2
    授予每个自然周发布4篇到6篇原创IT博文的用户。本勋章将于次周周三上午根据用户上周的博文发布情况由系统自动颁发。
  • 学习力
    学习力
    《原力计划【第二季】》第一期主题勋章 ,第一期活动已经结束啦,小伙伴们可以去参加第二期打卡挑战活动获取更多勋章哦。