自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+

对半独白

纯粹的个人分享

  • 博客(93)
  • 收藏
  • 关注

原创 AlphaGo技术剖析:揭开围棋大脑的神秘面纱

● 每周一言智能所体现的思维与认知,没有标准。导语围棋,起源于我国尧舜时期,自古以来备受追捧,蕴含着中华文化的丰富内涵。有别于象棋和国际象棋,围棋棋盘之大,玩法千变万化,其落子的可能性更是不可估量,因此一直以来都是棋类AI无法攻克的一道屏障。随着深度学习的快速发展及计算机硬件技术的突飞猛进,DeepMind团队研发的AlphaGo围棋AI程序于去年一月以5:0优势横扫欧洲围棋专业二段棋手樊麾,之后的

2017-05-29 20:13:16 4314 6

原创 Policy Evaluation之Sequencial DR论文讲解

● 每周一言。导语Sequencial DR

2018-12-02 14:36:58 693

原创 Policy Evaluation之Doubly Robust论文讲解

● 每周一言不用担心自己有多努力,因为每个人身边总会有一个人比你更努力。导语前一篇文章已经铺垫好了增强学习评估的概念,几乎所有对强化学习策略评估的方法都是基于重要性采样(Importance Sampling,IS)展开。其中最经典的方法,莫过于ICML2011上出现的Doubly Robust estimation了。那么,Doubly Robust estimation具体是如何评估RL...

2018-11-25 12:37:22 4463

原创 理解增强学习的评估

● 每周一言潜能,多半都是逼出来的。导语在前面机器学习方法篇系列文中,小斗给大家简单介绍了什么是增强学习,以及增强学习最基础的几个算法(MDP、DP、MC、TD)。基本上,策略函数的优劣直接决定了整个算法模型的好坏。那么,如何评估增强学习的策略?和评估 监督/无监督学习 有何不同?RL评估我们知道,在监督学习中,数据样本有明确的label标签值,我们可以通过计算预测值与标签值之间的AUC...

2018-11-11 18:37:38 2063

原创 几何分布和二项分布有什么区别?

● 每周一言。导语各种常见的分布中,二项分布和几何分布经常同时出现,在前面讲泊松分布的时候也简单提到了二项分布。那么,几何分布是什么分布?和二项分布又有什么区别?几何分布讲泊松分布的时候提到,二项分布的概率公式如下: 这里不妨进一步明确一下适用于二项分布计算的条件,一共有如下三个: 其一,某次事件发生的次数(或者实验次数)有限且固定,用n表示。比如抛十次硬币。 其二,...

2018-09-16 13:19:07 52982 3

原创 认识生活中的泊松分布

● 每周一言有些人推动生活走,有些人则被生活推着走。导语公交地铁站根据每天客流量的变化安排班次,银行根据每天的排号人数决定开放柜台数,包子粥铺根据每天卖出多少碗粥和多少个包子来充分备货……这一类问题都和泊松分布息息相关。那么,如何直观理解泊松分布?泊松分布要讲泊松分布,得先讲讲二项分布,因为泊松分布是二项分布的极限形式,是由二项分布的公式推导而来。 二项分布,顾名思义,就...

2018-08-26 17:48:46 18293 3

原创 什么是极大似然估计?

● 每周一言坚持一定是有毅力,但有毅力不一定能坚持。导语统计学中,我们经常能听到极大似然估计,或者最大似然估计,它是一种参数估计方法。在机器学习中,逻辑回归就是基于极大似然估计来计算的损失函数。那么,如何直观理解极大似然估计?极大似然估计极大似然估计(maximum likelihood estimation,MLE),顾名思义,“极大”意为“最有可能的”,“似然”意为“看起来...

2018-08-12 19:08:30 9412

原创 为什么样本方差计算是除以n-1?

● 每周一言。导语在分析样本数据情况时,都需要看一看方差。在概率统计学中,方差是衡量数据离散程度的一种度量,样本方差越大,样本间偏离程度越大,反之越小。在数据量巨大或者较难获得总体样本时,按照方差标准公式计算出来的实际方差,通常并非样本的真实方差。因此,为了保证无偏计算,大数据量下用采样数据计算方差时,是除以n-1而不是n。那么,为什么除以n-1就能保证计算出来的方差是真实方差?...

2018-08-05 18:41:01 34202 10

原创 统计分析之为什么需要统计

● 每周一言心中有数,才能气定神闲。导语从本周起,小斗开始写统计分析相关的文章。特征的优劣直接决定了模型是否奏效,特征提取的关键则是理解数据。一名优秀的算法工程师,一定先是一名优秀的统计工程师。那么,为什么需要统计?统计看过三国演义应该知道,诸葛亮排兵布阵时经常这样说:关羽听令!给你三千精兵,从左路包抄曹军;张飞听令,给你五千精兵,从右路包抄曹军……由此可知,诸葛亮打仗,必...

2018-07-22 08:44:01 3595

原创 特征选择:最合适的往往就在身边

● 每周一言。导语特征工程,是机器学习过程中必不可少的重要一环。在诸如kagglers、kddcup以及国内的天池大数据竞赛等比赛中,top的优胜队伍通常并不是使用了什么高深的算法,而是在特征工程环节做好了充分的准备,仅使用常见的模型便取得了较为出色的效果。由此可见,特征工程在实际的实验研究以及项目落地过程中,占据着举足轻重的地位。而在特征工程里,特征选择又是其举足轻重的一个环节,...

2018-07-01 17:07:47 477

原创 ks:能定阈值的评价指标

导语之前讲解过AUC评价指标,AUC能很好描述模型整体性能的高低。除了AUC,还有一个指标能描述相同的效果,那便是KS,而且KS还能够给出最佳划分阈值。那么,KS具体是什么指标?计算方式和AUC有何不同?KS评价指标KS(Kolmogorov-Smirnov)评价指标,通过衡量好坏样本累计分部之间的差值,来评估模型的风险区分能力。其计算方式和AUC的计算方式基本类似,我们不妨先来回顾一...

2018-06-24 15:24:39 15883 2

原创 机器学习方法篇(30)------线性判别分析

● 每周一言想高效的工作,合作不可或缺。导语上一节介绍了PCA降维方法,PCA是一种无监督降维方法。本节将介绍另外一种常见的有监督降维方法,线性判别分析LDA,以及其具体的算法思想和步骤。线性判别分析我们知道,降维的最终目的是一方面能将特征维数大大降低,另一方面则能够最大程度的保持原样本数据的多样性。 前一节所讲的PCA模型,可以将样本数据投影到方差最大的低维空间中,保证...

2018-06-17 17:54:25 624

原创 机器学习方法篇(29)------主成分分析

● 每周一言评论家通常比实干家来的容易。导语上一节介绍了什么是降维,以及降维解决的问题。本节将介绍线性降维中的主成分分析PCA的具体算法思想和步骤。主成分分析主成分分析,顾名思义就是提取出主要的成分。直观上理解,降维其实就是从稀疏庞大的特征维度上提取出主要的维度。PCA是一种常用的降维技术,其思想是将N维特征映射到K维特征上,这K维特征两两正交,正交可以理解为互不依赖,在空...

2018-06-03 11:54:58 478

原创 机器学习方法篇(28)------降维和度量学习

● 每周一言。导语在特征提取过程中,有时候会遇到特征维数非常大(维数灾难)的情况,这种情况会带来两个主要问题:一是样本稀疏大大削弱了特征表达能力,二是高维数所带来的庞大计算量。降维和度量学习便是维数灾难的解决之法。那么,究竟什么是降维和度量学习?降维和度量学习首先我们来讲讲这个“维数灾难”。特征维数变大之后,为什么会出现“灾难”?不妨举一个例子来直观理解:比如一个分类问题,...

2018-05-27 18:07:01 1056

原创 样本不均衡问题调研

● 每周一言。导语在有监督的模型训练中,多多少少都会遇到样本不均衡(Imbalanced Data)的问题,样本不均衡将导致模型学习不到想学到的知识。比如癌症预测模型,相比健康人而言,患癌病人的数量本来就很少,这样数据不平衡的问题很大程度上限制了模型的能力。那么,如何解决样本的不均衡呢?样本不均衡样本不均衡简而言之,就是不同类别标签的样本之间的数量差别较大。由于多分类问题可以转...

2018-05-20 16:54:34 2463

原创 机器学习方法篇(27)------时序差分方法

● 每周一言智商决定深度,而情商决定高度。导语前面分别讲解了增强学习当中的动态规划方法和蒙特卡洛方法的算法思想。在实际问题当中,DP通常无法或者很难得到问题的真实模型结构,MC则很难估算一次行动的最终价值奖励。时序差分方法结合了动态规划和蒙特卡洛方法的优点,是强化学习的核心思想。那么,TD的算法思想是什么?时序差分方法前文我们了解了MC是每次对样本进行完整的采样模拟,用...

2018-04-29 08:17:04 2282

原创 梯度消失和梯度爆炸

● 每周一言时间,是成长的必要代价。导语在机器学习模型训练的常见问题中,除了会遇到过拟合、欠拟合问题,还有一类问题也经常出现,那便是 梯度问题。梯度问题具体是什么?又有哪些应对之法?梯度问题梯度问题出现在深度神经网络的残差反向传播过程当中,原因是神经网络通过链式法则求解不同层的梯度,中间的连乘操作有可能导致残差计算的不稳定性,使得模型训练失效。梯度问题具体有两种表现形式:梯...

2018-04-15 13:02:02 899

原创 机器学习方法篇(26)------蒙特卡罗方法

● 每周一言易怒与躁动,是不成熟的表现。导语蒙特卡洛,是袖珍之国摩纳哥的一座赌城名字。冯·诺依曼用一个赌城的名字命名蒙特卡洛方法,增加了这个方法的神秘性。那么,MC的算法思想是什么?蒙特卡罗方法如上一节所述,MC是一种基于样本而不基于模型的价值学习方法,只需要在不断试错过程当中学习到的经验。总体来说,MC的核心思路步骤是:探索 → 模拟 → 抽样 → 估值 → 策略优化...

2018-04-07 14:31:34 1687

原创 机器学习方法篇(25)------RL价值学习方法

● 每周一言对待别人的轻视,最好的回击是站在更高的位置。导语上一节讲了如何理解增强学习中的马尔科夫决策过程,并举了具体的例子来描述其求解方法,对算法熟悉的人或许已经看出上节示例中使用的方法是动态规划学习法。那么,除了动态规划法,增强学习的价值学习方法还有哪些?这些方法的不同之处又是什么?RL价值学习方法动态规划(Dynamic Programming)是一种解决复杂问题的算法,...

2018-03-17 23:56:21 1056

原创 机器学习方法篇(24)------理解RL中的MDP

● 每周一言珍惜当下,是对未来最好的承诺。导语上一节介绍了增强学习的一些基本概念,并提到了增强学习被广泛应用的各种场景。那么,增强学习在这些应用当中到底是如何起作用的?换言之,增强学习的优化目标是什么?MDP我们知道, AlphaGo的核心技术是增强学习,我们不妨先仔细想一个问题:对于围棋对弈过程中的每一回合,落子之法究竟受到哪些因素的影响?抛开人类棋手可能受到的各种情...

2018-03-10 22:33:45 1799

原创 机器学习方法篇(23)------增强学习入门

● 每周一言别让梦想的附属品喧宾夺主。导语在小斗去年五月份写的 AlphaGo技术剖析:揭开围棋大脑的神秘面纱 这篇介绍AlphaGo的文章中讲到,AlphaGo之所以能战胜人类顶尖的围棋手,主要是 增强策略网络 的功劳。而增强策略网络的核心技术,便是增强学习。那么,增强学习到底是什么?增强学习增强学习(Reinforcement Learning),又名强化学习,和监督学...

2018-03-04 17:34:37 683

原创 机器学习方法篇(22)------模型聚类法

● 每周一言思考如脚印,踩的越深走的越稳。导语前面已经讲完三种聚类方法,剩下的模型聚类法,主要分为基于概率模型聚类和基于神经网络模型聚类两种。其中基于概率模型的聚类方法较为流行。而在概率模型聚类法中,最典型、也最常用的就是高斯混合模型GMM了。那么,GMM是什么,又是如何聚类的?GMM聚类高斯混合模型(GMM,Gaussian Mixture Models),顾名思...

2018-02-24 18:10:37 1429

原创 机器学习方法篇(21)------密度聚类法

● 每周一言别让偶尔的关心打败习惯的温暖。导语前面介绍了层次聚类法,在聚类效果上,层次聚类的最大问题是:有可能聚出链状类。本节要讲的 密度聚类法 可以克服这个缺点,其原理也更接近于直观意义上的聚类。那么,密度聚类的思想是什么?又有哪些常用算法?密度聚类密度聚类顾名思义,是一种基于样本密度的聚类思想。直观意义上理解,好比在一张地图上做人口密度分布图,密集区域通常会认为是城

2018-02-04 16:20:14 956

原创 什么是管道?

● 每周一言如果有不一样,就努力不让它一样。导语一说到管道,我们可能想到的是超级玛丽的下水道,亦或是曾经流行一时的小游戏flappy bird。而这里要讲的是计算机中的管道,确切的说是linux操作系统中的管道。那么,linux中的管道是什么?有什么作用?管道对于从事互联网行业的人来说,管道技术几乎每天都会用到。在计算机世界中,由于进程之间相互独立,信息无法交互。而计算机中

2018-01-28 14:36:48 15923 3

原创 搜索算法与学习方法论

● 每周一言闻道有先后,术业有专攻。导语去年的基础算法系列中并未讲到搜索算法,考虑到搜索算法的重要性和其思想的普适性,本节就来讲讲搜索算法的基本原理,以及其中所表现的学习方法论。搜索搜索顾名思义,即对关系数据集的元素逐一进行检索。按检索顺序,通常划分成两种方式:深度优先搜索(Depth First Search)和宽度优先搜索(Breadth First Search)。

2018-01-20 21:31:50 530

原创 机器学习方法篇(20)------层次聚类法

● 每周一言如果有人相信你,给你机会,你就有义务加倍努力。导语前面介绍了划分聚类法,在划分聚类中,通常需要指定聚类个数,这样指定的个数往往不是最优个数。本节要讲的层次聚类法,更关心的是同类别样本之间的相似性,而非聚类个数。那么,层次聚类的原理思想是什么?又有哪些常用算法?层次聚类层次聚类顾名思义,按层次对样本进行聚类。层次聚类法按照层次分解顺序可以分成自底向上和自顶而下

2018-01-14 18:24:02 1014

原创 二分查找与补丁规避

● 每周一言越努力,越幸运。导语二分查找(binary search)可以说是最常见的算法思想之一了。即便是如此直观简单的算法,在不同场景下的实现方式也存在着微妙差别,稍有马虎就需要打上冗余难看的补丁来防止各种badcase。趁着周末,小斗带着对binary search的浓厚兴趣,在这里作一下思考总结,并讲讲对补丁规避的理解。binary search二分查找的前提条

2018-01-07 20:34:10 252

原创 NOIP回忆录

是否还记得那一年的长郡机房,向总看NBA的哈哈大笑之声?是否还记得那一年刷的vijos和poj?是否还记得午休空调下的那份盒饭?虽已去十年,但是那年的酸甜苦辣依旧恍如昨日,不妨用小斗当年所写的一套模拟题故事来细细回味一番。

2017-12-24 14:03:32 948

原创 机器学习方法篇(19)------划分聚类法

前面介绍了什么是聚类以及聚类的相似性度量方法,本节开始讲解最常用的聚类方法,划分聚类。划分聚类的原理思想是什么?又有哪些常用的算法?

2017-12-17 19:20:25 2822

原创 机器学习方法篇(18)------聚类

在实际生活中,无论是超市货架还是网络社交群体,都体现着归类的相似性,即所谓的“物以类聚,人以群分”。而在机器学习中,专门有这么一类针对类别划分的算法,就是我们要讲的聚类。那么,聚类的数学含义是什么?又有哪些常用算法?

2017-12-03 18:04:12 639

原创 机器学习方法篇(17)------集成学习

俗话说“三个臭皮匠,顶个诸葛亮”,在机器学习中也是如此。单个模型的性能效果通常弱于多个模型的融合结果,这种融合就叫做集成学习。那么集成学习有哪些常见模型?这种集成是否一定能提升模型效果呢?

2017-11-19 17:28:24 843

原创 机器学习方法篇(16)------朴素贝叶斯分类

上周讲了四个概率统计公式,加法公式、乘法公式、贝叶斯公式、全概率公式,其中的贝叶斯公式由概率乘法公式联立推出。而作为贝叶斯分类中应用最为广泛的模型,朴素贝叶斯分类模型的算法思想是什么?这些公式又是如何运用到分类问题当中的?

2017-11-05 19:43:00 591

原创 机器学习方法篇(15)------贝叶斯分类基础

学过统计分析,一定知道什么是先验概率和后验概率,而贝叶斯分类器的原理和这两种概率息息相关。为了更好地讲解贝叶斯分类器,本节先讲讲概率统计相关的基础知识,方便之后的公式推导。

2017-10-22 18:38:50 425

原创 机器学习方法篇(14)------SVM公式推导

前两节讲完了拉格朗日乘子法和KKT条件,而SVM正好符合拉格朗日乘子法定义的不等式约束优化问题形式,本节就基于KKT条件来推导一下SVM。

2017-10-15 18:11:12 911

原创 机器学习方法篇(13)------KKT条件

上一节讲了带等式约束条件的函数凸优化方法拉格朗日乘子法,本节讲讲带不等式约束条件的函数凸优化方法——KKT条件,为之后深入讲解SVM做准备。

2017-10-08 20:52:53 2250

原创 机器学习方法篇(12)------拉格朗日乘子法

上一节讲到SVM的优化公式,并提到SVM在强大的数学理论背景之下有着十分高效的训练方法,本节就先来讲讲在这之中的一个关键知识点——拉格朗日乘子法,为之后深入讲解SVM做准备。

2017-10-01 16:35:35 5679

原创 机器学习方法篇(11)------SVM入门

支持向量机由Bell实验室于1995年提出,是一种非常有潜力的分类模型。与逻辑回归、神经网络模型相比,支持向量机有着更强的数学理论背景。那么,支持向量机到底是什么?

2017-09-17 19:28:47 1144

原创 机器学习方法篇(10)------随机森林

前面介绍了决策树算法应用之一的GBDT模型,本节讲讲决策树另一个比较火的应用模型,随机森林。与GBDT模型相比,同样属于集成学习,随机森林原理更为直观简洁,模型性能也同样十分强悍。下面,我来讲讲随机森林算法模型的原理与思想。

2017-09-03 18:17:09 2763

原创 机器学习方法篇(9)------梯度提升决策树GBDT

● 每周一言生命在于运动,无论脑力还是体力。导语前面第3、4两节介绍了决策树,由于决策树简单有效,可解释性强,因此被包装成了一些更为高效的机器学习算法,其中最为知名的就是梯度提升决策树GBDT(Gradient Boosting Decision Tree)和随机森林(Random Forest)这两种模型。本节讲解GBDT,讲讲这个在各大竞赛中炽手可热的模型。GBDTG-B-D-T梯度提升决策树,

2017-08-20 22:16:45 3370

原创 朴素神经网络原理抛砖引玉

人工神经网络(ANN)作为机器学习当下最热门的模型,在图像识别、语音识别以及各种分类问题中,带来的效果与收益有目共睹。那么,神经网络模型具体是如何起作用的?如何直观感受神经网络的内部工作原理?

2017-08-13 23:38:53 524

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除