9 WitsMakeMen

尚未进行身份认证

我要认证

暂无相关简介

等级
TA的排名 1k+

tensorflow教程举例中layers.GlobalAveragePooling1D()的作用

作用:是对矩阵按列进行平均池化。比如tensorflow教程中的这个例子,中间的GlobalAveragePooling1D就是对输入中的sequence进行平均池化。因为这是个分类算法,输入是两维的<batch, sequence>,其中batch是训练模型的分批,sequence是单个句子的长度。模型代码:模型summary:模型简单介绍...

2020-03-01 18:29:58

为什么需要进行one-hot编码

部分内容来自:http://blog.csdn.net/google19890102/article/details/44039761,http://blog.csdn.net/dulingtingzi/article/details/51374487,学习整理,如有侵权,告知删除一、One-Hot Encoding介绍1 .One-Hot EncodingOne-Hot编码,又称为一位有效...

2020-01-05 13:59:38

GBDT与XGB的异同

版权声明:本文为博主原创文章,遵循 CC 4.0 BY-SA 版权协议,转载请附上原文出处链接和本声明。本文链接:https://blog.csdn.net/wodemimashi125/article/details/824271981、xgboost怎么给特征打分?如何解决缺失值问题?1)在训练的过程中,通过gini指数选择分离点的特征,一个特征被选中的次数越多,评分越高。2)xgboo...

2019-09-10 17:10:26

Learning to Rank算法介绍:GBRank

转自:https://www.cnblogs.com/bentuwuying/p/6684585.html之前的博客:http://www.cnblogs.com/bentuwuying/p/6681943.html中简单介绍了Learning to Rank的基本原理,也讲到了Learning to Rank的几类常用的方法:pointwise,pairwise,listwise。前面已经介绍...

2019-07-18 21:12:01

FM算法解析及Python实现

转自:https://www.cnblogs.com/wkang/p/9588360.html什么是FM?FM即Factor Machine,因子分解机。为什么需要FM?1、特征组合是许多机器学习建模过程中遇到的问题,如果对特征直接建模,很有可能会忽略掉特征与特征之间的关联信息,因此,可以通过构建新的交叉特征这一特征组合方式提高模型的效果。2、高维的稀疏矩阵是实际工程中常见的...

2019-07-18 17:53:45

xgboost树状结构输出

画出xgboost模型结构图 xgb.plot_tree(bst, num_trees=0, ) fig = pyplot.gcf() fig.set_size_inches(120, 120) fig.savefig('tree1.png')bst是训练的模型,最后会把模型保存到tree1...

2019-07-10 10:55:33

5种常用的相关分析方法

转自:https://blog.csdn.net/longxibendi/article/details/82558801from: http://bluewhale.cc/2016-06-30/analysis-of-correlation.html相关分析(Analysis of Correlation)是网站分析中经常使用的分析方法之一。通过对不同特征或数据间的关系进行分析,发现业务运营...

2019-07-08 19:52:49

我们常听说的置信区间与置信度到底是什么?

转自:http://baijiahao.baidu.com/s?id=1596169784713150436&wfr=spider&for=pc机器之心18-03-2816:35选自TowardsDataScienceR作者:Dima Shulga机器之心编译参与:程耀彤、思源机器学习本质上是对条件概率或概率分布的估计,而这样的估计到底有多少是置信度?这里就涉及到统计...

2019-06-28 11:34:58

XGBoost参数调优完全指南

转自:https://www.cnblogs.com/mfryf/p/6293814.htmlXGBoost参数调优完全指南(附Python代码)译注:文内提供的代码和运行结果有一定差异,可以从这里下载完整代码对照参考。另外,我自己跟着教程做的时候,发现我的库无法解析字符串类型的特征,所以只用其中一部分特征做的,具体数值跟文章中不一样,反而可以帮助理解文章。所以大家其实也可以小小修改一下代码,...

2019-06-26 20:22:18

协同过滤算法(collaborative filtering)

协同过滤算法(collaborative filtering)https://www.cnblogs.com/xuanku/p/recsys.html简介CF算法的原理是汇总所有<user,item>的行为对, 利用集体智慧做推荐。其原理很像朋友推荐, 比如通过对用户喜欢的item进行分析, 发现用户A和用户B很像(他们都喜欢差不多的东西), 用户B喜欢了某个item, 而用户A...

2019-06-13 14:54:37

mapreduce简单编写

转自:https://blog.csdn.net/weixin_42685589/article/details/81111152一. MapReduce 编程模型还是以一个经典的图片来说明问题.首先, 我们能确定我们有一份输入, 而且他的数据量会很大通过split之后, 他变成了若干的分片, 每个分片交给一个Map处理map处理完后, tasktracker会把数据进行复...

2019-06-12 17:00:03

随机森林(RF)与GBDT的异同

链接:https://blog.csdn.net/wodemimashi125/article/details/82426777相同点:好吧,其实相同点不太好说,如果非要说的话,那就是它们都是由多棵树组成,最终结果由这多棵树一起决定(其实中间的细节还是不一样)。不同点:(1)从集成学习来说,RF属于的bagging(稍微有点改变,增加了列抽样),而GBDT属于boosting;(2)从偏...

2019-05-10 12:12:50

关于Policy Gradient的理解

转自:https://www.jianshu.com/p/af668c5d783d虽然前段时间稍微了解过Policy Gradient,但后来发现自己对其原理的理解还有诸多模糊之处,于是希望重新梳理一番。Policy Gradient的基础是强化学习理论,同时我也发现,由于强化学习的术语众多,杂乱的符号容易让我迷失方向,所以对我自己而言,很有必要重新确立一套统一的符号使用习惯。UCL的Davi...

2019-05-06 11:07:43

十款神奇的GAN,总有一个适合你

转自:http://www.raincent.com/content-10-12012-1.html"YannLecun曾赞誉GAN为“近十年来机器学习领域最有趣的想法”,一经提出便受万众瞩目。伴随着研究的逐步深入,GAN已然衍生出了多种多样的形态。YannLecun曾赞誉GAN为“近十年来机器学习领域最有趣的想法”,一经提出便受万众瞩目。伴随着研究的逐步深入,GAN已然衍生出了多种多样的形...

2019-05-05 14:47:54

生成对抗网络——GAN(一)

转自:https://blog.csdn.net/leviopku/article/details/81292192Generative adversarial network据有关媒体统计:CVPR2018的论文里,有三分之一的论文与GAN有关由此可见,GAN在视觉领域的未来多年内,将是一片沃土(CVer们是时候入门GAN了)。而发现这片矿源的就是GAN之父,Goodfellow大神。文...

2019-04-30 17:41:11

看完这篇报告,你的人工智能常识就基本没问题了

转自:https://www.roboticschina.com/news/201705191455.html国内对于人工智能的讨论大多是不成体系的碎片式,很难从中深入了解人工智能的发展脉络和技术体系,也很难有实际借鉴意义。德勤DUP近期发布了一份报告,对人工智能的历史、核心技术和应用情况进行了详细说明,尤其是其中重要的认知技术。这份报告将有助于我们对人工智能和认知技术进行深入了解,也有助于各行...

2019-04-30 11:54:50

CNN浅析和历年ImageNet冠军模型解析

转自:http://www.sohu.com/a/134988666_206784卷积神经网络原理浅析卷积神经网络(Convolutional Neural Network,CNN)最初是为解决图像识别等问题设计的,当然其现在的应用不仅限于图像和视频,也可用于时间序列信号,比如音频信号、文本数据等。在早期的图像识别研究中,最大的挑战是如何组织特征,因为图像数据不像其他类型的数据那样可以通过人工...

2019-04-29 14:51:14

CART 分类与回归树

转自:https://www.jianshu.com/p/b90a9ce05b28本文结构:CART算法有两步回归树的生成分类树的生成剪枝CART - Classification and Regression Trees分类与回归树,是二叉树,可以用于分类,也可以用于回归问题,最先由 Breiman 等提出。分类树的输出是样本的类别, 回归树的输出是一个实数。CART算法有...

2019-04-28 12:08:27

数据挖掘十大算法之CART详解

转自:https://blog.csdn.net/baimafujinji/article/details/53269040在2006年12月召开的 IEEE 数据挖掘国际会议上(ICDM, International Conference on Data Mining),与会的各位专家选出了当时的十大数据挖掘算法( top 10 data mining algorithms ),可以参见文献【...

2019-04-28 11:54:11

9-信息熵与基尼系数

链接:https://blog.csdn.net/yeziand01/article/details/80731078一、基尼系数是什么?1)定义下面是摘自李航《统计学习方法》中基尼系数的定义,非常清晰。2)基尼系数有什么意义?我们可以先来看一组数据由上图我们可以观察到,类别的个数是 方案一(2个) < 方案三(3个) < 方案四(4个) ,基尼系数为 方案一 &lt...

2019-04-28 11:44:14

查看更多

勋章 我的勋章
  • 勤写标兵Lv1
    勤写标兵Lv1
    授予每个自然周发布1篇到3篇原创IT博文的用户。本勋章将于次周周三上午根据用户上周的博文发布情况由系统自动颁发。