自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(438)
  • 资源 (15)
  • 收藏
  • 关注

转载 机器学习实践中应避免的七种常见错误

http://dataunion.org/11624.html作者:Cheng-Tao Chu‘s  LinkedIn在机器学习领域,每个给定的建模问题都存在几十种解法,每个模型又有难以简单判定是否合理的不同假设。在这种情况下,大多数从业人员倾向于挑选他们熟悉的建模算法,本文作者则认为,模型算法的假设并不一定适用于手头的数据;在追求模型最佳性能时,重要的是选择适合数

2015-08-06 20:05:58 1311

原创 scikit-learn:在实际项目中用到过的知识点(总结)

零、所有项目通用的:http://blog.csdn.net/mmc2015/article/details/46851245(数据集格式和预测器)http://blog.csdn.net/mmc2015/article/details/46852755(加载自己的原始数据)(适合文本分类问题的 整个语料库加载)http://blog.csdn.net/mmc2

2015-07-27 08:34:35 7104 4

原创 看过的较好的资源和待看的资源

网上的资源很多,本人只推荐看过的自认为较好的推荐给大家:机器学习基础:推荐:Tom Mitchell:http://book.douban.com/subject/1102235/ 中英文对照,了解该方向的专业名词,了解大概算法、思想。http://www.cs.cmu.edu/~tom/10701_sp11/CMU公开课,深入该领域必看。Andrew

2015-06-04 10:14:24 1977

原创 MuJoCo及mujoco_py安装(以及troubleshooting)

MuJoCo及mujoco_py安装(以及troubleshooting)

2022-10-05 13:44:32 2265 2

原创 很认真的中了两篇AAAI2020的文章:NCC-MARL: Neighborhood Cognition Consistent Multi-Agent Reinforcement Learning.

第一篇:NCC-MARL: Neighborhood Cognition Consistent Multi-Agent Reinforcement Learning.NCC-MARL is a general RL framework to handlelarge-scalemulti-agent cooperative problems. We notice that agents ...

2019-11-16 19:30:48 2731 5

转载 Leetcode刷题指南

参考:https://blog.csdn.net/qq_39521554/article/details/79160815 二、刷题方法方法一:按照题目出现频率刷题顺序参考文章最后的部分方法二:标签法按照网站给大家排列的不同tags,起到模块化的复习和学习作用。举个例子:比如复习链表的内容,就选Linked List这部分的23个题目。刷完之后可以再总结一下常用的方法和数据结...

2019-02-13 19:21:48 17140

原创 很认真的中了一篇AAMAS2019的文章:Modelling the Dynamic Joint Policy of Teammates with Attention Multi-agent DDPG

【有中相同会议的小伙伴记得联系我哦,可以一起商量着把会议相关的事情做好】这篇文章是利用深度强化学习(Deep Reinforcement Learning)做多智能体合作(multi-agent cooperation)。主要贡献点在于使用了一个attention机制 in a principled way,principle在,这个attention是基于agent modelling方...

2019-01-23 15:46:03 4902 3

原创 dropout为什么有用。Dropout在RNN中的应用综述。

 想起来前两天小师弟问我问题,为什么dropout是有用的,看起来像是一个有bug的操作。 这里谈下自己的理解,不一定正确:1)dropout的经典解读之一是network的ensemble,每次drop不同的weights,从而形成不同的sub-network,最后ensemble所有的sub-network2)那么为什么sub-network可行呢?这个很少有人提到。我觉得...

2018-09-25 20:40:16 5789

转载 Cross-Entropy Method (CEM, 交叉熵方法) 与强化学习

转自:https://the0demiurge.blogspot.com/2017/08/cross-entropy-method-cem.html 前言之前阅读Deep Reinforcement Learning: Pong from Pixels的时候,作者在文中最后提到“One should always try a BB gun before reaching for the...

2018-08-17 21:25:24 10127

转载 TensorFlow中实用的知识:在静态图中写条件判断语句

https://mp.weixin.qq.com/s?__biz=MzU2OTA0NzE2NA==&mid=2247493703&idx=1&sn=7944d78c692d5f7590ba052bbf75a235&chksm=fc860954cbf18042be63c9734fd991a2dfbd250b7e803e043af5232829fb83a6ca3f80a...

2018-07-28 08:31:45 5075

原创 CS224N(Natural Language Processing with Deep Learning)总结:模型、任务、作业、作业中涉及到的特殊代码

 模型:word2vec(skip-gram、CBOW)、GloVe、DNN/BP/Tips for training、RNN/GRU/LSTM、Attention、CNN、TreeRNN应用:Neural Machine Translation、Dependency Parsing、Coreference Resolution作业:skip-gram、window-based s...

2018-07-16 20:58:33 2121 2

原创 PAKDD2018小结

会议整体概况610+投稿量long paper:57,9.63%short paper:107,18.07%【placeholder for pictures】投稿量最多的是applications录稿量最多的是mining graph and network data【placeholder for pictures】录稿量最多的三个国家:美中澳参会人数最多的三个国家:澳中美...

2018-06-14 08:37:17 4221 1

原创 The gossip problem【多智能体通信达成全局一致性需要的最少通信次数】

https://www.sciencedirect.com/science/article/pii/0012365X73901210https://arxiv.org/abs/1511.00867

2018-04-11 13:31:42 827

原创 如何解释policy gradient中的baseline具有降低variance的作用

在增强学习中有一大类方法叫policy gradient,最典型的是REINFORCE。在这类方法中,目标函数J(w)(通常是the expectation of long term reward)对policy参数w的gradient为:▽J(w) == E[ ▽logπ(a|s) * return ]== E[ ▽logπ(a|s) * (return-baseline)]~=计算N个samp...

2018-04-09 23:24:22 3689

原创 如果环境存在random,那么问题还能建模成MDP吗?

李宏毅老师的课程:https://www.youtube.com/watch?v=W8XF3ME8G2I老师说,对于同一个observation/state(atari game的画面),也不一定会采取相同的动作,因为有些actor是stochastic的,选action有一定随机性,这一点好理解。。。老师还说,即便actor采取同一个action,得到的reward和next state也不一定...

2018-03-16 08:16:32 560

原创 梯度截断的tensorflow实现

gradients = optimizer.compute_gradients(loss, var_list)capped_gradients = [(tf.clip_by_value(grad, -5., 5.), var) for grad, var in gradients if grad is not None]train_op = optimizer.apply_gradients(...

2018-03-02 09:18:09 4150 3

原创 水了一篇PAKDD2018的文章:Topic-specific Retweet Count Ranking for Weibo

看题目就知道做什么工作:Topic-specific Retweet Count Ranking for Weibo摘要:In this paper, we study \emph{topic-specific} retweet count ranking problem in Weibo. Two challenges make this task nontrivial. Firstly, tr...

2018-02-24 08:26:36 4222 7

原创 使用CNN kernel对图像进行【锐化、模糊、浮雕等】处理

发现一门将tensorflow的不错的课程。https://web.stanford.edu/class/cs20si/2017/lectures/slides_07.pdf之前做过一个相机的APP,当时做图片美化,些非常多的代码效果不一定好。下面这个图提醒我们,其实直接使用CNN特定的kernel在愿图片上进行一次卷积就可以完成图片的转换了,而且计算量应该比较少吧。

2018-01-22 16:47:25 2881 1

原创 python3练习

参考:http://www.runoob.com/python3/python3-tutorial.html输入:>>> a=input("input something:")input something:hello world>>> a'hello world'输出:加括号、不换行>>> print("Hello, Python!")Hello,

2018-01-15 21:25:46 784

转载 2017年AI关键技术盘点:AlphaGo/GAN/Capsule/基于DL的CTR预估/CV/NLP

写的挺好,转一下。2017年AI技术盘点:关键进展与趋势原创 2018-01-04 张俊林 人工智能头条作者 | 张俊林责编 | 何永灿人工智能最近三年发展如火如荼,学术界、工业界、投资界各方一起发力,硬件、算法与数据共同发展,不仅仅是大型互联网公司,包括大量创业公司以及传统行业的公司都开始涉足人工智能。2017年人工智能行业

2018-01-05 09:52:31 1687

原创 通过【端口转发】在服务器上使用TensorBoard

如果是一次转发:https://stackoverflow.com/questions/37987839/how-can-i-run-tensorboard-on-a-remote-serverdown voteHere is what I do to avoid the issues of making the remote server accept your local external I...

2017-11-26 20:56:43 5265 2

原创 MARL(multi-agent reinforcement learning)的一些边缘文章(imitation、transfer、security等)

参考:https://github.com/LantaoYu/MARL-Papers7.4.2、Inverse MARL[1] Cooperative inverse reinforcement learning by Hadfield-Menell D,Russell S J, Abbeel P, et al. NIPS, 2016.[2] Comparison of Mul

2017-11-07 20:40:22 5762

转载 SELU激活函数,scaled exponential linear units

SELU、ReLU、leaky ReLU对比:https://github.com/shaohua0116/Activation-Visualization-Histogram关于SELU激活函数的详细介绍,从这个地址转来的:http://blog.csdn.net/liyuan123zhouhui/article/details/73702271

2017-09-25 17:04:54 11644

转载 Jacobian矩阵和Hessian矩阵

关于Jacobian矩阵和Hessian矩阵的介绍,挺简单明了的:http://jacoxu.com/jacobian%E7%9F%A9%E9%98%B5%E5%92%8Chessian%E7%9F%A9%E9%98%B5/需要注意一点,楼主你好,我和楼上一样不太懂你写的牛顿法求最优化那部分的思路。按我的理解,原方程泰勒二阶展开 f(x+Δx)=f(x)+f′(x)*Δx+1/

2017-09-25 14:46:37 608

转载 Image Completion with Deep Learning in TensorFlow【DCGAN,图像补全】

写的不错,直接拿来了。http://bamos.github.io/2016/08/09/deep-completion/#so-how-can-we-complete-imagesIntroductionStep 1: Interpreting images as samples from a probability distributionHow

2017-09-13 09:36:45 3514 1

原创 多用户linux下安装tensorflow、keras环境;如何在系统自带python和Anaconda间切换

每次装的时候都要犯过去犯过的错误,记录一下,下次直接照着来:1)安装anaconda直接bash Anaconda2-4.4.0-Linux-x86_64.sh(一路enter、yes、ok之类的)可以考虑source ~/.bashrc注意,这里可以which python一下,如果是/home/username/anaconda2/bin/python,就ok。

2017-09-09 17:02:42 1983

转载 变形卷积核、可分离卷积?卷积神经网络中十大拍案叫绝的操作。

总结的非常好,故转来,如果侵权,请告知,会及时删掉。大家还是去看原文好,作者的文章都不错:https://zhuanlan.zhihu.com/p/28749411https://www.zhihu.com/people/professor-ho/posts写文章变形卷积核、可分

2017-08-31 14:08:49 21238 2

转载 从语言学到深度学习NLP,【一文概述自然语言处理】

两篇文章确实不错。https://mp.weixin.qq.com/s?__biz=MzA3MzI4MjgzMw==&mid=2650729976&idx=1&sn=1f2e64ae2baefd82fd6dcac86d2cc77e&chksm=871b2986b06ca0907fdc335b8f79f0c15cc4393ec45f89ad93d3c9a899c05224dc16e244

2017-08-21 22:52:59 3740

转载 【避免AI错把黑人识别为大猩猩】伯克利大学提出协同反向强化学习【论rewards设计的重要性】

因为之后打算写一篇rewards设计的文章,所以看到这个文章觉得是个有力的出发点。另外,文章本身也很不错。https://mp.weixin.qq.com/s?__biz=MzI3MTA0MTk1MA==&mid=2652002837&idx=5&sn=c966fdaab2dc651f644118af9686f712&chksm=f1212ee4c656a7f2f5509ab2b0

2017-08-21 20:20:21 1344

转载 无需数学背景,读懂ResNet、Inception和Xception三大变革性架构

写的确实不错:resnet:加深、通过identity mapping实现inception:加宽、让网络自动选择5*5卷积、3*3卷积还是max-pooling那个更好,通过1*1卷积实现运算量的减少Xception:将通道间的关系和空间上的关系分开进行识别https://mp.weixin.qq.com/s?__biz=MzA3MzI4MjgzMw==&mid=2650

2017-08-21 20:15:19 2890

原创 《reinforcement learning:an introduction》第十三章《Policy Gradient Methods》总结

由于组里新同学进来,需要带着他入门RL,选择从silver的课程开始。对于我自己,增加一个仔细阅读《reinforcement learning:an introduction》的要求。因为之前读的不太认真,这一次希望可以认真一点,将对应的知识点也做一个简单总结。13.1 Policy Approximation and its Advantages . . . . . . . .

2017-08-15 09:57:11 1476

原创 《reinforcement learning:an introduction》第十一章《Off-policy Methods with Approximation》总结

由于组里新同学进来,需要带着他入门RL,选择从silver的课程开始。对于我自己,增加一个仔细阅读《reinforcement learning:an introduction》的要求。因为之前读的不太认真,这一次希望可以认真一点,将对应的知识点也做一个简单总结。The tabular off-policy methods developed in Chap

2017-08-08 19:14:51 732

原创 《reinforcement learning:an introduction》第十章《On-policy Control with Approximation》总结

由于组里新同学进来,需要带着他入门RL,选择从silver的课程开始。对于我自己,增加一个仔细阅读《reinforcement learning:an introduction》的要求。因为之前读的不太认真,这一次希望可以认真一点,将对应的知识点也做一个简单总结。The present chapter features the semi-gradient Sar

2017-08-08 18:53:23 924

原创 《reinforcement learning:an introduction》第九章《On-policy Prediction with Approximation》总结

由于组里新同学进来,需要带着他入门RL,选择从silver的课程开始。对于我自己,增加一个仔细阅读《reinforcement learning:an introduction》的要求。因为之前读的不太认真,这一次希望可以认真一点,将对应的知识点也做一个简单总结。9.1 Value-function Approximation . . . . . . .

2017-08-07 14:33:56 1389

原创 《reinforcement learning:an introduction》第八章《Planning and Learning with Tabular Methods》总结

由于组里新同学进来,需要带着他入门RL,选择从silver的课程开始。对于我自己,增加一个仔细阅读《reinforcement learning:an introduction》的要求。因为之前读的不太认真,这一次希望可以认真一点,将对应的知识点也做一个简单总结。8.1 Models and PlanningBy a model of the

2017-08-03 11:03:27 1645

原创 《reinforcement learning:an introduction》第七章《Multi-step Bootstrapping》总结

由于组里新同学进来,需要带着他入门RL,选择从silver的课程开始。对于我自己,增加一个仔细阅读《reinforcement learning:an introduction》的要求。因为之前读的不太认真,这一次希望可以认真一点,将对应的知识点也做一个简单总结。7.1 n-step TD PredictionThe methods that use n

2017-08-02 19:30:26 1970 4

转载 Deep Learning for NLP Best Practices

写的挺好,选择的话题都是很经典的。原文:http://ruder.io/deep-learning-nlp-best-practices/index.html#introduction译文:http://mp.weixin.qq.com/s?__biz=MzA3MzI4MjgzMw==&mid=2650729318&idx=1&sn=0bd03d7add9d9b6a5fbd1060

2017-07-28 08:27:37 1686

原创 《reinforcement learning:an introduction》第六章《Temporal-Difference Learning》总结

由于组里新同学进来,需要带着他入门RL,选择从silver的课程开始。对于我自己,增加一个仔细阅读《reinforcement learning:an introduction》的要求。因为之前读的不太认真,这一次希望可以认真一点,将对应的知识点也做一个简单总结。注意:本章考虑model-free的prediction和control,仍然有两种方法,pol

2017-07-25 20:41:12 1679 2

原创 《reinforcement learning:an introduction》第五章《Monte Carlo Methods》总结

由于组里新同学进来,需要带着他入门RL,选择从silver的课程开始。对于我自己,增加一个仔细阅读《reinforcement learning:an introduction》的要求。因为之前读的不太认真,这一次希望可以认真一点,将对应的知识点也做一个简单总结。注意:本章考虑model-free的prediction和control,仍然有两种方法,policy

2017-07-25 19:36:19 2330

转载 【致敬ImageNet】ResNet 6大变体:何恺明,孙剑,颜水成引领计算机视觉这两年

文章写得挺好,故转载来。http://mp.weixin.qq.com/s?__biz=MzI3MTA0MTk1MA==&mid=2652001197&idx=1&sn=4239318655806de8ed807d44cdb1b99c&chksm=f121275cc656ae4a3ad2dedc3b7a53b57fe92f76b97fc1c237bcf9e6a4cdb8adba67ff470d

2017-07-23 07:45:26 7519 2

挖掘DBLP作者合作关系,FP-Growth算法实践

挖掘DBLP作者合作关系,FP-Growth算法实践 包括三个代码,一堆结果文件

2017-04-07

Chrome_IE_driver_X64_X32.rar

Chrome_IE_driver 64位32位都有,很好用,已测试。

2016-11-07

dblp测试数据集

dblp测试数据集, 包括十六个会议的【部分内容】, 使用SDM, ICDM, ECML-­PKDD, PAKDD, WSDM, DMKD, TKDE, KDD Explorations, ACM Trans. On KDD, CVPR, ICML, NIPS, COLT、 CVPR、SIGIR、SIGKDD 十六个会议,至少从2000年至今的所有数据。 应用代码参考:http://blog.csdn.net/mmc2015/article/details/50988375 确实花了我很多时间搜集

2016-03-26

entity linking源码

使用lucene、lingpipe做实体连接(Entity Linking)。 数据来自dbpidia。 原始博客参考: http://blog.csdn.net/mmc2015/article/category/5795687 绝对值得参考。

2016-01-17

sql server 2008安装教程

sql server 2008安装教程,绝对详细。 每一步一个图。 不会的请留言,

2015-09-12

机器学习数据集,20news-bydate.rar

主要是解决这里的问题:http://blog.csdn.net/mmc2015/article/details/47971253#reply。数据集下载不下来,还是用现成的吧。

2015-09-06

20news-bydate.tar.gz

机器学习;数据集;20news; 机器学习数据集,主要是为不能用程序正常下载的同学准备。

2015-09-06

java读xml文件jar包

java读xml文件jar包,关于如何读写XML,参考:http://blog.csdn.net/mmc2015/article/details/47860133

2015-08-22

javaweb连接数据库包mysql-connector-java-5.1.27-bin.jar

javaweb连接数据库包 mysql-connector-java-5.1.27-bin.jar

2015-08-15

java操作excel包 jxl.jar

java操作excel包 jxl.jar

2015-08-15

java发送邮件jar包 activation.jar

java发送邮件jar包 activation.jar

2015-08-15

java发送邮件jar包 mail.jar

mail.jar java 发送邮件的jar包

2015-08-15

mysql-connector-java-5.1.27-bin.jar

mysql-connector-java

2015-08-15

中文《机器学习实战》(注解版).pdf

中文版的《机器学习实战》。 和网上资源不同的是,加入了自己的注解,是初学者学习起来有重点,易理解。

2015-07-21

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除