3 青梅煮酒丶

尚未进行身份认证

飞将曾梦居延山,丈夫隐忍且偷安。 匆匆数载征程路,骤雨寒霜境亦难! 轻狂壮志犹未减,滥花争春意何堪。 待到万山憔悴时,独表一枝雪里看! ——咏梅

等级
TA的排名 13w+

有效集法介绍(Active Set Method)

单纯性法(SimplexMethod)是“线性规划之父”GeorgeDantzig最著名的成果,也是求解线性规划最有力的算法之一。而这一算法在求解二次规划(QuadraticProgramming,QP)时的升级版就是有效集法(ActiveSetMethod,ASM)。这两种算法的特点都是迭代点会循着约束边界前进,直到达到问题的最优点。本文对用于求解QP命题的PrimalA...

2018-10-29 12:11:30

浅显易懂——泰勒展开式

第一次见到泰勒展开式的时候,我是崩溃的。泰勒公式长这样:好奇泰勒是怎么想出来的,我想,得尽量还原公式发明的过程才能很好的理解它。首先得问一个问题:泰勒当年为什么要发明这条公式?因为当时数学界对简单函数的研究和应用已经趋于成熟,而复杂函数,比如:这种一看就头疼的函数,还有那种根本就找不到表达式的曲线。除了代入一个x可以得到它的y,就啥事都很难干了。所以泰勒同学就迎难而上!决定让这些式子统...

2018-10-26 14:48:48

DeepMind推出分布式深度强化学习架构IMPALA,让一个Agent学会多种技能

目前,深度增强学习(DeepRL)技术在多种任务中都大获成功,无论是机器人的持续控制问题,还是掌握围棋和雅达利的电子游戏。不过,这些方面的进展仅限于孤立任务。完成每一项任务都要单独调试、训练agent。在最近的工作中,我们研究了如何训练单一agent去执行多种任务。今天,我们发布了DMLab-30。这是一组新任务,包含了在统一视觉环境、通用动作空间(actionspace)中的多种类型挑...

2018-07-28 15:32:13

DeepMind提出多任务强化学习新方法Distral

选自arXiv机器之心编译参与:蒋思源、黄小天深度强化学习因为复杂的环境而很难进行有效的训练,通常我们会简化环境或使用共享神经网络参数的方法进行多任务学习,但采用这种方法的学习并不稳定。因此DeepMind近日发表了一篇论文,并提出了一种用于多任务的联合训练的新方法—Distral(提取&迁移学习)。 论文链接:https://arxiv.org/pdf/1...

2018-07-28 13:54:50

图像三维重建方法综述

文章转自:http://blog.csdn.net/zhubaohua_bupt/article/details/74172831 利用相机进行三维重建已经不是一个新鲜的话题,重建的三维环境用途很广泛,比如检测识别目标,作为深度学习的输入,视觉SLAM。目前,比较流行的是单、双目的重建。根据重建的稀疏程度不同,可以分为以下以下几类:稀疏重建:通常是重建一些图像特征点的深度,...

2018-07-27 14:15:20

Confusion Matrix (混淆矩阵)

转自:https://blog.csdn.net/java1573/article/details/78881284一个完美的分类模型就是,如果一个客户实际上(Actual)属于类别good,也预测成(Predicted)good,处于类别bad,也就预测成bad。但从上面我们看到,一些实际上是good的客户,根据我们的模型,却预测他为bad,对一些原本是bad的客户,却预测他为good。我们需要...

2018-06-20 13:03:08

遗传算法中常用的选择策略

简述  遗传算法(GA)是一种模拟生物进化自然选择过程的非确定性搜索方法,源于达尔文的进化论和孟德尔的遗传定律,由美国Michigan大学的Holland教授在20世纪70年代首先提出。生物理论指出,生物个体的各种生命表征是由许多基因共同决定的。同一种群的不同生物个体通常拥有不同的基因,因此对外在环境的适应能力也是不同的。在自然选择的作用下,一部分环境适应能力较差的个体会死亡被淘...

2018-03-06 15:23:57

遗传算法概述

一、绪论      1、遗传算法(GeneticAlgorithm)是受生物进化学说和遗传学说的启发发展起来的,生物在进化的过程中:1、不断繁殖2、生存竞争3、适者生存4、遗传和变异。2、{遗传算法不是直接把解求出来,得到的解是不是最优解还不敢肯定,他只是一步一步逼近最优解,他是这样一种寻优的技术}      3、遗传算法的研究对象:研究各种非线性、多变量、多目标、复杂的自适应系统问题...

2018-02-18 12:00:14

前沿 | 利用遗传算法优化神经网络:Uber提出深度学习训练新方式

在深度学习领域,对于具有上百万个连接的多层深度神经网络(DNN),现在往往通过随机梯度下降(SGD)算法进行常规训练。许多人认为,SGD算法有效计算梯度的能力对于这种训练能力而言至关重要。但是,Uber近日发布的五篇论文表明,神经进化(neuroevolution)这种利用遗传算法的神经网络优化策略,也是训练深度神经网络解决强化学习(RL)问题的有效方法。Uber涉及领域广泛,其中许多领域都...

2018-02-17 10:54:09

遗传算法---实数编码方式

文章转自:http://blog.csdn.net/u012319493/article/details/50502527问题:求f(x)=x+10*sin(5x)+7*cos(4x)最大值,0<=x<=9新建输入文件gadata.txt,内容为: 0,9 表示变量x的下界和上界。 新建日志文件galog.txt,用于记录计算过程及输出结果。//GA.cpp:Defines...

2018-02-08 13:22:21

遗传算法原理及例题

作者:sjyan链接:https://www.zhihu.com/question/23293449/answer/120220974来源:知乎著作权归作者所有。商业转载请联系作者获得授权,非商业转载请注明出处。求解函数f(x)=x+10*sin(5*x)+7*cos(4*x)在区间[0,9]的最大值。这个函数大概长这样:<i

2018-02-06 09:17:45

通俗讲解遗传算法:内存中的进化

这是个真实的故事。从前在海岸边有一群扇贝在悠哉游哉地生活繁衍着。它们自然是衣食不愁,连房子也有了着落。它们担忧的只有一件事:每隔一段时间,总有一个人来挖走它们之中的一部分。当然啦,挖回去干什么这大家都知道。但扇贝们不知道的是,这人的家族图腾是Firefox的图标,所以他总是选择那些贝壳花纹长得比较不像Firefox图标的扇贝。这种状况持续了好几十万代。大家应该也猜到扇贝们身上发生什

2018-02-05 14:14:45

OpenCV3.1.0的下载、安装和配置

1.任务描述准备配置的环境电脑系统:Windows10专业版 OpenCV版本:3.1.0VisualStudio版本:2015在配置OpenCV3之前,需要先把VS2015安装好。本文默认已经安装了VS2015。如果没有安装VS2015,请参考我的博客中的关于VS2015的下载和安装的内容:http://xinbolai.bl

2018-01-26 10:44:04

一篇文章搞懂Python中self的含义

文章转自:http://python.jobbole.com/81921/刚开始学习Python的类写法的时候觉得很是麻烦,为什么定义时需要而调用时又不需要,为什么不能内部简化从而减少我们敲击键盘的次数?你看完这篇文章后就会明白所有的疑问。self代表类的实例,而非类。实例来说明

2018-01-14 13:14:44

Python 2.7.x 和 3.x 版本的重要区别

许多Python初学者都会问:我应该学习哪个版本的Python。对于这个问题,我的回答通常是“先选择一个最适合你的Python教程,教程中使用哪个版本的Python,你就用那个版本。等学得差不多了,再来研究不同版本之间的差别”。但如果想要用Python开发一个新项目,那么该如何选择Python版本呢?我可以负责任的说,大部分Python库都同时支持Python2.7.x和3.x版本的,所以不

2017-12-05 19:27:30

十个生成模型(GANs)的最佳案例和原理

生成对抗网络(GANs)是一种能“教会”计算机胜任人类工作的有趣方法。一个好的对手能让你成长更快,而GANs背后就是“从竞争中学习”的思路。GANs最先是由蒙特利尔大学的IanGoodfellow提出,已在图像生成和风格迁移等领域获得了巨大的成功,充分展示了“无监督学习”技术的潜力。GANs是如何工作的?△GAN结构示意图一个GAN中包含两个相互竞争的神经

2017-12-02 12:23:31

决策树的剪枝理论

剪枝理论,决策树的剪枝在上一节中没有仔细讲,趁这个机会学习了剪枝的基础理论,这里会详细学习。决策树为什么(WHY)要剪枝?原因是避免决策树过拟合(Overfitting)样本。前面的算法生成的决策树非常详细并且庞大,每个属性都被详细地加以考虑,决策树的树叶节点所覆盖的训练样本都是“纯”的。因此用这个决策树来对训练样本进行分类的话,你会发现对于训练样本而言,这个树表现完好,误差率极低且能够正

2017-11-29 16:24:36

令人拍案叫绝的Wasserstein GAN

在GAN的相关研究如火如荼甚至可以说是泛滥的今天,一篇新鲜出炉的arXiv论文《WassersteinGAN》却在Reddit的MachineLearning频道火了,连Goodfellow都在帖子里和大家热烈讨论,这篇论文究竟有什么了不得的地方呢? 要知道自从2014年IanGoodfellow提出以来,GAN就存在着训练困难、生成器和判别器的loss无法指示训练进程、生成

2017-11-22 13:35:07

斯坦福大学机器学习——交叉验证(Cross Validation)

假设我们需要从某些候选模型中选择最适合某个学习问题的模型,我们该如何选择?以多元回归模型为例:,应该如何确定k的大小,使得该模型对解决相应的分类问题最为有效?如何在偏倚(bias)和方差(variance)之间寻求最佳的平衡点?更进一步,我们同样需要知道如何在加权回归模型中选择适当的波长参数,或者在基于范式的SVM模型中选择适当的参数C?我们假设模型集合为有限集,我们的目的就是从这d个模型

2017-11-20 09:20:21

相对熵(KL散度)

信息熵反应了一个系统的有序化程度,一个系统越是有序,那么它的信息熵就越低,反之就越高。下面是熵的定义 如果一个随机变量的可能取值为,对应的概率为,则随机变量的熵定义为              有了信息熵的定义,接下来开始学习相对熵。  1.相对熵的认识    相对熵又称互熵,交叉熵,鉴别信息,Kullback熵,K

2017-11-20 08:58:36

查看更多

勋章 我的勋章
    暂无奖章