自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+

  • 博客(484)
  • 资源 (2)
  • 收藏
  • 关注

转载 用反卷积(Deconvnet)可视化和理解卷积网络

Visualizing and understandingConvolutional Networks本文是Matthew D.Zeiler 和Rob Fergus于(纽约大学)13年撰写的论文,主要通过Deconvnet(反卷积)来可视化卷积网络,来理解卷积网络,并调整卷积网络;本文通过Deconvnet技术,可视化Alex-net,并指出了Alex-net的一些不足,最后修改网络结构,

2017-04-16 21:23:46 1762

转载 深度学习在图像超分辨率重建中的应用

超分辨率技术(Super-Resolution)是指从观测到的低分辨率图像重建出相应的高分辨率图像,在监控设备、卫星图像和医学影像等领域都有重要的应用价值。SR可分为两类:从多张低分辨率图像重建出高分辨率图像和从单张低分辨率图像重建出高分辨率图像。基于深度学习的SR,主要是基于单张低分辨率的重建方法,即Single Image Super-Resolution (SISR)。SISR是一个

2017-04-04 17:43:29 704

转载 深度学习的四个步骤

原文地址: https://medium.com/@vzkuma/4-steps-for-learning-deep-learning-86f11fcee54 学习深度学习的四个步骤一个手写资源列表帮助你变成一个深度学习专家 首先,如果你需要一些基本的信息或者令人信服的关于深度学习为什么有非常大的影响,可以检验下面由Andrew Ng制作的视频。       

2017-03-15 21:18:45 772

转载 深度学习之四大经典CNN技术浅析

按:2月28日下午3点,《TensorFlow实战》作者黄文坚做客【硬创公开课】,为我们讲解了关于四大经典CNN网络:AlexNet、VGGNet、Google Inception Net和ResNet的基本原理。本次公开课内容主要节选自作者《TensorFlow实战》第6章,关于这四大CNN网络实现方式可参考作者新书《TensorFlow实战》,其中有这几种网络的详细实现步骤。嘉宾介绍

2017-03-01 17:04:47 1305

转载 广义线性模型(Generalized Linear Models, GLM)

广义线性模型(Generalized Linear Models, GLM)作者:isMarvellous  上一篇博客中我们说到线性回归和逻辑回归之间隐隐约约好像有什么关系,到底是什么关系呢?我们就来探讨一下吧。(这一篇数学推导占了大多数,可能看起来会略有枯燥,但这本身就是一个把之前算法统一起来的抽象模型,从一个更高的角度给出了一个更具泛化能力的方法,还是很有意义的。)

2017-02-25 23:09:20 428

转载 最小二乘的概率解释 广义线性模型解释

在线性回归中,我们以最小二乘来作为损失函数,然后使得这个损失函数的值最小。那么为什么会选择最小二乘而不是其它的指标呢? 今天就用概率方面的知识来解释。首先,设       其中是样本的误差纠正量。由于我们目的是训练出合适的参数,使得的绝对值尽量小,那么可以确定大部分的值集中在0附近,而少数值离0较远,很明显,这可以看成随机变量服从高斯分布。即

2017-02-25 22:50:59 310

转载 广义线性模型 逻辑回归与softmax的推导

今天我来介绍一种在机器学习中应用的比较多的模型,叫做广义线性模型(GLM)。这种模型是把自变量的线性预测函数当作因变量的估计值。在机器学习中,有很多模型都是基于广义线性模型的,比如传统的线性回归模型,最大熵模型,Logistic回归,softmax回归,等等。今天主要来学习如何来针对某类型的分布建立相应的广义线性模型。 Contents    1. 

2017-02-25 16:27:55 521

转载 softmax回归 这个屌我竟然看懂了

在上一篇文章中,讲述了广义线性模型。通过详细的讲解,针对某类指数分布族建立对应的广义线性模型。在本篇文章中,将继续来探讨广义线性模型的一个重要例子,它可以看成是Logistic回归的扩展,即softmax回归。 我们知道Logistic回归只能进行二分类,因为它的随机变量的取值只能是0或者1,那么如果我们面对多分类问题怎么办?比如要将一封新收到的邮件分为垃圾邮件,个

2017-02-25 16:24:44 260

转载 推荐给初学LSTM或者懂个大概却不完全懂的人

个人认为下面这篇博文非常适合初学或者学的很浅的朋友。 转自http://www.jianshu.com/p/9dc9f41f0b29经常接触LSTM,GRU,RNN这些模型,对于LSTM的印象只是知道它用来解决梯度消失梯度爆炸问题,对于长距离的句子的学习效果不好的问题,而且大概知道里面是加了一些参数,加了门单元来选择忘记和记住一些信息。但是具体公式没有推过,所以理解的不够深。但

2017-02-22 19:54:19 325

转载 循环神经网络(RNN, Recurrent Neural Networks)介绍

版权声明:未经许可, 不能转载目录(?)[+]循环神经网络(RNN, Recurrent Neural Networks)介绍   这篇文章很多内容是参考:http://www.wildml.com/2015/09/recurrent-neural-networks-tutorial-part-1-introduction-to-rnns/,在这

2017-02-19 22:35:13 242

转载 循环神经网络-Recurrent Neural Networks

循环神经网络(Recurrent Neural Networks)是目前非常流行的神经网络模型,在自然语言处理的很多任务中已经展示出卓越的效果。但是在介绍 RNN 的诸多文章中,通常都是介绍 RNN 的使用方法和实战效果,很少有文章会介绍关于该神经网络的训练过程。循环神经网络是一个在时间上传递的神经网络,网络的深度就是时间的长度。该神经网络是专门用来处理时间序列问题的,能够

2017-02-19 17:39:33 607

转载 RNN解释摘自知乎

作者:许铁-巡洋舰科技链接:https://www.zhihu.com/question/34681168/answer/133563629来源:知乎著作权归作者所有。商业转载请联系作者获得授权,非商业转载请注明出处。作者:许铁-巡洋舰科技链接:知乎专栏来源:知乎著作权归作者所有。商业转载请联系作者获得授权,非商业转载请注明出处。首先, 要看RNN和对于图像

2017-02-19 17:35:47 768

转载 BP+SGD+激活函数+代价函数+基本问题处理思路

版权声明:本文为博主原创文章,未经博主允许不得转载。目录(?)[+]0. 学习模型评价标准    1)学习速度    2)推广能力/泛化能力/Generalize1. 反向传播算法计算全过程      目标:计算出权重和偏差的梯度(通过反向传播误差的方式)。      下例中,其激活函数为Sigmoid函数:     2. 随机梯

2017-02-14 14:33:52 216

转载 LSTM和递归网络基础教程

转自:http://deeplearning4j.org/zh-lstm1. 简介    本文旨在帮助神经网络学习者了解递归网络的运作方式,以及一种主要的递归网络,即LSTM的功能和结构。    递归网络是一类人工神经网络,用于识别诸如文本、基因组、手写字迹、语音等序列数据的模式,或用于识别传感器、股票市场、政府机构产生的数值型时间序列数据。    递归网络可以说是

2017-02-13 21:10:54 297

转载 cs231n学习笔记-激活函数-BN-参数优化

版权声明:本文为博主原创文章,未经博主允许不得转载。目录(?)[+]1. 机器学习流程简介    1)一次性设置(One time setup)          - 激活函数(Activation functions)          - 数据预处理(Data Preprocessing)          - 权重初始化(Weight

2017-02-13 21:09:58 304

转载 cs231n学习笔记-CNN-目标检测、定位、分割

原文:http://blog.csdn.net/myarrow/article/details/518780041. 基本概念    1)CNN:Convolutional Neural Networks     2)FC:Fully Connected    3)IoU:Intersection over Union (IoU的值定义:Region Proposa

2017-02-13 21:03:08 766

转载 One by One [ 1 x 1 ] Convolution - counter-intuitively useful

Whenever I discuss or show GoogleNet architecture, one question always comes up - "Why 1x1 convolution ? Is it not redundant ? left : Convolution with kernel of size 3x3 right : 

2017-02-13 20:48:19 255

转载 1×1的卷积的作用

1×1的卷积大概有两个方面的作用吧:1. 实现跨通道的交互和信息整合2. 进行卷积核通道数的降维和升维 下面详细解释一下:1. 这一点孙琳钧童鞋讲的很清楚。1×1的卷积层(可能)引起人们的重视是在NIN的结构中,论文中林敏师兄的想法是利用MLP代替传统的线性卷积核,从而提高网络的表达能力。文中同时利用了跨通道pooling的角度解释,认为文中提出的MLP其实等价于在传统卷积核后

2017-02-13 20:45:11 1927

转载 1*1的卷积核与Inception

本文介绍1*1的卷积核与googlenet里面的Inception。正式介绍之前,首先回顾卷积网络的基本概念。 1. 卷积核:可以看作对某个局部的加权求和;它是对应局部感知,它的原理是在观察某个物体时我们既不能观察每个像素也不能一次观察整体,而是先从局部开始认识,这就对应了卷积。卷积核的大小一般有1x1,3x3和5x5的尺寸。卷积核的个数就对应输出的通道数,这里需要说明的是对于输入的每个通道,

2017-02-13 20:44:13 373

转载 蒙特卡罗树搜索+深度学习 -- AlphaGo原版论文阅读笔记

原版论文是《Mastering the game of Go with deep neural networks and tree search》,有时间的还是建议读一读,没时间的可以看看我这篇笔记凑活一下。网上有一些分析AlphaGo的文章,但最经典的肯定还是原文,还是踏踏实实搞懂AlphaGo的基本原理我们再来吹牛逼吧。需要的一些背景对围棋不了解的,其实也不怎么影响,因为只有fea

2017-02-06 21:29:57 870

转载 深度学习斯坦福cs231n 课程笔记

前言对于深度学习,新手我推荐先看UFLDL,不做assignment的话,一两个晚上就可以看完。毕竟卷积、池化啥的并不是什么特别玄的东西。课程简明扼要,一针见血,把最基础、最重要的点都点出来 了。 cs231n这个是一个完整的课程,内容就多了点,虽然说课程是computer vision的,但80%还是深度学习的内容。图像的工作暂时用不上,我就先略过了。 突然发现这两个课程都是

2017-02-06 21:28:16 271

转载 一文看懂如何搭建AI应用:10周学会深度学习,还赢下5千美元

春节后第一个休息日,量子位给大家准备了一个不一样的故事。在这个故事里,主人公David Brailovsky(就叫阿D吧)参加了一场计算机视觉比赛。这个挑战赛要求基于卷积神经网络(CNN),做出一个识别红绿灯的人工智能应用模型。于是阿D花了10周的时间,从0开始,一点一滴摸索着,搭建、调试、训练和一个深度学习系统。而且还在最后的比赛中一举夺魁,赢了5000美元。主人公把这个有点逆袭

2017-02-05 21:38:17 306

转载 【机器学习】Cross-Validation(交叉验证)详解

本文章部分内容基于之前的一篇专栏文章:统计学习引论在机器学习里,通常来说我们不能将全部用于数据训练模型,否则我们将没有数据集对该模型进行验证,从而评估我们的模型的预测效果。为了解决这一问题,有如下常用的方法:1.The Validation Set Approach第一种是最简单的,也是很容易就想到的。我们可以把整个数据集分成两部分,一部分用于训练,一部分用于验证,这也就是我们经常提到

2017-01-16 18:21:42 8611

转载 Analysis of Dropout 就是这篇

Analysis of DropoutJan 10, 20178 minute readOverfitting is a problem in Deep Neural Networks (DNN): the model learns to classify only the training set, adapting itself to the training examples i

2017-01-16 17:28:28 290

转载 张雨石:关于深度学习中的dropout的两种理解

注意:图片都在github上放着,如果刷不开的话,可以考虑翻墙。转载请注明:http://blog.csdn.net/stdcoutzyx/article/details/49022443开篇明义,dropout是指在深度学习网络的训练过程中,对于神经网络单元,按照一定的概率将其暂时从网络中丢弃。注意是暂时,对于随机梯度下降来说,由于是随机丢弃,故而每一个mini-batch都在训练不同

2017-01-16 17:23:21 672

转载 Dropout浅层理解

Dropout浅层理解原文地址:http://blog.csdn.net/hjimce/article/details/50413257作者:hjimce一、相关工作    本来今天是要搞《Maxout Networks》和《Network In Network》的,结果发现maxout和dropout有点类似,所以就对dropout做一下相关的总结,了解一下其代码

2017-01-16 17:15:38 862

转载 (dropout)

other_techniques_for_regularization随手翻译,略作参考,禁止转载www.cnblogs.com/santian/p/5457412.htmlDropout: Dropout is a radically different technique for regularization. Unlike L1 and L2 regularizati

2017-01-16 16:59:17 448

转载 [译]直观理解信息论

作者:Christopher Olah   翻译:Yangyu Chen原文:Visual Information Theory我喜欢通过不同方式思考事物所带来的感觉,特别是当某些模糊的想法被形式化为具体的概念时。信息论便是一个极好的例子。信息论为我们提供了精确的语言来描述许多事物。我对事物有多少的不确信?知道问题A的答案能够为问题B提供多少信息?两组观点之间有多么相似

2017-01-10 19:49:17 842 1

转载 论文引介 | Information Extraction with Reinforcement Learning

文章原名:Improving Information Extraction by Acquiring External Evidence with Reinforcement Learning  作者:Karthik Narasimhan, Adam Yala, Regina Barzilay  单位:Computer Science and Artificial Intellig

2017-01-09 21:04:07 257 1

转载 Deep Reinforcement Learning for Dialogue Generation-关于生成对话的深度强化学习

关于生成对话的深度强化学习 摘要:生成对话的最新神经模型为对话代理提供了很好的前景,但这往往是短视的、每次只预测一句话语从而忽视了它们对之后输出的影响。模拟对话的未来方向的关键在于生成连续、有趣的对话,导致对话的传统NLP模型去借鉴强化学习的需求。在本文中,我们展示如何去整合这些目标,在聊天机器人对话中使用深度强化学习去建模未来的反馈。该模型模拟两个虚拟代理之间的对话,使用策略梯度

2017-01-09 21:03:16 379

转载 如何识别图像边缘?

如何识别图像边缘?作者: 阮一峰日期: 2016年7月22日图像识别(image recognition)是现在的热门技术。文字识别、车牌识别、人脸识别都是它的应用。但是,这些都算初级应用,现在的技术已经发展到了这样一种地步:计算机可以识别出,这是一张狗的照片,那是一张猫的照片。这是怎么做到的?让我们从人眼说起,学者发

2017-01-08 00:08:11 205

转载 蒙特卡洛树搜索算法(UCT): 一个程序猿进化的故事

前言:本文是根据的文章Introduction to Monte Carlo Tree Search by Jeff Bradberry所写。Jeff Bradberry还提供了一整套的例子,用python写的。board game serverboard game clientTic Tac Toe boardAI implementation of Tic Tac

2017-01-07 23:41:39 1353

转载 如何横扫棋坛?AlphaGo 先随机扔了一个骰子

左右互搏,青出于蓝而胜于蓝?—阿尔法狗原理解析19 年前计算机击败国际象棋冠军卡斯帕罗夫的情景还历历在目,现在计算机又要来攻克围棋了吗!?虚竹在天龙八部里自填一子,无意中以“自杀”破解“珍笼”棋局,逍遥子方才亲传掌门之位。难道以后“阿尔法狗”要出任逍遥派掌门了?1933 年,东渡日本 19 岁的吴清源迎战当

2017-01-07 23:27:08 215

转载 蒙特卡罗树搜索+深度学习 -- AlphaGo原版论文阅读笔记

版权声明:本文为博主原创文章,转载请注明出处。目录(?)[+]原版论文是《Mastering the game of Go with deep neural networks and tree search》,有时间的还是建议读一读,没时间的可以看看我这篇笔记凑活一下。网上有一些分析AlphaGo的文章,但最经典的肯定还是原文,还是踏踏实实搞懂Alpha

2017-01-07 23:17:56 288

转载 Playing Atari with Deep Reinforcement Learning 中文 讲解3

细节整理,有错指出,欢迎提问、讨论“未来所有”是建立在已有记忆基础上的,Q尽可能保证眼光长远但不可能超出经验范围Algorithm 1既是学习算法又是玩游戏的算法,而且learning是online的

2016-12-27 21:15:16 216

转载 Playing Atari with Deep Reinforcement Learning 中文 讲解2

去年11月,一篇名为《Playing Atari with Deep Reinforcement Learning》的文章被初创人工智能公司DeepMind的员工上传到了arXiv网站。两个月之后,谷歌花了4亿美元买下了DeepMind公司,而人们对这个公司的了解仅限于这篇文章。近日,Tartu大学计算机科学系计算神经学小组的学者在robohub网站发表文章,阐述了他们对DeepMind人工智

2016-12-27 21:11:25 315

转载 Playing Atari with Deep Reinforcement Learning 中文 讲解

引子说到机器学习最酷的分支,非Deep learning和Reinforcement learning莫属(以下分别简称DL和RL)。这两者不仅在实际应用中表现的很酷,在机器学习理论中也有不俗的表现。 DeepMind 工作人员合两者之精髓,在Stella模拟机上让机器自己玩了7个Atari 2600的游戏,结果是玩的冲出美洲,走向世界,超越了物种的局限。不仅战胜了其他机器人,甚至在其

2016-12-27 21:10:51 2109 1

转载 深度强化学习初探

(未经允许,不得转载)2016年年初备受瞩目的围棋 “人机大战”,以人类围棋冠军被血虐落下帷幕。这只谷歌DeepMind团队开发的围棋机器人阿法狗不仅赚足了眼球,更是掀起了一波关于人工智能的讨论狂潮。现在好像作报告还是写文章都要把阿法狗提一下才能紧跟时代潮流啊(好像也自黑了一下)。其实人家DeepMind不光是下围棋的,在他们的主页上写着大大的 “Solve Intelligence”。要

2016-12-27 20:32:31 469

转载 训练一个简单的游戏AI(Deep Q Network)

Deep Q Network是DeepMind最早(2013年)提出来的,是深度强化学习方法。最开始AI什么也不会,通过给它提供游戏界面像素和分数,慢慢把它训练成游戏高手。Github上有不少DQN实现,在本帖中,我使用TensorFlow训练一个简单的游戏AI。使用pygame写一个简单的小游戏使用强化学习训练游戏AIpygame小游戏

2016-12-26 22:58:10 830

转载 用Tensorflow基于Deep Q Learning DQN 玩Flappy Bird

前言2013年DeepMind 在NIPS上发表Playing Atari with Deep Reinforcement Learning 一文,提出了DQN(Deep Q Network)算法,实现端到端学习玩Atari游戏,即只有像素输入,看着屏幕玩游戏。Deep Mind就凭借这个应用以6亿美元被Google收购。由于DQN的开源,在github上涌现了大量各种版本的DQN程序

2016-12-26 21:39:11 567

SVM习题集.docx

2016-07-16

PKU机器学习课件

机器学习资料哈哈 我觉得很好用哒,你们觉得呢

2015-05-19

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除