自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+

zhi元元元

学无止境,终生学习

  • 博客(152)
  • 收藏
  • 关注

转载 OpenCV-Python 中文教程

OpenCV官方教程中文版(For Python)OpenCV2-Python-Tutorials段力辉 译说明:搬运自linux公社pdf文件,粗略搬运,仅作个人笔记参考,有时间再美化部分文件参考:https://github.com/abidrahmank/OpenCV2-Python-Tutorialshttp://opencv-python-tutroals.readthedocs.io/...

2018-04-23 14:50:35 1121

转载 Attention和增强循环神经网络

https://blog.csdn.net/a398942089/article/details/53888797CHRIS OLAH,SHAN CARTER 译:Krse Lee原文:http://distill.pub/2016/augmented-rnns译者序:       本文重点讲述的是一种被称为attention的方法,有的人将其译为“聚焦”,但觉得这种翻译将原文对神经网络拟人化的手...

2018-06-14 21:51:40 570

转载 深度强化学习——Dueling-DDQN

https://blog.csdn.net/u013236946/article/details/73161586 深度双Q网络(DDQN)和基于竞争构架Q网络(Dueling-DQN)都是DQN的改进版本,前者是对DQN训练算法的改进,后者是对DQN模型结构的改进。一、DDQN论文(Hasselt等人)发现并证明了传统的DQN普遍会过高估计Action的Q值,而且估计误差会随Action的个数...

2018-06-12 22:38:11 1601

转载 循环神经网络与LSTM

点击打开链接1. 循环神经网络①基本结构在传统的神经网络模型中,是从输入层到隐含层再到输出层,层与层之间是全连接的,每层之间的节点是无连接的。但是这种普通的神经网络对于很多问题却无能无力。例如,你要预测句子的下一个单词是什么,一般需要用到前面的单词,因为一个句子中前后单词并不是独立的。RNN(Recurrent Neuron Network)是一种对序列数据建模的神经网络,即一个序列当前的输出与前...

2018-06-09 23:00:59 552

转载 循环神经网络(RNN) 基础讲解

点击打开链接7.循环神经网络(RNN) 基础7.1 RNN(recurrent neural network)原理7.1.1 RNN为序列数据而生词序其实是很重要的中文中,这样的例子也很多。“怎么样投资白银”vs“白银投资怎么样”;“北京到上海的机票”vs“上海到北京的机票”。设计RNNs的目的,就是处理序列数据。在传统的神经网络模型中,是从输入层到隐含层再到输出层,层与层之间是全连接的,每层之间...

2018-06-09 22:14:21 654

转载 循环神经网络(RNN)原理通俗解释

1.RNN怎么来的?2.RNN的网络结构及原理3.RNN的改进1:双向RNN4.RNN的改进2:深层双向RNN4.1 Pyramidal RNN5.RNN的训练-BPTT6.RNN与CNN的结合应用:看图说话7.RNN项目练手1.RNN怎么来的?循环神经网络的应用场景比较多,比如暂时能写论文,写程序,写诗,但是,(总是会有但是的),但是他们现在还不能正常使用,学习出来的东西没有逻辑,所以要想真正让...

2018-06-06 23:40:37 414

转载 Deep Learning基础--理解LSTM/RNN中的Attention机制

导读目前采用编码器-解码器 (Encode-Decode) 结构的模型非常热门,是因为它在许多领域较其他的传统模型方法都取得了更好的结果。这种结构的模型通常将输入序列编码成一个固定长度的向量表示,对于长度较短的输入序列而言,该模型能够学习出对应合理的向量表示。然而,这种模型存在的问题在于:当输入序列非常长时,模型难以学到合理的向量表示。在这篇博文中,我们将探索加入LSTM/RNN模型中的atten...

2018-06-02 21:56:17 1912

转载 【计算机视觉】深入理解Attention机制

1. 什么是Attention机制?其实我没有找到attention的具体定义,但在计算机视觉的相关应用中大概可以分为两种:1)学习权重分布:输入数据或特征图上的不同部分对应的专注度不同,对此Jason Zhao在知乎回答中概括得很好,大体如下: - 这个加权可以是保留所有分量均做加权(即soft attention);也可以是在分布中以某种采样策略选取部分分量(即hard attention)...

2018-06-02 21:46:43 1890

转载 浅谈Attention-based Model【源码篇】

源码不可能每一条都详尽解释,主要在一些关键步骤上加了一些注释和少许个人理解,如有不足之处,请予指正。 计划分为三个部分: 浅谈Attention-based Model【原理篇】 浅谈Attention-based Model【源码篇】(你在这里) 浅谈Attention-based Model【实践篇】 在之前的博客:浅谈Attention-based Model【原理篇】中,介绍了Attent...

2018-06-02 21:43:11 321

转载 浅谈Attention-based Model【原理篇】

http://blog.csdn.net/wuzqchom/article/details/75792501计划分为三个部分: 浅谈Attention-based Model【原理篇】(你在这里) 浅谈Attention-based Model【源码篇】 浅谈Attention-based Model【实践篇】0. 前言 看了台大的李宏毅老师关于Attention部分的内容,这一部分讲的不错(其实...

2018-06-02 21:41:41 4465

原创 Deep Attention Recurrent Q-Network 5vision groups

摘要:本文将 DQN 引入了 Attention 机制,使得学习更具有方向性和指导性。(前段时间做一个工作打算就这么干,谁想到,这么快就被这几个孩子给实现了,自愧不如啊( ⊙ o ⊙ ))    引言:我们知道 DQN 是将连续 4帧的视频信息输入到 CNN 当中,那么,这么做虽然取得了不错的效果,但是,仍然只是能记住这 4 帧的信息,之前的就会遗忘。所以就有研究者提出了 Deep Recurre...

2018-06-02 20:46:17 298

原创 目前主流 attention 方法

知乎:https://www.zhihu.com/question/68482809

2018-06-02 20:40:36 1666

转载 一文弄懂神经网络中的反向传播法——BackPropagation

https://www.cnblogs.com/charlotte77/p/5629865.html最近在看深度学习的东西,一开始看的吴恩达的UFLDL教程,有中文版就直接看了,后来发现有些地方总是不是很明确,又去看英文版,然后又找了些资料看,才发现,中文版的译者在翻译的时候会对省略的公式推导过程进行补充,但是补充的又是错的,难怪觉得有问题。反向传播法其实是神经网络的基础了,但是很多人在学的时候总...

2018-05-24 22:46:39 171

转载 深度强化学习——连续动作控制DDPG、NAF

一、存在的问题DQN是一个面向离散控制的算法,即输出的动作是离散的。对应到Atari 游戏中,只需要几个离散的键盘或手柄按键进行控制。然而在实际中,控制问题则是连续的,高维的,比如一个具有6个关节的机械臂,每个关节的角度输出是连续值,假设范围是0°~360°,归一化后为(-1,1)。若把每个关节角取值范围离散化,比如精度到0.01,则一个关节有200个取值,那么6个关节共有2006个取值,若进一步...

2018-05-22 19:33:06 1389

转载 使用Keras和DDPG玩赛车游戏(自动驾驶)

Using Keras and Deep Deterministic Policy Gradient to play TORCS——300行python代码展示DDPG(基于Keras)——视频可以先看新手向——使用Keras+卷积神经网络玩小鸟为什么选择TORCS游戏《The Open Racing Car Simulator》(TORCS)是一款开源3D赛车模拟游戏看着AI学会开车是一件很酷的...

2018-05-22 19:32:00 3980 3

转载 Tensorflow 自带可视化Tensorboard使用方法(附项目代码)

如何更直观的观察数据在神经网络中的变化,或是已经构建的神经网络的结构。上一篇文章说到,可以使用matplotlib第三方可视化,来进行一定程度上的可视化。然而Tensorflow也自带了可视化模块Tensorboard,并且能更直观的看见整个神经网络的结构。上面的结构图甚至可以展开,变成:使用:结构图:1with tensorflow .name_scope(layer_name):直接使用以上代...

2018-05-21 23:15:06 667

原创 Tensorflow的可视化工具Tensorboard的初步使用详解

当使用Tensorflow训练大量深层的神经网络时,我们希望去跟踪神经网络的整个训练过程中的信息,比如迭代的过程中每一层参数是如何变化与分布的,比如每次循环参数更新后模型在测试集与训练集上的准确率是如何的,比如损失值的变化情况,等等。如果能在训练的过程中将一些信息加以记录并可视化得表现出来,是不是对我们探索模型有更深的帮助与理解呢?Tensorflow官方推出了可视化工具Tensorboard,可...

2018-05-21 23:09:40 409

转载 Deep Reinforcement learning - 2. 基于tensorflow的DDPG实现

Deep Reinforcemen learning - 2. 基于tensorflow的DDPG实现基于我上一篇博客的算法介绍, 使用tensorflow的代码实现,仿真环境使用gym torcs 为了快速训练出结果,我没有使用driver view图像作为输入,而是使用low dimension传感器数据作为输入, 总共29个数据,包括: - 赛车速度: speedX, speed...

2018-05-21 22:44:34 789

转载 Deep Reinforcement Learning - 1. DDPG原理和算法

Deep Reinforcement Learning - 1. DDPG原理和算法Deep Reinforcement Learning - 1 DDPG原理和算法背景描述DDPG的定义和应用场景DDPG算法相关基本概念定义DDPG实现框架和算法DDPG对于DPG的关键改进下一篇以下用RL作为Reinforcement Learning 的简称。背景描述概括来说,RL要解决的问题是:让age...

2018-05-21 22:43:29 3315 2

原创 Numpy中stack(),hstack(),vstack()函数详解

这三个函数有些相似性,都是堆叠数组,里面最难理解的应该就是stack()函数了,我查阅了numpy的官方文档,在网上又看了几个大牛的博客,发现他们也只是把numpy文档的内容照搬,看完后还是不能理解,最后经过本人代码分析,算是理解了stack()函数增加维度的含义。以下内容我会用通俗易懂的语言解释,内容可能有点多,耐心看,如果哪里说的不对,欢迎纠正!1. stack...

2018-05-21 22:38:55 156

原创 强化学习Flappybird 详细讲解

1 概述强化学习是机器学习里面的一个分支。它强调如何基于环境而行动,以取得最大化的预期收益。其灵感来源于心理学中的行为主义理论,既有机体如何在环境给予的奖励或者惩罚的刺激下,逐步形成对刺激的预期,产生能够最大利益的习惯性行为。结构简图如下:因为强化学习考虑到了自主个体、环境、奖励等因素,所以很多人包括强化学习的研究者Richard Sutton 都认为它是人工智能中最高层的模型,其它深度学习、机器...

2018-05-21 22:25:35 10469

转载 numpy的numpy.delete()/insert()/append()函数

1.numpy.delete(arr,obj,axis=None) arr:输入向量 obj:表明哪一个子向量应该被移除。可以为整数或一个int型的向量 axis:表明删除哪个轴的子向量,若默认,则返回一个被拉平的向量a = np.array(np.arange(12).reshape(3,4))aOut[301]: array([[ 0, 1, 2, 3], [ 4,...

2018-05-21 22:18:53 303

转载 tf.reduce_sum理解(小记)

reduce_sum应该理解为压缩求和,用于降维# 'x' is [[1, 1, 1]#         [1, 1, 1]]#求和tf.reduce_sum(x) ==> 6#按列求和tf.reduce_sum(x, 0) ==> [2, 2, 2]#按行求和tf.reduce_sum(x, 1) ==> [3, 3]#按照行的维度求和tf.reduce_sum(x, 1, k...

2018-05-21 20:28:07 222

原创 pygame.error: Couldn't open images\ship.bmp的解决办法

在《python编程:从入门到实践》这本书中的《外星人入侵》的项目里有如下代码:import pygameclass Ship(): def __init__(self,screen): """初始化飞船并设置其初始位置""" self.screen = screen # 加载飞船图像并获取其外接矩形 ...

2018-05-19 20:44:15 2627

转载 CS231n课程笔记翻译:Python Numpy教程

译者注:本文智能单元首发,翻译自斯坦福CS231n课程笔记Python Numpy Tutorial,由课程教师Andrej Karpathy授权进行翻译。本篇教程由杜客翻译完成,Flood Sung、SunisDown、巩子嘉和一位不愿透露ID的知友对本翻译亦有贡献。原文如下这篇教程由Justin Johnson创作。我们将使用Python编程语言来完成本课程的所有作业。Python是一门伟大的...

2018-05-18 20:49:18 141

转载 CS231n课程笔记翻译:反向传播笔记

译者注:本文智能单元首发,译自斯坦福CS231n课程笔记Backprop Note,课程教师Andrej Karpathy授权翻译。本篇教程由杜客翻译完成,堃堃和巩子嘉进行校对修改。译文含公式和代码,建议PC端阅读。原文如下:内容列表:简介简单表达式和理解梯度复合表达式,链式法则,反向传播直观理解反向传播模块:Sigmoid例子反向传播实践:分段计算回传流中的模式用户向量化操作的梯度小结简介目标:...

2018-05-18 20:42:07 239

转载 150行代码实现DQN算法玩CartPole

1 前言终于到了DQN系列真正的实战了。今天我们将一步一步的告诉大家如何用最短的代码实现基本的DQN算法,并且完成基本的RL任务。这恐怕也将是你在网上能找到的最详尽的DQN实战教程,当然了,代码也会是最短的。在本次实战中,我们不选择Atari游戏,而使用OpenAI Gym中的传统增强学习任务之一CartPole作为练手的任务。之所以不选择Atari游戏,有两点原因:一个是训练Atari要很久,一...

2018-05-18 20:41:10 8918 2

转载 循环神经网络惊人的有效性(下)

版权声明:本文智能单元首发,本人原创翻译,禁止未授权转载。 译者注:在CS231n课程笔记止步于CNN,没有循环神经网络(RNN和LSTM),实为憾事。经知友推荐,将The Unreasonable Effectiveness of Recurrent Neural Networks一文翻译完毕,作为补充。感谢@猴子,@堃堃和@李艺颖的校对。目录循环神经网络字母级别的语言模型RNN的乐趣Paul ...

2018-05-18 20:38:41 441

转载 循环神经网络惊人的有效性(上)

版权声明:本文智能单元首发,本人原创翻译,禁止未授权转载。 译者注:经知友推荐,将The Unreasonable Effectiveness of Recurrent Neural Networks一文翻译作为CS231n课程无RNN和LSTM笔记的补充,感谢@堃堃的校对。目录循环神经网络字母级别的语言模型RNN的乐趣Paul Graham生成器莎士比亚维基百科几何代数Linux源码生成婴儿姓名...

2018-05-18 20:37:39 2320

转载 AI玩跳一跳的终极奥义:首个端到端神经网络,看AI在玩游戏时注意什么

1 前言微信跳一跳自发布以来,迅速成为了人们茶余饭后的休闲利器,同时也演变成了各路程序员的竞技场。程序员们争先开发出各种牛逼外挂,让计算机自己来玩跳一跳,把小游戏玩出了新的境界。然而,在深度学习如此火热,AlphaZero已经征服各种棋类,Atari游戏已经被计算机吊打的情况下,目前出来的各种外挂版本,大多采用传统的方法来实现,比如使用传统计算机视觉的颜色,边缘检测等方法来寻找棋子的位置。传统做法...

2018-05-18 20:33:31 267

转载 用Tensorflow基于Deep Q Learning DQN 玩Flappy Bird

前言2013年DeepMind 在NIPS上发表Playing Atari with Deep Reinforcement Learning 一文,提出了DQN(Deep Q Network)算法,实现端到端学习玩Atari游戏,即只有像素输入,看着屏幕玩游戏。Deep Mind就凭借这个应用以6亿美元被Google收购。由于DQN的开源,在github上涌现了大量各种版本的DQN程序。但大多是复...

2018-05-18 20:24:02 694 1

转载 DQN 从入门到放弃

DQN 从入门到放弃系列 作者:Flood Sung 第一篇:DQN与增强学习: https://zhuanlan.zhihu.com/p/21262246第二篇:增强学习与MDP https://zhuanlan.zhihu.com/p/21292697第三篇 价值函数与Bellman方程 https://zhuanlan.zhihu.com/p/21340755...

2018-05-11 08:38:02 454

转载 使用Tensorflow和MNIST识别自己手写的数字

使用Tensorflow和MNIST识别自己手写的数字最近在学习神经网络相关的东西,发现有很多资料是Tensorflow教程上的内容,但是教程很多只是一个验证官方程序的过程。如何将官方程序变成自己可以利用的程序,网上似乎资料比较少,所以我就来介绍一下如何使用Tensorflow和MNIST搭建自己的手写识别算法,识别自己写的数字(比如下面我写的这个苍劲有力的3~~)。本文也参考了国外大神博客的内容...

2018-05-11 08:37:47 625

转载 经典 CNNs 的 TensorFlow 实现资源汇总

本文简单整理了网上公布的基于 TensorFlow 实现图像语义分析的一些经典网络,方便大家参考学习。1. TensorFlow-SlimTF-Slim 是 tensorflow 较新版本的扩充包,可以简化繁杂的网络定义,其中也提供了一些demo:AlexNetInceptionV1/V2/V3OverFeatResNetVGG例如 VGG-16 网络,寥寥数行就可以定义完毕:def vgg16(...

2018-05-10 22:16:57 474

转载 香港科技大学TensorFlow课件分享

这是一套香港科技大学发布的极简 TensorFlow 入门教程,三天全套幻灯片教程已被分享到 Google Drive。机器之心将简要介绍该教程并借此梳理 TensorFlow 的入门概念与实现。该教程第一天先介绍了深度学习和机器学习的潜力与基本概念,而后便开始探讨深度学习框架 TensorFlow。首先我们将学到如何安装 TensorFlow,其实我们感觉 TensorFlow 环境配置还是相当...

2018-05-10 22:08:01 324

原创 最新重磅TensorFlow学习资料

网站:TensorFlow Developer Summit视频:playlist​www.youtube.com友情提示:建议先看一遍视频再结合PPT比较好理解:)最新学习资料:Keynotetf.data: Fast, flexible, and easy-to-use input pipelinesEager executionML In Javascript (TensorFlow.js)...

2018-05-10 22:04:35 179

转载 深度强化学习实战-Tensorflow实现DDPG

前言这是开栏以来的第一篇文章,都说万事开头难,希望开了这个头之后,专栏里能越来越多关于深度强化学习算法代码实现的文章。正文开始之前,先自我介绍一下,本人刚刚踏入研三,是通信与信息系统专业的学生,实验室是做卫星导航的。但由于自己对深度学习感兴趣,打算读这方向的PhD,所以自学了深度学习,强化学习,目前主要关注自动驾驶领域的研究。因为都是自己在自学,没有人指导期间也遇到了很多困难,相信很多人也和我一样...

2018-05-10 22:03:05 11614 5

转载 跟着阿尔法狗理解深度强化学习框架

阿尔法狗这个被大家热议过很久的主题, 里面其实包含了非常深刻的机器学习智慧。 是一部学习机器学习甚至是人类决策的绝好教材。机器学习是Alphago取胜的关键,为什么它会发挥巨大作用,请看下文。 了解一门科学技术最好的方法就是找出其核心论文, 让我们看看阿法狗的核心论文是怎么解读这个问题的。 以及如果把你放在这样一个位置, 会如何设计这盘游戏。 如果大家了解棋牌类游...

2018-05-10 22:01:17 1432

转载 用DQN玩超级玛丽

算法流程这是我之前画的一个体现一五年DQN算法的示意图:看这张图需要注意的一点是,整个算法是可以看做独立进行的两个过程:用价值网络去玩游戏(play)对价值网络进行更新(updata)开始编程所需要的工具:pytorchopencv-pythonsupermario environment作为使用pytorch的新手,这次踩过的最大一个坑就是,如果ndarray和torch.Tensor之间频繁转...

2018-05-10 21:59:02 3531 4

转载 DQN 原理(二):理解 DQN 中的“Q”

继续讨论 DQN(Deep Q Networks)。可能读者对“Deep”和“Networks”已经有一定了解,但对“Q” 的含义不甚明朗。本文仍然结合上一篇《DQN 原理(一):环境,行为,观测》和上上篇《利用 TensorFlow + Keras 玩 Atari 游戏》的代码及论文【1】进行学习和理解。AI 在每个时刻 t,根据其观测到的选择一种行为,用策略函数表示。策略函数 实现从观测状态到...

2018-05-10 21:49:29 9208

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除