14 ariesjzj

尚未进行身份认证

我要认证

暂无相关简介

等级
TA的排名 1k+

闲话模型压缩之量化(Quantization)篇

1. 前言这些年来,深度学习在众多领域亮眼的表现使其成为了当今机器学习的主流方法。但其巨大的计算量仍为人诟病。尤其是近几年,随着端设备算力增强,业界涌现出越来越多基于深度神经网络的智能应用。为了弥补算力需求与供给的巨大鸿沟,近几年来模型压缩成为了业界的热点之一。模型压缩又可细分为多个子方向。之前在浅谈端上智能之计算优化中有过一些简单的论述,同时在闲话模型压缩之网络剪枝(Network Pruning)篇中更加具体地整理了些关于网络剪枝(network pruning)的东西,今天就再将目光放到另一类方法上

2020-06-25 15:21:52

小议车辆环境视觉基础前视感知

1. 前言无论是AD/ADAS还是智能网联车,前视感知都是其最基础和重要的能力之一。自动驾驶(AD)是前几年的热门话题。今天虽然稍微降温下来一些,但仍是大家关注的重点之一,毕竟它是人类长久以来的梦想之一。众所周知,美国汽车工程师学会(SAE)将自动驾驶分为 L0~L5共六个级别。其中L3及以上允许由系统在限定或不限定条件下完成所有的驾驶操作;而L2及以下还是需要由人类驾驶员一直保持驾驶状态,因此...

2020-04-11 09:45:35

自动驾驶平台Apollo 5.5阅读手记:Cyber RT中的任务调度

前言Baidu Apollo在3.5中引入了Cyber RT,替换了之前基于ROS的变体。Cyber RT的一大特点在于其调度系统。因为自动驾驶与人身安全强相关,因此很强调实时性。传统的机器人系统并不为此设计,所以很难满足实时性要求。系统中存在大量异步任务,如果任其运行和抢占,系统会有很大的不确定性。为了提高系统中任务执行的确定性,Cyber RT引入了协程,在用户态来做调度,一方面让开发者可以...

2020-01-27 11:51:11

浅谈端上智能之计算优化

一、背景 - 边缘智能人工智能(Artificial intelligence)的迅速发展正在改变世界。以深度学习(Deep learning)为驱动力和代表的第三波AI浪潮,正在变革和赋能金融、制造、农业、交通、医疗、零售、教育等众多行业,同时也极大地影响着我们每个人的生活。当前,在移动设备上各种新的AI应用场景正在不断涌现。大量新的需求对端上的智能能力提出了新的挑战,也带来了新的机遇。今天,...

2019-11-05 22:11:05

闲话模型压缩之网络剪枝(Network Pruning)篇

背景今天,深度学习已成为机器学习中最主流的分支之一。它的广泛应用不计其数,无需多言。但众所周知深度神经网络(DNN)有个很大的缺点就是计算量太大。这很大程度上阻碍了基于深度学习方法的产品化,尤其是在一些边缘设备上。因为边缘设备大多不是为计算密集任务设计的,如果简单部署上去则功耗、时延等都会成为问题。即使是在服务端,更多的计算也会直接导致成本的增加。因此,人们正在从各个角度试图克服这个问题,如这几...

2019-09-08 10:19:07

超参数自动优化方法PBT(Population Based Training)

我们知道,机器学习模型的效果好坏很大程度上取决于超参的选取。人肉调参需要依赖经验与直觉,且花费大量精力。PBT(Population based training)是DeepMind在论文《Population Based Training of Neural Networks》中提出的一种异步的自动超参数调节优化方法。以往的自动调节超参方法可分为两类:parallel search和sequen...

2019-08-24 12:26:45

C++强化学习通过Python bindings接OpenAI Gym

OpenAI gym是强化学习最为流行的实验环境。某种程度上,其接口已经成为了标准。一方面,很多算法实现都是基于gym开发;另一方面,新的场景也会封装成gym接口。经过这样一层抽象,算法与实验环境充分解耦隔离,可以方便地自由组合。但gym是python的接口,如果想用C++实现强化学习算法,则无法直接与gym相接。一种方案是跨进程:一个进程运行python环境,另一个进程运行强化学习算法,与环境交...

2019-06-29 08:19:13

单机玩转神经网络架构搜索(NAS) - Auto-Keras学习笔记

介绍AutoML这个topic在机器学习领域越来越火,新的研究成果也是层出不穷。在网络架构(NAS),模型压缩(AMC),数据增强(AutoAugment),优化器设计(NeuralOptimizerSearch),平台相关优化(AutoTVM)等领域,我们都可以看到相应的研究成果表明机器学习可以达到比人肉调参更优的结果。自动化方法正在逐步替代调参工。相信不久的将来,我们面对一个场景,只要喂...

2019-04-05 09:05:40

自动驾驶平台Apollo 3.5阅读手记:Cyber RT中的协程(Coroutine)

原文链接:背景2019 CES上百度发布了Apollo 3.5,其中的亮点之一就是其高性能计算框架Cyber RT。我们知道,Apollo在3.0及之前是基于ROS。ROS虽然已建立起强大生态,在机器人社区广受欢迎,但其多用于学术界实验室验证机器人算法,并不是为了工业界产品设计的。虽然社区已经看到这一矛盾,并已开整ROS 2.0,但现在还处于开发阶段。自动驾驶相较于其它高性能系统而言,最重要的...

2019-02-04 12:22:38

从《西部世界》到GAIL(Generative Adversarial Imitation Learning)算法

看过美剧《西部世界》肯定对里边的真实性(fidelity)测试有印象。William对其岳父James Delos, Delores对Alnold的复制体Bernard,Emily对其父亲William都做过。其中有些测试方和被测试方都是机器人。永生一直是很多科幻剧热衷的话题,而《西部世界》给出了一种基于机器载体与人类思想结合的方案,就是人的复制。那么问题来了,要想复制人,主要有两部分:一部分是躯体,当然这部分按剧中设定已不是问题,无论人、马、牛都能分分钟3D打印出来;另外一部分是思想的复制。但思想很难被

2018-12-23 20:04:02

神经网络架构搜索(Neural Architecture Search)杂谈

机器学习从业者被戏称为“调参工”已经不是一天两天了。我们知道,机器学习算法的效果好坏不仅取决于参数,而且很大程度上取决于各种超参数。超参数的自动搜索优化是一个古老的话题了。深度学习前它主要针对传统机器学习算法的参数,比较经典的方法有random search, grid search,Bayesian optimization,Reinforcement learning, Evolutionar...

2018-12-02 13:24:26

自动驾驶平台Apollo 3.0阅读手记:perception模块之lane post processing

背景之前写过一篇杂文《自动驾驶平台Apollo 2.5阅读手记:perception模块之camera detector》,介绍到用于camera输入的DNN模型不仅会输出物体检测结果,还会输出车道线的语义分割结果。但要得到最终的车道线信息,还要经过后处理。项目中自带一个例子cc_lane_post_processor_test,我们就以这个例子为线索,看下它的大体实现。首先按《自动驾驶平台A...

2018-10-13 19:26:46

深度增强学习DDPG(Deep Deterministic Policy Gradient)算法源码走读

本文是基于OpenAI推出deepreinforcementlearning算法集baselines。之前写过该项目的环境setup介绍《常用增强学习实验环境I(MuJoCo,OpenAIGym,rllab,DeepMindLab,TORCS,PySC2)》以及其中的另一重要算法-PPO算法走读《深度增强学习PPO(ProximalPolicyOptimization)算...

2018-09-15 11:39:16

自动驾驶平台Apollo 2.5阅读手记:perception模块之camera detector

Apollo无人驾驶平台中camera会用来检测车道线及障碍物(车辆,自行车,行人等)。这是通过一个多任务网络来完成的。其中的encoder部分是Yolo的darknet,decoder分两部分:一部分是语义分割,用于车道线区域检测;另一部分为物体检测,用于物体检测。物体检测部分基于Yolo,同时还会输出其方向等3D信息,因此称为yolo3d。这些信息被输出后,就可以送到后续模块中进一步处理,从而...

2018-07-01 18:06:26

深度增强学习PPO(Proximal Policy Optimization)算法源码走读

OpenAI出品的baselines项目是一系列reinforcement learning(强化学习或增强学习)算法的实现。现在已经有包括DQN,DDPG,TRPO,A2C,ACER,PPO在内的近十种经典算法实现,同时它也在不断扩充中。它为对RL算法的复现验证和修改实验提供了很大的便利。本文主要走读其中的PPO(Proximal Policy Optimization)算法的源码实现。PPO是...

2018-05-27 19:40:58

自动驾驶平台Apollo 2.5环境搭建

我们知道,自动驾驶在学界其实已经是个很老的topic了。而这几年,伴随着以深度学习为主力的第三次AI浪潮,大家似乎看到了自动驾驶商业化的重大机会,于是无论是学界还是工业界都开始将注意力转向该领域。放眼望去,满大街似乎都在搞自动驾驶。前段时间,百度又发布了自动驾驶平台Apollo的2.5版本。要想搭个环境玩一下的话,其实官方文档里挺详细了。这里主要是备忘一下主要流程和一些小坑的解决方法。大体可分为以...

2018-05-06 19:16:32

读源码品Caffe - 结构流程篇

原文链接: https://blog.csdn.net/jinzhuojun/article/details/79834697背景本文主要介绍深度学习框架Caffe的工作原理和实现。时至今日,各种深度学习框架百花齐放,百家争鸣,从流行程度来说Caffe可能已经不同往日,那我们为什么还要来学习它的代码呢?尽管今天我们有了更多的选择,比如TensorFlow后来居上,凭借完整的生态、庞大的...

2018-04-07 18:57:53

常用增强学习实验环境 II (ViZDoom, Roboschool, TensorFlow Agents, ELF, Coach等)

原文链接:http://blog.csdn.net/jinzhuojun/article/details/78508203前段时间Nature上发表的升级版Alpha Go - AlphaGo Zero再一次成为热点话题。作为其核心技术之一的Deep reinforcement learning(深度增强学习,或深度强化学习)也再一次引发关注。Alpha Zero最有意义的地方之一是它去除了从...

2017-11-12 11:15:51

深度增强学习(DRL)漫谈 - 信赖域(Trust Region)系方法

一、背景深度学习的兴起让增强学习这个古老的机器学习分支迎来一轮复兴。它们的结合领域-深度增强学习(Deep reinforcement learning, DRL)随着在一系列极具挑战的控制实验场景及其它跨领域的成功应用,现在已是各大顶级AI会议的热门topic之一。之前两篇杂文深度增强学习(DRL)漫谈 - 从DQN到AlphaGo和深度增强学习(DRL)漫谈 - 从AC(Actor-Critic

2017-09-16 23:40:31

Fuchsia OS中的RPC机制-FIDL

背景Fuchsia是Google继Android和Chrome OS后推出的下一代操作系统。和其它OS类似,为了使应用能跨进程和服务端通信,它需要一套进程间的过程调用(RPC)机制,类似于Android中的binder。在Fuchsia中,各种service之间的通信接口都是用FIDL(Fuchsia Interface Definition Language,曾用名mojom)定义的(即那些以fi

2017-09-16 23:28:28

查看更多

CSDN身份
  • 博客专家
勋章 我的勋章
  • 技术圈认证(专家版)
    技术圈认证(专家版)
    博客专家完成年度认证,即可获得
  • 勤写标兵Lv1
    勤写标兵Lv1
    授予每个自然周发布1篇到3篇原创IT博文的用户。本勋章将于次周周三上午根据用户上周的博文发布情况由系统自动颁发。