11 lynnandwei

尚未进行身份认证

我要认证

暂无相关简介

等级
TA的排名 2w+

图示Mobilenet与Mobilenetv2--转自AlphaTree

MobileNet 很赞的轻量级小模型,移动应用居家必备之良药。^_^顾名思义,它是可以用在移动设备上的网络,性能和效率取得了很好平衡。它发展了两个版本,第一个版本基本结构和VGG类似,主要通过 depthwise separable convolution 来减少参数和提升计算速度。第二个版本则是基于ResNet的结构进行改进。MobileNet v2使用了 ReLU6(即对 ReLU 输出的结...

2018-06-20 11:12:10

[干货]一张地铁图看懂人工智能算法发展(含代码)---转自AlphaTree

“ 或许你曾经困扰过:明明自家产品有自己的数据,明明算法模型很多开源,可为什么开发起来却问题多多? 要么拿到问题无从下手?”每一个大厨,心中都有自己的菜谱。要烹制一桌山珍海味,美味佳肴,自然要熟知三件事,原料(模型),调料(优化算法)和秘籍菜谱(这里常常只paper:paper会告诉你解决什么问题用什么模型与算法)。有了这三样,还要基本功扎实,拌、腌、炒、烧、蒸、炸、煮、煲基本手法样样不能少。(基...

2018-06-19 12:33:14

VGG

VGG-Net同样也是一种CNN,它来自 Andrew Zisserman 教授的组 (Oxford),VGG-Net 在2014年的 ILSVRC localization and classification 两个问题上分别取得了第一名和第二名,VGG-Net不同于AlexNet的地方是:VGG-Net使用更多的层,通常有16-19层,而AlexNet只有8层。另外一个不同的地方是:VGG-N

2016-12-19 14:44:36

学习笔记:inception V4 与resnet

原始的Inception模型,也就是GoogLeNet被称为Inception-v1,加入batch normalization之后被称为Inception-v2,加入factorization的idea之后,改进为Inception-v3。然后发现ResNet的结构可以加速训练,就有了之后的inception v4 和resnet v2.V4resne

2016-12-19 10:55:57

学习笔记:GoogLeNet Incepetion V2,V3

上次整理了googlenet V1,V2和V3在同一篇文章里进行描述的,所以我们也在这里一起学习。tensorflow发布了所有的模型https://github.com/tensorflow/models/blob/master/slim/README.md#pre-trained-models论文列表:[v1] Going Deeper wi

2016-12-15 17:54:18

Tensorflow在centos上安装记录

之前安装过 tensorflow 0.6,还没来得及玩就休假了。回来之后,tensorflow就已经是0.8了,支持分布式训练。于是着手先升级。系统里面之前装caffe,也装过很多tensorflow需要的库,所以一开始安装,各种需求 冲突还是有点头大。tensorflow有四种安装方式,之前直接用的pip install的方式进行安装。Pip Install: Install T

2016-06-20 17:19:33

ruby安装笔记

这次下的一些ios项目 里面有用到ruby 于是开始安装 参考文档为 如何快速正确的安装 Ruby, Rails 运行环境 https://ruby-china.org/wiki/install_ruby_guide 然后在gem install bundler 的时候报错 Errno::ECONNRESET: Connection reset by peer - SSL_co

2016-04-13 22:46:36

拍照识别小工具

最近海淘的东西明显变多,啥语言都有,连英文都不是标配了。几个识别工具 都用的自己的翻译。经常看得是 ,明明都是中文,咋不知道在说啥捏。突然想着把几年前做的一个图片识别小工具改到现在手机上来 因为google的翻译api后来收费了,现在又没有搭建服务器。就干脆先识别 然后打开翻译的网页,然后将识别的文字粘贴过去。 这是结果图识别如果不做成单机版,而做成服务器版,是可以将识别的速度加快很多的。

2016-04-13 21:28:01

学习笔记:深度学习网络特征逐层可视化

“         Deep Learning很吸引人,也很玄乎的一个点就是大家都说它可以提取到分级的逐层抽象的特征。但对我们来说,总是耳听为虚,眼见为实。所以,每当我们训练完一个深度模型后,我们还特别想把这个深度模型学到的东西给可视化出来,好弄明白它到底学到了什么东西,是不是有意义的,是不是像传说中的那样神奇”    zouxy09   http://blog.csdn.net/zouxy0

2015-05-14 15:23:20

学习笔记:自训练Cifar10网络数据结果

看了那么多深度网络的结构,于是上个月就开始自己拿数据来训练。训练的数据需要尽量多一点。首先拿101_ObjectCategories的数据来试一下。101_ObjectCategories里面有的类别数据量太少,

2015-05-05 17:51:11

学习笔记:GoogLeNet

GoogLeNet, 2014年ILSVRC挑战赛冠军,将Top5 的错误率降低到6.67%. 一个22层的深度网络,题目为:Going deeper with convolutions。。GoogLeNet这个名字也是挺有意思的,为了像开山鼻祖的LeNet网络致敬,他们选择了这样的名字。

2015-03-19 15:02:40

学习笔记:AlexNet&Imagenet学习笔记

ImageNet(http://www.image-net.org)是李菲菲组的图像库,和WordNet 可以结合使用 (毕业于Caltech;导师:Pietro Perona;主页:http://vision.stanford.edu/~feifeili/) 总共有十万的synset, 其中2010的数据表示,有图像的非空synset是21841,每一类大约1000张图片,图片总数:14

2015-03-18 18:20:10

学习笔记-CIFAR10模型理解简述

整个结构中包含三个convolution layer、三个pooling layer和两个fully connected layer。每个层有多个Feature Map,每个Feature Map通过一种卷积滤波器提取输入的一种特征,然后每个Feature Map有多个神经元。首先是数据层,测试数据100张为一批(batch_size),后面括号内是数据总大小。如100*32*32

2015-03-16 10:53:53

学习笔记:Caffe上配置和运行Cifar10的示例

CIFAR-10数据集含有6万个32*32的彩色图像,共分为10种类型,由 Alex Krizhevsky, Vinod Nair和 Geoffrey Hinton收集而来。包含50000张训练图片,10000张测试图片http://www.cs.toronto.edu/~kriz/cifar.html数据集的数据存在一个10000*3072 的 numpy数组中,单位是uint8s,

2015-03-12 16:58:48

学习笔记:Caffe上LeNet模型理解

Caffe中用的模型结构是著名的手写体识别模型LeNet-5(http://yann.lecun.com/exdb/lenet/a35.html)。当年美国大多数银行就是用它来识别支票上面的手写数字的。能够达到这种商用的地步,它的准确性可想而知,唯一的区别是把其中的sigmoid激活函数换成了ReLU。为什么换成ReLU,上一篇blog中找到了一些相关讨论,可以参考。CNN的发展,关键就在

2015-03-05 17:23:17

图像处理-素描篇

素描滤镜:最基础的算法就是:1、去色;2、复制去色图层,并且反色;3、对反色图像进行高斯模糊;4、模糊后的图像叠加模式选择颜色减淡效果。减淡公式:C =MIN( A +(A×B)/(255-B),255),其中C为混合结果,A为去色后的像素点,B为高斯模糊后的像素点。2 PIL素描滤镜http://qinxuye.me/art

2015-02-26 17:35:14

图像处理-基础篇

年初和人聊天的时候,谈起美图 光影 等各种图像处理软件。突然想起,虽然很多算法说起来很容易,但是我也没脚踏实地的都实现一下,于是决定实实在在的都实现一遍。自己还很喜欢很多相机里自带的滤镜风格,如理光GR。也可以看看能不能做出来。 理光GR对比图效果可参见测评http://article.pchome.net/content-1621943-6.html实现还是用的opencv。先整理一

2015-02-26 15:32:22

学习笔记:Caffe上配置和运行MNIST

MNIST,一个经典的手写数字库,在Caffe上配置的第一个案例 1首先,获取minist的数据包。 这个版本是四个数据包cd $CAFFE_ROOT./data/mnist/get_mnist.sh#!/usr/bin/env sh# This scripts downloads the mnist data and unzips it.DIR="$( cd "$

2015-01-29 17:35:07

SparseAutoEncoder 稀疏自动编码器

Sparse Coding稀疏编码(Sparse Coding)是一种模拟哺乳动物视觉系统主视皮层V1区的视觉感知算法,NNSC(Non-Negative Sparse Coding,非负稀疏编码)是SC和非负矩阵分解相结合的一种编码算法。       对57个训练样本的每一幅图片随机抽样1500个4×4个图像小块,4×4可显示一个眼的余角,4×4比8×8精确的多,使用NNSC

2015-01-29 11:38:27

Caffe安装过程记录(CentOS,无独立显卡,无GPU)

Caffe( http://caffe.berkeleyvision.org/ )是一个清晰而高效的深度学习框架,其作者是博士毕业于UC Berkeley的贾扬清(http://daggerfs.com/ ),他目前在Google工作。Caffe是纯粹的C++/CUDA架构,支持命令行、Python和MATLAB接口;可以在CPU和GPU直接无缝切换.

2015-01-28 17:34:18

查看更多

勋章 我的勋章
    暂无奖章