5 sunshinearong

尚未进行身份认证

暂无相关简介

等级
TA的排名 23w+

svm综述

第一部分   引言 基于数据的机器学习是现代智能技术中的重要方面,研究从观测数据(样本)出发寻找规律,利用这些规律对未来数据或无法观测的数据进行预测.包括模式识别、神经网络等在内,现有机器学习方法共同的重要理论基础之一是统计学.传统统计学研究的是样本数目趋于无穷大时的渐近理论,现有学习方法也多是基于此假设.但在实际问题中,样本数往往是有限的,因此一些理论上很

2017-04-08 19:43:46

各个分类算法优缺点

朴素贝叶斯的主要优点有:1)朴素贝叶斯模型发源于古典数学理论,有稳定的分类效率。2)对小规模的数据表现很好,能个处理多分类任务,适合增量式训练,尤其是数据量超出内存时,我们可以一批批的去增量训练。3)对缺失数据不太敏感,算法也比较简单,常用于文本分类。朴素贝叶斯的主要缺点有:   1)理论上,朴素贝叶斯模型与其他分类方法相比具有最小的误差率。但是实际上

2017-04-08 19:34:27

自编码器(autoencoder)

什么是自编码器?自编码器是一种数据压缩算法,或者说是一种PCA,,但是比PCA更高效,灵活。什么是编码器,解码器?数据压缩算法离不开编码器和解码器,数据压缩使用编码器,解压缩使用解码器。编码器是把高维度数据有损的映射成低纬度数据,减少数据量,要实现这种映射关系需要学习数据间的相关性。解码器和编码器完全相反,是把低维度数据映射成高纬度数据,增加数据量,使经过压缩的数据恢复本来的面貌。

2017-01-09 15:12:53

深度学习感悟

神经网络到底理解了什么呢?我认为有两件事是它们理解的。其一,神经网络理解了如何将输入空间解耦为分层次的卷积滤波器组。其二,神经网络理解了从一系列滤波器的组合到一系列特定标签的概率映射。神经网络学习到的东西完全达不到人类的“看见”的意义,从科学的的角度讲,这当然也不意味着我们已经解决了计算机视觉的问题。想得别太多,我们才刚刚踩上计算机视觉天梯的第一步。有些人说,卷积神经网络学习到的对

2017-01-03 09:53:50

深度解析minist例子(lasagne)

minist例子相当于深度学习中的'hello,world'下面以lasagne中的minist为原型解析:首先需要了解使用的数据集:minist数据集:共有100000张图片,每张图片大小为28X28,通道数为1,如果是彩色图片,通道数为3,图片显示为0~9手写体数字,每张图片仅包含一个数据,训练集为80000张图片,测试集为20000图片。1.加载包:importnump

2016-12-29 11:09:24

DNN的几点tips

1)数据变换由于DNN在训练时需要大量的样本数量来获得一个满意的结果,如果图像初始样本过少,最好通过数据变换提升性能。诚然,数据变换是训练之前比不可少的步骤。有很多数据变换的方法,比如将图像水平翻转、随机切割、图像抖动等。而且你可以结果多种不同的处理方法,比如在旋转的同时随机缩放。也可以把颜色空间的H和V映射到0.25~0.4中(灰度值同理),再乘以一个0.7~1.4的因子,再加上一个-0

2016-12-28 16:03:54

神经网络

神经网络分为:前向传播,后向传播,双向传播等几种,其中的区别是更新权重的方法不同前向传播(FP):需要知道权重的初始值,然后根据公式更新参数即可后向传播(BP):随机初始化参数(不能都为0,否则最后的参数是一样的),根据期望的结果和输出的结果之前的残差利用梯度下降算法更新参数。双向传播:顾名思义,前向传播和后向传播的结合实际应用中一般是前向传播和后向传播一起使用。一般意

2016-12-26 19:39:45

深度学习之入门

语言:python常用的库:theano,tensorflow,keras,lasagne,caffetheano:深度学习底层框架,适用于window,linux,python2.7,python3.5tensorflow:深度学习底层框架,以前只适用于linux,现在可以在windows,python3.5,64bit平台运行keras:在theano和tensorflow上封

2016-12-26 16:14:45
勋章 我的勋章
  • 持之以恒
    持之以恒
    授予每个自然月内发布4篇或4篇以上原创或翻译IT博文的用户。不积跬步无以至千里,不积小流无以成江海,程序人生的精彩需要坚持不懈地积累!