1 WNotSyer

尚未进行身份认证

DDL是第一生产力~

等级
博文 44
排名 13w+

FASA:Fast, Accurate, Size-aware Salient Object Detection 论文阅读

文章目录FASA:Fast,Accurate,Size-awareSalientObjectDetection论文阅读Abstract1.Introduction2.RelatedWork3.OurMethod3.1SpatialCenterandVarianceofaColor3.2一个线束目标的Center和size3.3计算显著性概率总结参考文献本...

2019-04-22 10:01:10

(系列笔记——收官)30.人工智能、机器学习和深度学习

文章目录人工智能、机器学习和深度学习人工智能的发展人工智能、机器学习和深度学习的关系什么是神经网络神经网络的两个要素神经网络的训练对人类神经系统的模拟已知和未知训练过程人工智能、机器学习和深度学习人工智能(ArtificialIntelligence,AI)人工智能的字面意义就已经解释了它的内在含义,所谓人工智能,包括两个部分:人工:人造的,非天生的(非生物的);智能:能够独立...

2019-03-24 06:47:11

(系列笔记)29.深度学习(下)

深度学习的愿景、问题、应用和资料深度学习的愿景深度学习的现实机器学习和深度学习深度学习的落地点深度学习的局限深度学习资料

2019-03-20 09:43:41

(系列笔记)28.深度学习(上)

几种深度学习网络神经网络的历史沿革深度学习(DeepLearning)不同种类的深度学习网络

2019-03-20 09:40:53

(系列笔记)27.主成分分析——PCA(下)

PCA——用SVD实现PCAPCA优化算法PCA的优化算法目的是优化它的目标函数:算法一,拉格朗日乘子法:令:然后对W求导,并令导函数为0可得:这是一个标准的特征方程求解问题,只需要对协方差矩阵XXTXX^TXXT进行特征值分解,将求得的特征值排序:λ1≥λ2≥...≥λd\lambda_1\ge\lambda_2\ge...\ge\lambda_dλ1​≥λ2​≥......

2019-03-19 20:21:53

(系列笔记)26.主成分分析——PCA(上)

PCA——利用数学工具提取主要特征泛滥成灾的特征维度降低数据维度主成分分析(PCA)的原则PCA的优化目标

2019-03-19 20:08:30

(系列笔记)25.GMM算法(下)

GMM——用EM算法求解GMM高斯分布高斯混合模型(GMM)用EM算法学习GMM的参数GMM实例

2019-03-18 21:43:11

(系列笔记)24.GMM算法(上)

GMM——将“混”在一起的样本各归其源个体vs集体已知每个簇的原始分布已知分布条件下的样本归属学习概率密度函数参数同分布的混合模型

2019-03-18 21:41:55

(系列笔记)23.EM算法

EM算法——估计含有隐变量的概率模型的参数含有隐变量的概率模型EM算法的推导过程

2019-03-17 21:09:00

(系列笔记)22.谱聚类

谱聚类——无需指定簇数量的聚类无须事先指定簇数量的聚类说到聚类,最常见的模型当然是KMeans。不过如果使用KMeans的话,需要在算法运行前指定k的值——也就是要在训练前指定最后的结果被分为几簇。现实中有相当多的聚类问题,无法事先指定簇的数量。KMeans就无法完成这类任务。好在聚类方法有很多,有一种算法,不仅不需要事先指定k值,还可以在结果中保证每个簇中的个体数量低于某...

2019-03-17 21:04:29

(系列笔记)21.KMeans聚类算法

KMeans——最简单的聚类算法什么是聚会(Clustering)聚类并非一种机器学习专有的模型或算法,而是一种统计分析技术,在许多领域得到广泛应用。广义而言,聚类就是通过对样本静态特征的分析,把相似的对象,分成不同子集(后面我们将聚类分出的子集称为“簇”),被分到同一个子集中的样本对象都具有相似的属性。在机器学习领域,聚类属于一种无监督式学习算法。许多聚类算法在执行之前,需要指定从输入...

2019-03-16 23:55:07

(系列笔记)20.由KNN引出KMeans

从有监督到无监督:由KNN引出KMeans从有监督学习到无监督学习有监督学习和无监督学习,是机器学习的两个大类别。我们之前讲的都是有监督学习,毕竟有监督学习现阶段还是机器学习在实际应用中的主流。有监督学习(SupervisedLearning)所谓有监督学习,即:训练数据同时拥有输入变量(x)和输出变量(y);用一个算法把输入到输出的映射关系——y=f(x)y=f(x)y=f...

2019-03-16 23:12:52

(系列笔记)19.CRF(下)

CRF——三个基本问题线性链CRF的形式化表示CRF的三个基本问题

2019-03-15 16:30:37

(系列笔记)18.CRF(上)

CRF——概率无向图模型到线性链条件随机场概率无向图条件随机场(ConditionalRandomField,CRF)线性链CRFHMM和线性链CRF

2019-03-15 16:29:17

(系列笔记)17.HMM系列(3)

HMM——三个基本问题的计算1、概率计算问题直接计算前向-后向算法2、预测算法直接求解维特比算法3、学习算法有监督学习无监督学习4、HMM实例code&result...

2019-03-14 23:17:10

(系列笔记)16.HMM系列(2)

HMM——三个基本问题三个基本问题概率计算问题预测问题学习问题举例子背景问题分析求解三个基本问题的现实意义

2019-03-14 23:14:15

(系列笔记)15.HMM系列(1)

HMM——定义和假设概念讲解概率模型(ProbabilisticModel)所谓概率模型,顾名思义,就是将学习任务归结于计算变量的概率分布的模型。概率模型非常重要。在生活中,我们经常会根据一些已经观察到的现象来推测和估计未知的东西——这种需求,恰恰是概率模型的推断(Inference)行为所做的事情。推断(Inference)的本质是:利用可观测变量,来推测未知变量的条件分布。我们下...

2019-03-14 23:11:21

(系列笔记)14.SVM和SVR

直观认识SVM和SVR1、SVM实例整理一下,前面讲了线性可分SVM、线性SVM、非线性SVM和核函数,这次笔记就通过一些例子来直观理解一下,特征采用的是一维特征。线性可分SVMimportnumpyasnpimportmatplotlib.pyplotaspltfromsklearn.svmimportSVC#"Supportv...

2019-03-13 22:38:03

(系列笔记)13.SVR模型

SVR——一种“宽容的回归模型”严格的线性回归线性回归:在向量空间里用线性函数去拟合样本。该模型以所有样本实际位置到该线性函数的综合距离为损失,通过最小化损失来求取线性函数的参数。对于线性回归而言,一个样本只要不算正好落在作为模型的线性函数上,就要被计算损失。宽容的支持向量回归(SVR)介绍一种“宽容的”回归模型:支持向量回归(SupportVectorRegression,SVR)...

2019-03-13 22:13:01

(系列笔记)12.SVM系列(5)

SVM——非线性SVM和核函数非线性分类问题非线性SVM核函数的性质核函数的种类构建自己的核函数数据归一化

2019-03-12 21:17:23
奖章
  • 勤写标兵Lv1
    勤写标兵Lv1
    授予每个自然周发布1篇到3篇原创IT博文的用户。本勋章将于次周上午根据用户上周的博文发布情况由系统自动颁发。