自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(94)
  • 资源 (5)
  • 收藏
  • 关注

转载 【用Python学习Caffe】6. 权重预设、预训练及微调

https://github.com/tostq/Caffe-Python-Tutorial

2017-08-12 18:46:26 685

转载 用pycaffe绘制训练过程的loss和accuracy曲线

#!/usr/bin/env python# 导入绘图库from pylab import *import matplotlib.pyplot as plt# 导入"咖啡"import caffe# 设置为gpu模式caffe.set_device(0)caffe.set_mode_gpu()# 使用SGDSolver,即随机梯度下降算法

2017-08-12 15:02:19 825

转载 稀疏表示介绍

http://www.cnblogs.com/daniel-D/p/3222576.html  声明 之前虽然听过压缩感知和稀疏表示,实际上昨天才正式着手开始了解,纯属新手,如有错误,敬请指出,共同进步。主要学习资料是 Coursera 上 Duke 大学的公开课——Image and video processing, by Pro.Guillermo S

2017-07-16 20:37:44 2161

转载 机器学习中导数最优化方法

1. 前言熟悉机器学习的童鞋都知道,优化方法是其中一个非常重要的话题,最常见的情形就是利用目标函数的导数通过多次迭代来求解无约束最优化问题。实现简单,coding 方便,是训练模型的必备利器之一。这篇博客主要总结一下使用导数的最优化方法的几个基本方法,梳理梳理相关的数学知识,本人也是一边写一边学,如有问题,欢迎指正,共同学习,一起进步。 2. 几个数学概念1) 梯度

2017-07-16 20:34:14 653

转载 计算Fisher vector和VLAD

This short tutorial shows how to compute Fisher vector and VLAD encodings with VLFeat MATLAB interface.These encoding serve a similar purposes: summarizing in a vectorial statistic a number of l

2017-07-16 19:45:25 590

转载 半监督学习研究

http://blog.csdn.net/daisy9212/article/details/49509899

2017-07-16 11:09:58 586

转载 高斯混合模型实践(Python)

https://zhuanlan.zhihu.com/p/26328340'''高斯混合模型的实践(高斯一元分布)。对于由参数未知的K个高斯混合模型生成的数据集,利用EM算法可以对这K个高斯分布进行参数估计,并且可以知道两个模型的各自比重。因此还可以用来聚类。作者:胡亦磊'''import numpy as npimport matplotlib.pyplot as

2017-07-15 22:15:15 2805 1

转载 caffe loss 损失权重问题

loss有一个细节问题就是Loss weights(损失权重),用来表征不同Layer产生的loss的重要性,Layer名称中以Loss结尾表示这是一个会产生loss的Layer,其他的Layer只是单纯的用于中间计算。任何一个Layer都可以被用于产生loss。反向迭代时,一个Layer可以赋予一个非零的loss weight,用于调整中间Layer产生的一些数据、参数。对于不止一个输出(t

2017-07-10 22:09:16 2207

转载 deep learning 自学习网络的Softmax分类器

http://blog.csdn.net/hlx371240/article/details/40201499

2017-07-10 16:21:51 553

转载 稀疏编码及其改进(ScSPM,LLC,super-vector coding)

http://blog.csdn.net/tiandijun/article/details/40681463

2017-07-10 15:00:38 457

转载 图像的稀疏表示——ScSPM和LLC的总结

前言       上一篇提到了SPM。这篇博客打算把ScSPM和LLC一起总结了。ScSPM和LLC其实都是对SPM的改进。这些技术,都是对特征的描述。它们既没有创造出新的特征(都是提取SIFT,HOG, RGB-histogram et al),也没有用新的分类器(也都用SVM用于最后的image classification),重点都在于如何由SIFT、HOG形成图像的特征(见图1)。

2017-07-10 14:58:23 485 1

转载 损失函数可视化

1. 引言上一节深度学习与计算机视觉系列(3)_线性SVM与SoftMax分类器中提到两个对图像识别至关重要的概念:用于把原始像素信息映射到不同类别得分的得分函数/score function用于评估参数W效果(评估该参数下每类得分和实际得分的吻合度)的损失函数/loss function其中对于线性SVM,我们有:得分函数f(xi,W)=Wxi损失函数L=1N∑i

2017-07-09 16:28:01 5231

转载 机器学习中的范数规则化之(二)核范数与规则项参数选择

机器学习中的范数规则化之(二)核范数与规则项参数选择[email protected]://blog.csdn.net/zouxy09        上一篇博文,我们聊到了L0,L1和L2范数,这篇我们絮叨絮叨下核范数和规则项参数选择。知识有限,以下都是我一些浅显的看法,如果理解存在错误,希望大家不吝指正。谢谢。 三、核范数       核范数||W||*是指

2017-07-09 16:15:40 401

原创 机器学习中的范数规则化之(一)L0、L1与L2范数

机器学习中的范数规则化之(一)L0、L1与L2范数[email protected]://blog.csdn.net/zouxy09        今天我们聊聊机器学习中出现的非常频繁的问题:过拟合与规则化。我们先简单的来理解下常用的L0、L1、L2和核范数规则化。最后聊下规则化项参数的选择问题。这里因为篇幅比较庞大,为了不吓到大家,我将这个五个部分分成两篇博文。知识有限

2017-07-09 16:14:58 479

转载 caffe 功能添加

在caffe 中实现Generative Adversarial Nets(二)目录目录一添加Loss Function gan_loss_layerhpp gan_loss_layercpp 二添加gan_gate_layer gan_gate_layerhpp gan_gate_layercpp 三添加rand_vec_layer rand_vec_layerhpp rand_ve

2017-07-07 20:33:10 425

转载 caffe源码解析

Caffe源码(十一):io.cpp 分析目录目录 简单介绍 主要函数ReadProtoFromTextFile 函数 WriteProtoToTextFile 函数 ReadProtoFromBinaryFile 函数 WriteProtoToBinaryFile 函数 ReadImageToCVMat 函数 matchExt 函数 CVMatToDatum 函数 ReadFileT

2017-07-07 20:31:31 691

转载 机器学习模型评价(Evaluating Machine Learning Models)-主要概念与陷阱

转:http://blog.csdn.net/heyongluoyao8/article/details/49408319

2017-07-07 15:40:06 525

转载 网络调参优化参考

1)Must Know Tips/Tricks in Deep Neural Networkshttp://lamda.nju.edu.cn/weixs/project/CNNTricks/CNNTricks.html2)卷积神经网络改进想法初探http://blog.csdn.net/u010402786/article/details/492727573)神经网络训练中

2017-07-07 10:52:11 363

转载 caffe调参经验资料文章

调参是个头疼的事情,Yann LeCun、Yoshua Bengio和Geoffrey Hinton这些大牛为什么能够跳出各种牛逼的网络?下面一些推荐的书和文章:调参资料总结Neural Network: Trick of the TradePractical Recommendations for Gradient-based Training of Deep Archite

2017-07-07 10:28:44 381

转载 损失函数 center_loss triplet loss

A Discriminative Feature Learning Approach for Deep Face Recognition 原理及在caffe实验复现图像特征提取系列之PCAcenter loss代码注释(caffe新添加层)TensorFlow实现center loss

2017-07-04 10:33:22 4253

原创 TensorFlow实现center loss

TensorFlow实现center loss:Center loss是ECCV2016中一篇论文提出来的概念,主要思想就是在softmax loss基础上额外加入一个正则项,让网络中每一类样本的特征向量都能够尽量聚在一起。具体的原理推导等请参考论文,论文作者放出了Caffe实现,网上还能找到mxnet的实现,这里我放出一个TensorFlow版的实现及详细注释,代码很短,如下:

2017-07-04 10:30:24 3065 2

转载 深度学习学习综合资料

http://blog.csdn.net/vbskj/article/category/6337222

2017-07-04 10:21:23 307

转载 太有用的图像处理的代码仓库

特征提取Feature Extraction:·         SIFT [1] [Demo program][SIFT Library] [VLFeat]·         PCA-SIFT [2] [Project]·         Affine-SIFT [3] [Project]·         SURF [4] [OpenSURF] [Mat

2017-07-04 10:16:51 498

转载 caffe 将三通道或四通道图片转换为lmdb格式,将标签(单通道灰度图)转换为lmdb格式

import numpy as npimport lmdbfrom PIL import Imageimport sys# import caffe modulecaffe_root = '/home/user/SegNet/caffe-segnet/'sys.path.insert(0, caffe_root + 'python')import caffe

2017-07-01 10:22:47 798

转载 Caffe CNN特征可视化

以下部分代码是根据caffe的python接口,从一次forword中取出param和blob里面的卷积核 和响应的卷积图。import numpy as npimport matplotlib.pyplot as pltimport osimport caffeimport sysimport pickleimport cv2caffe_root = '../' dep

2017-04-28 09:42:43 890

转载 迁移学习和微调深度卷积神经网络

这是由几个部分组成的博客系列,我将在此系列中聊一聊我对深度学习的经验及认识。在第一部分,我讨论了不同的有代表性的框架的优劣,以及我选择 Theano(与 Lasagne)作为我的平台的原因。第二部分是基于我将要在 2016 年度数据科学论坛(The Data Science Conference)上的发言内容整理的。我将在这部分讲解深度卷积神经网络(DCNN:Deep Convolut

2017-04-24 13:53:10 1781

转载 卷积网络层计算

layers {    name: "conv1"    type: CONVOLUTION   bottom: "data"   top: "conv1"   blobs_lr: 1              # learning rate multiplier for the filters    blobs_lr: 2              # l

2017-03-19 14:02:59 390

转载 为你的深度学习任务挑选最合适GPU

http://synchuman.baijia.baidu.com/article/546360

2017-03-19 13:44:21 773

转载 深度学习主机环境配置: Ubuntu16.04 + GeForce GTX 1070

深度学习主机环境配置: Ubuntu16.04 + GeForce GTX 1070 + CUDA8.0 + cuDNN5.1 + TensorFlowhttp://www.cnblogs.com/czaoth/p/6132485.html

2017-03-12 17:48:40 881

转载 推荐系统评测指标—准确率(Precision)、召回率(Recall)、F值(F-Measure)

下面简单列举几种常用的推荐系统评测指标:1、准确率与召回率(Precision & Recall)准确率和召回率是广泛用于信息检索和统计学分类领域的两个度量值,用来评价结果的质量。其中精度是检索出相关文档数与检索出的文档总数的比率,衡量的是检索系统的查准率;召回率是指检索出的相关文档数和文档库中所有的相关文档数的比率,衡量的是检索系统的查全率。一般来说,Precision就是检索出来的条目(比如:

2017-01-12 11:14:54 589

转载 损失函数问题

1)L1,L2正则化理解-奥卡姆剃刀(Occam's razor)原理http://blog.csdn.net/u011534057/article/details/51218921

2016-12-27 15:08:02 828

转载 Matlab分类器大全

train_data是训练特征数据, train_label是分类标签。Predict_label是预测的标签。MatLab训练数据, 得到语义标签向量 Scores(概率输出)。1.逻辑回归(多项式MultiNomial logistic Regression)Factor = mnrfit(train_data, train_label);Scores = mnrv

2016-12-25 13:43:08 1413

转载 局部特征

1)局部特征http://blog.csdn.net/jwh_bupt/article/details/7621681

2016-12-20 21:08:39 646

转载 Deep Learning论文选读

国际人工智能联合会议( International Joint Conference on Artificial Intelligence,IJCAI )是聚集人工智能领域研究者和从业者的盛会,也是人工智能领域中最主要的学术会议之一。1969 年到 2015 年,该大会在每个奇数年举办,现已举办了 24 届。随着近几年来人工智能领域的研究和应用的持续升温,从 2016 年开始,IJCAI 大会

2016-11-16 21:32:13 614

转载 8种常见机器学习算法比较

简介机器学习算法太多了,分类、回归、聚类、推荐、图像识别领域等等,要想找到一个合适算法真的不容易,所以在实际应用中,我们一般都是采用启发式学习方式来实验。通常最开始我们都会选择大家普遍认同的算法,诸如SVM,GBDT,Adaboost,现在深度学习很火热,神经网络也是一个不错的选择。假如你在乎精度(accuracy)的话,最好的方法就是通过交叉验证(cross-validation)对各个

2016-11-16 15:45:17 1909 1

转载 Selective Search for Object Recognition

Selective Search for Object Recognition是J.R.R. Uijlings发表在2012 IJCV上的一篇文章。主要介绍了选择性搜索(Selective Search)的方法。选择性搜索综合了蛮力搜索(exhaustive search)和分割(segmentation)的方法。选择性搜索意在找出可能的目标位置来进行物体的识别。与传统的单一策

2016-11-14 14:16:35 411

转载 caffe灰度图训练

折腾了半天,原来在caffe自带的转换数据程序(convert_imageset.exe)中有个选项。哎,原来只懂个皮毛,就认为自己什么都会了,惭愧惭愧!首先用convert_imageset.exe --help 查看都有哪些选项:[FLAGS] 就是参数选项,此函数的具体使用可以参看我的另一篇博客:caffe学习笔记-数据库制作是命令格式(windows版)具体有哪些参数呢?

2016-11-14 13:59:55 4252

转载 三种监督学习

在机器学习(Machine learning)领域,主要有三类不同的学习方法:监督学习(Supervised learning)、非监督学习(Unsupervised learning)、半监督学习(Semi-supervised learning),监督学习:通过已有的一部分输入数据与输出数据之间的对应关系,生成一个函数,将输入映射到合适的输出,例如分类。 非

2016-11-10 13:12:15 2672

转载 Caffe 中添加自己的网络层

Caffe 中有众多的网络层,最新版本的代码已经涵盖了很多种类型的网络层,然而,有时候由于各种原因,其给定的网络层不能满足我们的要求,这时候就要对其更改,以使其满足自己的需求,感谢作者开源代码以及众多的代码维护者。由于Caffe 中的网络层都是直接或者间接地给予Layer 基类,所以,在我们需要添加新的类型时,就需要选择好自己的基类,以使我们能够更好的利用基类已有的一些方法。我们新建的类可

2016-11-10 10:23:41 489

转载 Mean Average Precision(MAP)平均精度均值

MAP(Mean Average Precision):单个主题的平均准确率是每篇相关文档检索出后的准确率的平均值。主集合的平均准确率(MAP)是每个主题的平均准确率的平均值。 MAP 是反映系统在全部相关文档上性能的单值指标。系统检索出来的相关文档越靠前(rank 越高),MAP就可能越高。如果系统没有返回相关文档,则准确率默认为0。例如:假设有两个主题,主题1有4个相关网页,主题2有5

2016-11-09 15:50:46 10175

ocx动态创建

通过使用CreateControl方法动态图创建ocx控件,并利用GetControlUnknown等方法获取IDispatch指针, 采用 ATL 智能指针类调用 IDispatch 接口的方法和标准方式调用 IDispatch 接口的方法,使用activex控件,包括一个activex控件和一个测试工程以及相关需要的资料

2012-05-06

新一代视频压缩编码标准H.264(毕厚杰)

新一代视频压缩编码标准H.264(毕厚杰)的PDF版本

2011-11-15

各种基本运动估计算法代码

各种运动估计算法基础,基本思想是将图像序列的每一帧分成许多互不重叠的宏块,并认为宏块内所有象素的位移量都相同,然后对每个宏块到参考帧某一给定特定搜索范围内根据一定的匹配准则找出与当前块最相似的块,即匹配块,匹配块与当前块的相对位移即为运动矢量。视频压缩的时候,只需保存运动矢量和残差数据就可以完全恢复出当前块。

2011-09-23

JM工程代码

基本思想是将图像序列的每一帧分成许多互不重叠的宏块,并认为宏块内所有象素的位移量都相同,然后对每个宏块到参考帧某一给定特定搜索范围内根据一定的匹配准则找出与当前块最相似的块,即匹配块,匹配块与当前块的相对位移即为运动矢量。视频压缩的时候,只需保存运动矢量和残差数据就可以完全恢复出当前块。

2011-09-23

视频编码标准中运动估计技术研究 论文

基本思想是将图像序列的每一帧分成许多互不重叠的宏块,并认为宏块内所有象素的位移量都相同,然后对每个宏块到参考帧某一给定特定搜索范围内根据一定的匹配准则找出与当前块最相似的块,即匹配块,匹配块与当前块的相对位移即为运动矢量。视频压缩的时候,只需保存运动矢量和残差数据就可以完全恢复出当前块。

2011-09-23

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除