自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(160)
  • 资源 (3)
  • 收藏
  • 关注

转载 常用的核函数

以下是几种常用的核函数表示:线性核(Linear Kernel)多项式核(Polynomial Kernel)径向基核函数(Radial Basis Function)也叫高斯核(Gaussian Kernel),因为可以看成如下核函数的领一个种形式:径向基函数是指取值仅仅依赖于特定点距离的实值函数,也就是。任意一个满足特性的函数 Φ都叫做径向量函数,标准的一般使用欧氏距离,尽管其他距离函数也是可以的。所以另外两个比较常用的核函数,幂指数核,拉普拉斯核也属于径向基核.

2020-08-04 09:29:00 5944

转载 零次学习(Zero-Shot Learning)入门

转自:https://zhuanlan.zhihu.com/p/34656727?spm=5176.9876270.0.0.399ce44aXsg7cN 谢谢作者很久没有更文章了,主要是没有找到zero-shot learning(ZSL)方面我特别想要分享的文章,且中间有一段时间在考虑要不要继续做这个题目,再加上我懒 (¬_¬),所以一直拖到了现在。最近科研没什么进展,就想着写一个ZSL的入门性的文章,目的是为了帮助完全没有接触过这方面,并有些兴趣的同学,能在较短的时间对ZSL有一定的认识,并且.

2020-06-01 09:55:48 646

转载 学习排序 Learning to Rank 小结

版权声明:本文为博主原创文章,遵循 CC 4.0 BY-SA 版权协议,转载请附上原文出处链接和本声明。本文链接:https://blog.csdn.net/nanjunxiao/article/details/8976195学习排序(Learning to Rank)LTR(Learning torank)学习排序是一种监督学习(SupervisedLearning)的排序方法。LTR已经...

2019-09-06 09:51:45 578 1

转载 学习排序 Learning to Rank:从 pointwise 和 pairwise 到 listwise,经典模型与优缺点

版权声明:本文为博主原创文章,遵循 CC 4.0 BY-SA 版权协议,转载请附上原文出处链接和本声明。本文链接:https://blog.csdn.net/lipengcn/article/details/80373744Ranking 是信息检索领域的基本问题,也是搜索引擎背后的重要组成模块。本文将对结合机器学习的 ranking 技术——learning2rank——做个系统整理,包括 ...

2019-09-06 09:47:02 1094

转载 MATLAB数据矩阵单位化,归一化,标准化

1.数据矩阵单位化方法一:%%矩阵的列向量单位化%输出矩阵Y为单位化矩阵%方法即是矩阵中所有元素除以该元素所在列向量的二范数clc;clear;X=[790 3977 849 1294 1927 1105 204 1329 768 5037 1135 1330 1925 1459 275 1487 942 2793 820 814 1617 942 155 976...

2019-08-06 09:46:27 2935

转载 可视化利器 t-SNE(matlab)——用于高维数据的自动降维和绘图

t-SNE – Laurens van der Maaten(感谢学术男神们的无私开源)User_guide.pdf(用户指南)1. tsne 函数mappedX = tsne(X, labels, no_dims, init_dims, perplexity)最新的matlab(实测的是2017b) 已经集成了 tsnetsne 是无监督降维技术,labels 选项可选;X是由N 个...

2019-08-05 11:08:26 4990

转载 matlab管理内存方法---解决out of memory

一、利用clear清除内存时,要用pack函数进行内存整理Matlab在运行大数据时,会出现Out of Memory,在程序中加入clear不需要的变量,能否解决Out of Memory问题。答案是或许可以,或许不可以。原因:清除变量或者给该变量重新赋值只是释放了该变量先前分配的内存块,由于matlab是分连续块分配内存给变量,所以如果清除的这个内存空间不一定可以用上,比如,一个萝...

2019-08-01 10:04:14 1378

转载 Pytorch深度学习常用预训练网络模型的下载地址

转载自https://blog.csdn.net/sumaliqinghua/article/details/90903590Resnet:model_urls = {'resnet18': 'https://download.pytorch.org/models/resnet18-5c106cde.pth','resnet34': 'https://download...

2019-07-22 20:11:17 4250

转载 Git使用详细教程

一:Git是什么?  Git是目前世界上最先进的分布式版本控制系统。  二:SVN与Git的最主要的区别?  SVN是集中式版本控制系统,版本库是集中放在中央服务器的,而干活的时候,用的都是自己的电脑,所以首先要从中央服务器哪里得到最新的版本,然后干活,干完后,需要把自己做完的活推送到中央服务器。集中式版本控制系统是必须联网才能工作,如果在局域网还可以,带宽够大,速度够快,如果在互联网...

2019-07-03 09:21:16 103

转载 几种矩阵分解算法: LU分解,Cholesky分解,QR分解,SVD分解,Jordan分解

目录1.LU分解2. LDLT分解法3. Cholesky分解的形式4. QR分解5.SVD分解5.1 SVD与广义逆矩阵6. Jordan 分解参考文章: ...

2019-06-11 21:25:12 14225

转载 Robust regression(稳健回归)

语法b=robustfit(X,y)b=robustfit(X,y,wfun,tune)b=robustfit(X,y,wfun,tune,const)[b,stats]=robustfit(...)描述b=robustfit(X,y) 通过执行稳健回归来估计线性模型y=Xb,并返回一个由回归系数组成的向量b。X是一个n*p预测变量矩阵,y是一个n*1观测向量。...

2019-06-11 21:11:58 6346

转载 稳健估计/M估计/最小二乘法

摘要:稳健估计是在粗差不可避免的情况下,选择适当的估计方法使未知量估计尽可能减免粗差的影响,得出正常模式下的最佳估计。本文先介绍基于最小二乘法的多元线性回归理论,再引出基于M估计的加权最小二乘估计。 关键词:稳健估计,M估计,最小二乘法,加权,极限学习机4、结尾文章的最后就要提极限学习机了,黄广斌提出的极限学习机的原理虽说是单隐层前馈神经网络,说白了就是以最小二乘为基...

2019-06-11 21:05:24 1592

转载 二值神经网络(Binary Neural Network,BNN)

转载自多篇博客,仅用作个人学习,如需删除,请见谅并联系本人。BNNBengio大神的著作《Binarized Neural Networks: Training Neural Networks with Weights and Activations Constrained to +1 or −1》:链接:https://arxiv.org/abs/1602.02830参考代码:h...

2019-04-22 10:36:58 2726 1

转载 二值网络——开启小而快神经网络时代

摘要:这种使用浮点计算的神经网络要求的大存储空间和大计算量,严重阻碍了其在手机、手表和移动机器人等设备上的应用。二值神经网络设法让计算主要在正1或负1间进行,几十倍地降低了网络大小和计算量,但一直以来难以达到高预测准确率。最新的进展大幅提高了二值神经网络的预测准确率并接近实用水...作者:周舒畅——旷视科技(Face++)研究员笔者按:赢得围棋人机大战的AlphaGo为了运行神经...

2019-04-12 10:51:43 358

转载 robustfith函数-最小二乘估计-M估计-Robust regression

转载自https://blog.csdn.net/meng4411yu/article/details/8851187,仅用作个人学习,如需删除请见谅并联系本人。robustfitRobust regression(稳健回归)语法b=robustfit(X,y)b=robustfit(X,y,wfun,tune)b=robustfit(X,y,wfun,tune,const)[b...

2018-12-19 16:49:14 2668

转载 Learning to Hash. Paper, Code and Dataset

 转载自https://blog.csdn.net/liuheng0111/article/details/53116108,仅用作个人学习,如需删除请见谅并联系本人。Table of Content Introduction Tutorial Slides Data-Independent Method L...

2018-08-13 16:55:47 499

转载 基于哈希的图像检索 HABIR(HASHING BASELINE FOR IMAGE RETRIEVAL)

HABIRHASHING BASELINE FOR IMAGE RETRIEVALHABIR简介HABIR哈希图像检索工具箱是一个用Matlab语言写的集成了经典哈希方法以及最近几年无监督哈希方法的基准框架,里面包含了针对图像检索的主流评价指标,使用该工具箱使得你可以专注于哈希方法的设计,其他性能评价这些方面的东西可以由它来帮你完成。HABIR起源目前我主要致力于大规模图像检索...

2018-08-04 08:48:33 1435

转载 机器学习中的几种loss

转载自: https://blog.csdn.net/lanchunhui/article/details/50422230,仅用作个人学习。如需删除,请见谅并联系本人。考虑这样一些数据:x = np.array([0, 3, 9, 14, 15, 19, 20, 21, 30, 35, 40, 41, 42, 43, 54, 56, 67, 69, 72, 88]...

2018-07-07 11:22:33 2539

转载 ADMM交替方向乘子算法

[本文链接:http://blog.csdn.net/shanglianlm/article/details/45919679,转载请注明出处]对偶上升法(Dual Ascent) 和 对偶分解法(Dual Decomposition) 在介绍ADMM之前我们首先介绍两种优化算法:对偶上升法(Dual Ascent) 和 对偶分解法(Dual Decomposition)。 1.1 对偶上升法(D...

2018-06-05 16:18:53 5352

转载 LP/QP/QCQP/SOCP/SDP/CCCP等系列优化方法的比较

转载自http://blog.csdn.net/haiming_yeyeye/article/details/48979591,仅用作个人学习。如需删除,请见谅并联系本人。为了不分原创浏览量,本人自己踩此文一下。在优化理论中,我们经常会碰到很多特殊类型的优化方法,最近主要看了convex optimization,将其中涉及到的一些常见优化方法整理如下。LP-Linear

2017-12-17 21:32:42 12513

转载 黑塞矩阵(Hessian Matrix)

转载自http://blog.csdn.net/caimouse/article/details/60465975,仅用作个人学习。如需删除,请见谅并联系本人。为了不分原创浏览量,本人自己踩此文一下。在机器学习课程里提到了这个矩阵,那么这个矩阵是从哪里来,又是用来作什么用呢?先来看一下定义:黑塞矩阵(Hessian Matrix),又译作海森矩阵、海瑟矩阵、海塞矩阵等,是一个多

2017-12-10 22:33:51 3284

转载 Jacobian矩阵和Hessian矩阵

原文:http://jacoxu.com/jacobian%E7%9F%A9%E9%98%B5%E5%92%8Chessian%E7%9F%A9%E9%98%B5/1. Jacobian在向量分析中, 雅可比矩阵是一阶偏导数以一定方式排列成的矩阵, 其行列式称为雅可比行列式. 还有, 在代数几何中, 代数曲线的雅可比量表示雅可比簇:伴随该曲线的一个代数群, 曲线可以嵌入

2017-12-10 22:29:30 274

转载 CUDA中并行规约(Parallel Reduction)的优化

Parallel Reduction是NVIDIA-CUDA自带的例子,也几乎是所有CUDA学习者的的必看算法。在这个算法的优化中,Mark Harris为我们实现了7种不同的优化版本,将Bandwidth几乎提高到了峰值。相信我们通过仔细研读这个过程,一定能对CUDA程序的优化有更加深刻的认识。下面我们来一一细看这几种优化方案,数据和思想均摘录自官方SDK中Samples的算法说明。

2017-12-04 18:06:03 2283

转载 hash 图像检索方法汇总

本文参考来自:http://yongyuan.name/blog/codes-of-hash-for-image-retrieval.html哈希方法主要贴公布代码的:AGH: Hashing with Graphs, Paper and CodeBPBC: Learning Binary Codes for High-Dimensional Data Us

2017-11-21 20:13:48 862

转载 老外对中国人写英语文章最常犯的错误总结

2017-11-16 小木虫文章来源:小木虫论坛分享人:kkx1986      编辑:颜惜The Most Common Habitsfrom more than 200 English Paperswritten by Graduate ChineseEngineering StudentsBy

2017-11-17 18:29:26 4474

转载 各领域公开数据集下载

https://zhuanlan.zhihu.com/p/25138563

2017-11-10 17:04:37 1705

转载 终于盼来了Hinton的Capsule新论文,它能开启深度神经网络的新时代吗?

雷锋网 AI 科技评论按:眼见“深度学习教父”Geoffery Hinton在许多场合谈到过自己正在攻关的“Capsule”之后,现在我们终于等到了这篇论文,得以具体感受Capsule的特性。雷锋网 AI 科技评论把这篇论文主要成果介绍如下。背景目前的神经网络中,每一层的神经元都做的是类似的事情,比如一个卷积层内的每个神经元都做的是一样的卷积操作。而Hinton坚信,不同的

2017-11-04 21:04:42 292

转载 one-hot representation与distributed representation学习笔记

本文转载自http://blog.csdn.net/elmo66/article/details/53735591,仅用作个人学习;如需转载请联系原创作者;如需删除,请见谅并联系本人。词表示:高维数据可以转换为连续的实数real valued概念向量,从而有效地从数据中捕获其潜在关系。例如,肺炎pneumonia和支气管炎bronchitis显然比肺炎和肥胖obesity更相关

2017-10-30 20:00:20 1256

转载 常用的凸优化方法

本文转载自多个地方,仅用作个人学习,如需删除请见谅并联系本人。为什么凸优化这么重要?见知乎,写的很好https://www.zhihu.com/question/24641575http://blog.csdn.net/zkq_1986/article/details/523172581 梯度下降法2 坐标下降法

2017-10-24 21:45:17 13418

转载 数学优化入门:凸优化

本文转载自http://blog.csdn.net/column/details/13248.html,仅用作个人学习;如需转载请联系原创作者;如需删除,请见谅并联系本人。做科研时,曾花了段时间学习凸优化,后来发现ML中其应用也非常普遍,想来今后可能还会接触,干脆做个系统的总结,方便以后查询。博文内容主要参考Boyd(Stanford)的Convex Optimization,配套

2017-10-16 21:35:32 1727

原创 论文笔记及公式推导 《Supervised Discrete Hashing》

转载自http://jikaichen.com/2016/05/31/notes-on-sdh/,(慎入,这个链接好像是不行了哎)仅用作个人学习,如需删除,请联系本人。原论文提出了一种解离散哈希问题的最优化方法,推出其闭式解。笔者在阅读该论文的过程中,理解公式推导的过程中遇到了一些问题,现在将论文公式推导的详细内容记录于此。原论文链接来自这里http://arxiv.org/pdf/15...

2017-10-09 19:55:56 3921 10

翻译 结构化支持向量回归-脊椎角度估计

Direct Estimation of Spinal Cobb Angles by Structured Multi-Output Regression基于结构化多输出回归的脊椎科布角度的直接估计Haoliang Sun1;2, Xiantong Zhen2, Chris Bailey3, Parham Rasoulinejad3, Yilong Yin1, and Shuo Li2 1 Sh

2017-09-28 08:39:49 2104

转载 浅谈KL散度

作者:火星十一郎出处:http://www.cnblogs.com/hxsyl/本文版权归作者火星十一郎所有,欢迎转载和商用,但未经作者同意必须保留此段声明,且在文章页面明显位置给出原文连接,否则保留追究法律责任的权利.、第一种理解    相对熵(relative entropy)又称为KL散度(Kullback–Leibler di

2017-09-25 19:46:13 1068

原创 MATLAB实用函数

本文转载自多个地方,暂列为原创,仅用作个人学习,如原创作者有意见,请见谅并联系我。1.矩阵拼接水平拼接A=A[A A];或者A=A[A,A];或者 horzcat (A,A)竖直拼接A=A[A;A]或者vertcat(A,A)repmat   通过对现有矩阵进行复制和粘贴操作生成新的矩阵blkdiag  现有矩阵构造对角矩阵2.强制类型转换A=double(A);...

2017-08-23 23:07:08 1100

转载 Network In Network学习笔记

Network In Network学习笔记原文地址:http://blog.csdn.net/hjimce/article/details/50458190作者:hjimce一、相关理论本篇博文主要讲解2014年ICLR的一篇非常牛逼的paper:《Network In Network》,过去一年已经有了好几百的引用量,这篇paper改进了传统的CNN网络,采用了少量的参数就

2017-07-13 21:14:36 313

转载 latex使用技巧

本文属个人学习所写的笔记,仅用作个人学习。可能转载自多个地方,这里不一一列出。1,latex显示中文 \documentclass[12pt]{article}\usepackage{CJK}\begin{document}\begin{CJK*}{GBK}{song}latex我就看看中文能显示么\end{CJK*}\end{document}2.la

2017-07-08 23:44:49 415

转载 latex,一些问题

常用文稿类别:article(\section \subsection), report, book(\chapter \section \subsection)              amsart, amsbook(用于排版数学文稿)              beamer所有latex命令的参数,分为强制参数(大括号{.})和可选参数(中括号[.])两种。例如画

2017-07-08 16:45:22 1601

转载 Latex排版全解

LATEX(英语发音:/ˈleɪtɛk/ LAY-tek或英语发音:/ˈlɑːtɛk/ LAH-tek,音译“拉泰赫”),是一种基于TEX的排版系统,由美国电脑学家莱斯利•兰伯特在20世纪80年代初期开发,利用这种格式,即使用户没有排版和程序设计的知识也可以充分发挥由TEX所提供的强大功能。对于生成复杂表格和数学公式,这一点表现得尤为突出。因此它非常适用于生成高印刷质量的科技和数学类文档。这个系统

2017-07-07 23:09:07 1676

原创 Latex报错SumatraPDF已停止工作

LatexF9编译之后正常显示编译后的PDF,但是关闭PDF界面后会 报错SumatraPDF已停止工作。这个问题只需要更新一下SumatraPDF就行,具体操作如下:1.在SumatraPDF选择帮助-检查更新,下载最新版本的SumatraPDF2.安装SumatraPDF3,更改SumatraPDF的路径在Latex中选择 options--execution Modes-

2017-07-07 20:25:07 5402

转载 LaTeX新人教程,30分钟从完全陌生到基本入门

对于真心渴望迅速上手LaTeX的人,前言部分可以跳过不看。本教程面向对LaTeX完全无认知无基础的新人。旨在让新人能够用最简单快捷的方式,轻松入门,能够迅速使用LaTeX完成基本的文本编辑。这个教材最终能够达到的水平是能够使用LaTeX写一篇正常的proposal。如果希望有更大需求的提高,那么推荐在熟悉了这一篇文章的内容之后,再自行google或查阅其他稍厚的教材。尤其旨在破

2017-07-07 20:03:51 593 2

文本英文单词统计

可以用简单的图形界面显示文本所有英文单词的数目,并可以查询固定单词的个数

2016-06-06

数学建模美赛论文

数学建模

2016-01-25

美国数学建模论文格式

美国数学建模论文格式

2015-12-02

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除