9 涵子涵

尚未进行身份认证

兴趣领域:机器学习,图像处理,数据挖掘,计算金融,心理学,古典哲学,C++,Matlab,Opencv 希望结识更多志同道合的研究同僚,多多学习!

等级
TA的排名 4w+

量化对冲那点事

刚刚翻博客,发现已经有一年多没有更新了,好像应该要写点东西了。做量化研究已经近两年了,经历了很多。从去年上半年爆牛行情,年中股灾,下半年震荡,今年年初熔断,上半年期货发力。几年不见的行情就这样在我刚入行时全赶上了。让我体会到了人性的贪婪与恐惧。

2016-09-23 18:32:49

为了什么?

一直以来,总有个问题困扰着我——人为了什么活着?有人说,活着就是为了吃喝拉撒;有人说活着就是为了更好的生活;有人说,他不知道;也有人说,活着是为了理想等等。这些似乎都给不了我想要的答案,因为这些所谓的物质都是生不带来,死不带去的。后来有人说活着是为了荣耀上帝,起先想想上帝创造了宇宙万物,活着为了他也挺对的,但后来发现这个却也挺空。虚空的虚空还是虚空。人行走了一辈子,忙碌了一辈子,挣扎了一辈子,

2015-06-08 13:02:11

Win7 64位系统 Matlab 访问 Mysql 数据库(详细!)

 Win7   64位系统 Matlab 访问 Mysql 数据库PS:  看了很多网上用Matlab 连接Mysql 的技术贴,但是实际自己操作时总是出现问题,现写下详细的技术贴,希望以后少走弯路!后续还会写一些matlab的数据库语句!实例: I)下载得到mysql-connector-java-5.1.35-bin.jar;http://dev.mysql.com/downloads/con...

2015-04-10 10:01:43

时间序列之重复模式

前几天参加了数据挖掘的大会,听了一个有趣的讲座,很有趣,先上图,改天详解一下~参考文献:1. Finding Time Series Motifs in Disk-Resident Data

2014-12-25 20:14:49

马尔柯夫预测法

PS:这是我看到的一篇比较通俗易懂的马尔科夫预测详解!内容比较多,但是抓住主线(下一刻的状态只与当前有关,与当前以前即过去无关!)马尔柯夫预测法  马尔柯夫预测法:马尔柯夫预测以俄国数学家A.A.Markov名字命名,是利用状态之间转移概率矩阵预测事件发生的状态及其发展变化趋势,也是一种随时间序列分析法。它基于马尔柯夫链,根据事件的目前状况预测其将来各个时刻(或时期)的变动

2014-12-23 10:25:54

Python 模块大全(很详细!)

转载:。。。。Python的模块大全,很全,有详细介绍!另外附Python两个教程1.Python详细教程(廖雪峰的官方网站,语言简洁!)2.Python进阶教程(Vamei)3.Python网络程序开发  注意:有些模块是只能在Unix下才运行的(如:commandsetc)正文:0.1.关于本书0.2.代码约定0.3.关于

2014-12-12 20:47:18

改变自己(change yourself)

今天看了改变自己的微博,感觉自己好像有了力量~在此,我主要作一些记录~(学以致用!写作可以帮自己理清思路~)1. 想实现人生理想,必须放弃多余的目标~    欲望太多,但是人的精力是有限的,抓住重点,才会有精彩~2. 高冷的人生    章子怡的倔强,维多利亚的努力,专注工作的女人最美~3. 王石:我每天都强迫自己做一件事~    健身(提

2014-12-03 13:28:56

计算机视觉,图像处理 经典代码paper整理(很全很强大!)

这些代码很实用,可以让我们站在巨人的肩膀上~~TopicResourcesReferencesFeature ExtractionSIFT [1] [Demo program][SIFT Library] [VLFeat]PCA-SIFT [2] [Project]Affine-SI

2014-11-25 16:25:08

ELM 极限学习机与SVM支持向量机

在上一篇《DeepLearning的挑战:ExtremeLearningMachine(超限学习机)?》中介绍了一些ELM与DL的一些比较,这篇主要介绍ELM的原理。首先,ELM的核心就是将复杂的迭代过程转变为隐层参数随机产生。其次,ELM是一个神经网络,有输入层、隐藏层,输出层。最后,ELM的多分类效果优于SVM。 对于训练样本集{xi,ti} i=1-N,

2014-11-25 11:20:30

NIPS 2013

刚刚过去的NIPS2013不愧是机器学习最高水平的盛会,几乎所有可以想象得到的知名学者都参加了会议,在会上也看到了好多有意思的idea。相比起之前参加的CVPR,NIPS的会议议程安排的要紧凑太多:主会期间从早上9点开始听报告,一直到下午6点,中午吃饭休息一个半小时,然后晚上7点到夜里12点是postersession,尽管有5个小时,可因为poster很多,有意思的也很多,5个小时有时候都不

2014-11-21 11:05:57

ICML 2014

ICML第一次在中国举行,会场在北京的BICC。外面看起来不错,但里面却不如想象的好。ICML期间还有好几个会也在BICC开,楼里鱼龙混杂,给人感觉也并不太好。尤其最初几天北京男科论坛也在同一个会场开,每每路过,都让人觉得对比过于鲜明实在想笑。好在外国友人大都不知道隔壁开的是什么会。虽然会场一般,组织工作也一般,但论文质量还是不错的,有不少有意思的东西,照例总结一下,列个清单。这次由于有自

2014-11-21 11:02:43

Six ways to think like a journalist!

Journalists have the ability to state a thing more clearly. What can we learn from them to help us report or explain things like them?       There are six ways as follows:       1. Know your audie

2014-11-18 16:32:11

关于人工智能的一些思考~

最近神经网络实在太火了,其本质上来说就是人们模拟人脑的思维结构去有意识地去赋予一台机器在既定的程序下去学习某一问题的规律~如深度学习,他可以从给定的素材中自主地学习得到其特征,并进行一些分类或者预测活动,就如人类通过思考去判断。     这样的人工智能化必将是以后的趋势,其可以代替人类做很多事情。     但是问题来了,我们现在所谓的机器学习算法只能称为小众型,如深度学习,他的成功还在于能

2014-11-16 23:08:42

Word2vec 浅谈

本人还没有做过自然语言处理,但是基于Deep Learning 的关注,自然也了解了一些Word2vec的强大。      Word2vec 是google 在2013年提供的一款将词表征为实数值向量的高效工具。而Word2vec输出的词向量可用于做NLP 相关的工作,比如聚类、找同义词、词性分析等。Word2vec 大受欢迎的一个原因是其高效性, Tomas Mikolov  在[1]

2014-11-13 14:52:22

Deep Learning 的挑战: Extreme Learning Machine(超限学习机)?

序: 今天刚听了一个关于 Extreme Learning Machine (超限学习机)的讲座,讲员就是ELM的提出者 黄广斌 教授。ELM的效果自然是比SVM,BP 算法优异很多。并且相对比 当下最火的 Deep Learning, 其有很大的优势: 运算速度非常快,准确率高,能Online Sequential Learning。算法还没仔细研究,先上图吧。正文:

2014-10-21 14:47:45

图像处理系列(1):测地线动态轮廓(geodesic active contour)

动态轮廓是图像分割的一个热点,从早期的snake,就有很多的优化版,测地线动态轮廓(GAC)就是其中之一。总体来说,其摒弃了snake对参数的依赖,并加入了水平集,使得轮廓曲线更贴近目标物的拓扑结构。经典的动态轮廓模型(activecontourmodel)的能量公式为: (1)其中,α,β,λ为正值常量。其中前两项控制曲线的平滑度,第三项吸引曲线向物体边界靠近。极小化该

2014-08-08 16:44:22

机器学习系列(8):主成分分析(PCA)及白化(ZCA)

主成分分析(PCA)是一种数据降维算法。白化主要是降低输入特征的冗余性。假设X 是m*n的矩阵,由n个样本(m维特征)组成。现要对X 进行线性变换为另一个矩阵Y,使得Y消除了X各特征的相关性,即Y的协方差矩阵为对角矩阵。X变换到Y的线性变换公式为:  Y=PX    (1)则,YY’=PX(PX)’=PXX’P’   (2)  对XX’进行特征值分解,则XX’=QD

2014-07-31 17:45:11

Deep Learning 系列(4):稀疏编码(sparse coding)和主成分分析(ICA)

一直犹豫稀疏编码怎么写,来来回回看了好几遍的UFLDL。因为这不仅是DL深度学习的重要概念,也是我这段时间一直在研究的stacked ISA 深度特征学习的支柱。这章将主要介绍一下稀疏编码的主要概念,及主成分分析的方法。稀疏编码算法是一种无监督(unsupervised)学习方法,它用来寻找一组“超完备”基向量来更高效地表示样本数据。(设x的维数为n,则k>n)超完备基能更有效地找

2014-07-25 17:31:17

Deep Learning 系列(3):CNN(卷积神经网络)

早就想写CNN的博文了,最近刚好有空。总体来说,CNN框架不难理解,关键是里面的实现细节值得思考。初次了解,可以先看看UFLDL教程中的Convolution和Pooling。这基本上是CNN的核心。简单理解:Convolution即用一个滑动的小窗口去卷积一个大的图像。          Pooling 即滑动的小窗口各权值为1/m  (m 为权值个数)。另外,在pooling中

2014-07-22 20:33:44

Deep Learning 系列(2):NN(神经网络)及反向传播算法

前一章介绍了DeepLearning中DBN算法(DL系列一),发现当参数W经过stackedRBM后,还需要SupervisedLearning,即NN来优化参数。然而怎样去优化呢?参见UFLDL教程之神经网络与反向传导算法,以及Dark_Scope的NN代码解读。本章将结合DBN与NN的算法推导以及代码,针对重点作讲解。代码下载:DeepLearnToolb

2014-07-21 22:01:59

查看更多

勋章 我的勋章
  • 持之以恒
    持之以恒
    授予每个自然月内发布4篇或4篇以上原创或翻译IT博文的用户。不积跬步无以至千里,不积小流无以成江海,程序人生的精彩需要坚持不懈地积累!