9 江海成

尚未进行身份认证

加高自己的技术壁垒:业务业务业务,锻炼业务敏感性,理解业务需求,给出解决方案

等级
TA的排名 10w+

操作系统、计算机网络、python题目整理

计算机操作系统:https://blog.csdn.net/qq_32690999/article/details/78069414计算机网络题目整理:http://www.cnblogs.com/zyf-zhaoyafei/p/4716297.htmllinux题目整理:http://www.cnblogs.com/mrgavin/p/9330912.htmlpytho...

2018-11-13 13:50:18

初学者的卡尔曼滤波——扩展卡尔曼滤波

简介转自:http://www.cnblogs.com/ymxiansen/p/5368547.html  已经历经了半个世纪的卡尔曼滤波至今仍然是研究的热点,相关的文章不断被发表。其中许多文章是关于卡尔曼滤波器的新应用,但也不乏改善和扩展滤波器算法的研究。而对算法的研究多着重于将卡尔曼滤波应用于非线性系统。  为什么学界要这么热衷于将卡尔曼滤波器用于非线性系统呢?因为卡尔曼滤波器从一...

2018-11-12 15:09:35

extern 关键字 static关键字 virutal 关键字

extern1、声明外部变量extern用来修饰变量或者函数名,用以在一个文件中定义,但是可以在其他文件中进行使用的。例如在A文件中定义了全局变量intmm=0;你在另一个文件B中也定定义了intmm=0;编译时时候不会出错,因为编译时以文件为单位作用域在本文件中。但是在链接是后出错,因为他会将多文件进行合并生成obj全局变量的存储空间合并为一块儿,导致重名;如果加上...

2018-11-03 19:57:41

深度学习拾遗

深度学习:hintonbp算法,李飞飞,吴恩达,黄广斌,路奇深度学习优化的超参数:1)学习率学习率(learningrate或作lr)是指在优化算法中更新网络权重的幅度大小。学习率可以是恒定的、逐渐降低的,基于动量的或者是自适应的。不同的优化算法决定不同的学习率。当学习率过大则可能导致模型不收敛,损失loss不断上下震荡;学习率过小则导致模型收敛速度偏慢,需要更长的时间训练。通常lr取值...

2018-10-23 19:57:09

教你透彻了解红黑树

教你透彻了解红黑树原文:https://github.com/julycoding/The-Art-Of-Programming-By-July/blob/master/ebook/zh/03.01.md二叉查找树由于红黑树本质上就是一棵二叉查找树,所以在了解红黑树之前,咱们先来看下二叉查找树。二叉查找树(BinarySearchTree),也称有序二叉树(orderedbi...

2018-10-09 19:31:39

手撕SVM

支撑向量机SVM1.支撑向量机SVM1.什么是SVMSupportVectorMachine解决的是线性可分问题 HardMarginSVM SoftMarginSVM2.SVM背后的最优化问题点到直线的距离支撑向量机我们也可以将两个式子变成一个最优化目标这是一个有条件的最优化问题3.SoftMarginSVM...

2018-08-14 11:12:50

C++基础:

什么是多态:(哑巴了吧,你知道你倒是说呀),所谓多态也就是一个接口的多种实现方式。多态包括:虚函数,纯虚函数,覆盖,模板(重载与多态没有关系)虚函数:虚函数是带有virtual关键字的函数,定义一个函数为虚函数,定义他为虚函数是为了允许用基类的指针来调用子类的这个函数。纯虚函数是类似virtualvoidhanShu(intB)=0;这样的函数。带有纯虚函数的类是抽象类,必须实例...

2018-07-27 17:22:02

进程与线程

进程与线程的理解:(1)调度:    在传统的操作系统中,CPU调度和分派的基本单位是进程。而在引入线程的操作系统中,则把线程作为CPU调度和分派的基本单位,进程则作为资源拥有的基本单位,从而使传统进程的两个属性分开,线程编程轻装运行,这样可以显著地提高系统的并发性。同一进程中线程的切换不会引起进程切换,从而避免了昂贵的系统调用,但是在由一个进程中的线程切换到另一进程中的线程,依然会...

2018-07-24 10:57:43

详解卡尔曼滤波

轻松一下看一个例子:一片绿油油的草地上有一条曲折的小径,通向一棵大树。一个要求被提出:从起点沿着小径走到树下。“很简单。” A说,于是他丝毫不差地沿着小径走到了树下。现在,难度被增加了:蒙上眼。“也不难,我当过特种兵。” B说,于是他歪歪扭扭地走到了树 ………. 旁。“唉,好久不练,生疏了。”“看我的,我有 DIY 的 GPS!”C说,于是他像个醉汉似地走到了树………. 旁。“唉,这...

2018-07-18 13:52:08

稀疏自编码器 栈式自编码器 深度学习预训练

https://www.zhihu.com/question/41490383/answer/103006793

2017-10-08 15:03:38

正则化方法:L1和L2 regularization、数据集扩增、dropout

正则化方法:防止过拟合,提高泛化能力在训练数据不够多时,或者overtraining时,常常会导致overfitting(过拟合)。其直观的表现如下图所示,随着训练过程,网络在trainingdata上的error渐渐减小,但是在验证集上的error却反而渐渐增大——因为训练出来的网络过拟合了训练集,对训练集外的数据却效果变得越来越差。为了防止overfitting,可以用的方法

2017-06-11 11:58:33

深度学习之减少过拟合的可能性

原文地址:一只鸟的天空,http://blog.csdn.net/heyongluoyao8/article/details/49429629防止过拟合的处理方法过拟合  我们都知道,在进行数据挖掘或者机器学习模型建立的时候,因为在统计学习中,假设数据满足独立同分布(i.i.d,independentlyandidenticallydistributed),即当前已产生的数...

2017-04-22 17:13:17

神经网络优化(初始化权重)

使隐藏层饱和了,跟之前我们说的输出层饱和问题相似,对于输出层,我们用改进的cost函数,比如cross-entropy,但是对于隐藏层,我们无法通过cost函数来改进更好的方法来初始化权重?因为传统的初始化权重问题是用标准正态分布(均值为0,方差为1)随机初始化的,这其实是存在不合理的部分。标准正态分布:可以看出真实数据的

2017-04-22 16:07:16

简单易学的机器学习算法——Softmax Regression

Contents [hide]1 简介2 代价函数3 Softmax回归模型参数化的特点4 权重衰减5 Softmax回归与Logistic回归的关系6 Softmax回归vs.k个二元分类器7 中英文对照8 中文译者简介在本节中,我们介绍Softmax回归模型,该模型是logistic回归模型在多分类问题上的推广,在多分类问题中,类标

2017-04-20 18:36:27

一文弄懂神经网络中的反向传播法——BackPropagation

最近在看深度学习的东西,一开始看的吴恩达的UFLDL教程,有中文版就直接看了,后来发现有些地方总是不是很明确,又去看英文版,然后又找了些资料看,才发现,中文版的译者在翻译的时候会对省略的公式推导过程进行补充,但是补充的又是错的,难怪觉得有问题。反向传播法其实是神经网络的基础了,但是很多人在学的时候总是会遇到一些问题,或者看到大篇的公式觉得好像很难就退缩了,其实不难,就是一个链式求导法则反复用。如果

2017-04-20 17:32:49

交叉熵代价函数(cross-entropy cost function)

1.从方差代价函数说起代价函数经常用方差代价函数(即采用均方误差MSE),比如对于一个神经元(单输入单输出,sigmoid函数),定义其代价函数为:其中y是我们期望的输出,a为神经元的实际输出【a=σ(z),wherez=wx+b】。在训练神经网络过程中,我们通过梯度下降算法来更新w和b,因此需要计算代价函数对w和b的导数:然后更新w、b:

2017-04-19 22:00:13

贝叶斯分类器

0、写在前面的话     我个人一直很喜欢算法一类的东西,在我看来算法是人类智慧的精华,其中蕴含着无与伦比的美感。而每次将学过的算法应用到实际中,并解决了实际问题后,那种快感更是我在其它地方体会不到的。     一直想写关于算法的博文,也曾写过零散的两篇,但也许是相比于工程性文章来说太小众,并没有引起大家的兴趣。最近面临毕业找工作,为了能给自己增加筹码,决定再次复习算法方面的知

2017-03-31 10:44:11

集成学习 (AdaBoost、Bagging、随机森林 ) python 预测

首先明确一下回归与分类的区别:分类和回归的区别在于输出变量的类型。定量输出称为回归,或者说是连续变量预测;定性输出称为分类,或者说是离散变量预测。举个例子:预测明天的气温是多少度,这是一个回归任务;预测明天是阴、晴还是雨,就是一个分类任务;决策树三种算法特性对比:ID3特点:(1)节点优先选取采用信息增益作为标准。(2)容易造

2017-03-26 11:30:34

决策树与随机森林

首先,在了解树模型之前,自然想到树模型和线性模型有什么区别呢?其中最重要的是,树形模型是一个一个特征进行处理,之前线性模型是所有特征给予权重相加得到一个新的值。决策树与逻辑回归的分类区别也在于此,逻辑回归是将所有特征变换为概率后,通过大于某一概率阈值的划分为一类,小于某一概率阈值的为另一类;而决策树是对每一个特征做一个划分。另外逻辑回归只能找到线性分割(输入特征x与logit之间是线

2017-03-22 20:24:46

决策树

算法原理决策树(DecisionTree)是一种简单但是广泛使用的分类器。通过训练数据构建决策树,可以高效的对未知的数据进行分类。决策数有两大优点:1)决策树模型可以读性好,具有描述性,有助于人工分析;2)效率高,决策树只需要一次构建,反复使用,每一次预测的最大计算次数不超过决策树的深度。 如何预测先看看下面的数据表格:ID拥有房产(是

2017-03-14 10:50:58

查看更多

勋章 我的勋章
  • 持之以恒
    持之以恒
    授予每个自然月内发布4篇或4篇以上原创或翻译IT博文的用户。不积跬步无以至千里,不积小流无以成江海,程序人生的精彩需要坚持不懈地积累!