自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(36)
  • 收藏
  • 关注

原创 C++标准库与内核分析第三讲(六大部件源码分析)

C++标准库与内核分析第三讲(六大部件源码分析)1.准备工作在第二讲中主要讲到标准库中容器的源码,这里主要讲一讲标准库算法。如下 通常算法会有第二个版本,名称相同,参数不同,如下算法,第一个有两个参数,第二个有三个参数,其中第三个参数,就是允许我们用户自己传入一个准则。例如排序算法,我们就可以传入一个准则,即如何比较大小。Algorithms如果需要知道容器的某一些性质,则itera...

2018-07-05 19:44:44 717

原创 C++标准库与内核分析第二讲(六大部件源码分析)

## 1 准备工作在准备工作中,我们需要找到六大部件的源代码,源代码一般在include这个文件夹中,如下所示。其次我们需要了解OOP和GP的区别,在上一讲中,我们已经有简单介绍。从上图可知,vector和deque这两个容器本身就是一个类,他们通过RandomAccessIterator这中类型迭代器来使用sort排序这个算法。这些排序算法,均为模板函数。其次我们可以看到,这两个排序算法有些不一...

2018-06-14 20:18:00 832

原创 C++标准库与内核分析第一讲(六大部件简介)

#include<iostream>#include<string>#include<cstdlib>using std::cin;using std::cout;using std::string;string get_a_target_string(){ char buf[10]; long target = 0; cout <&l...

2018-06-12 16:34:49 852 2

原创 唐宇迪之tensorflow学习笔记项目实战(LSTM情感分析)

我们首先来看看RNN的网络结构,如下图所示xt{x_t}表示第t,t=1,2,3…步(step)的输入st{s_t}为隐藏层的第t步的状态,它是网络的记忆单元。st=f(u×xt+w×st−1){s_t} = f\left( {u \times x{}_t + w \times {s_{t - 1}}} \right),其中f一般是非线性的激活函数ot{o_t}是第t步的输出,如下个单词的向

2018-01-06 21:06:49 10821 14

原创 唐宇迪tensorflow学习笔记之项目实战(对抗生成网络)

对抗生成网络有两个重要概念生成器:火眼金睛,分辨出生和真实的判别器:瞒天过海,骗过判别器损失函数定义:一方面要让判别器分辨能力更强,另一方面要让生成器更真。网络架构输入层:待生成图像和(噪音)和真实数据生成网络:将噪音图像进行生成判断网络:(1)判断真实图像输出结果(2)判断生成图像输出结果目标函数:(1)对于生成网络要使得生成结果通过判

2018-01-05 21:07:23 3161 1

原创 唐宇迪tensorflow学习笔记之项目实战(垃圾邮件分类)

以下是利用卷积神经网络对某一个句子的处理结构图,我们进行垃圾邮件分类的原理也就是这样。我们从上图可知,将一句话转化成一个矩阵。我们看到该句话有6个单词和一个标点符号,所以我们可以将该矩阵设置为7行,对于列的话每个单词可以用什么样的数值表示。我们可以将其转化成向量的形式。所以其为7*5的矩阵,其次因为它不是图片,所以不存在通道一说,说白了就是7*5*1。其次在选择filter的时候,至少要以

2018-01-03 21:59:45 6062 6

原创 唐宇迪强化学习笔记之项目实战(flabby bird)

强化学习: 学习系统没有像很多其它形式的机器学习方法一样被告知应该做出什么行为,必须在尝试了之后才能发现哪些行为会导致奖励的最大化,当前的行为可能不仅仅会影响即时奖励,还会影响下一步的奖励以及后续的所有奖励。强化学习的五个关键字:强化学习的学习过程:总的来说就是先观测,再行动,再观测。如下图所示: 以下是强化学习的原理图: 马尔科夫决策要求: 1.能够检测到理想的状态 2.可以多

2018-01-03 14:47:23 3628 1

原创 吴恩达深度学习笔记之结构化机器学习(二)

2.1 清楚标注错误的数据如果我们发现我们的数据有一些标记错误的例子,我们该怎么办?我们首先来考虑训练集,事实证明,深度学习算法,对于训练集中的随机误差是相当鲁棒的,只要我们的标记出错的例子,只要这些错误例子离随机误差不太远,误差足够随机,那么放着这些误差不管可能也没问题,而不需要花太多时间修复他们。 深度学习算法对随机误差很鲁棒,但是对系统性的误差就没那么鲁棒了,我们做标记的人一直把白色的狗标记

2017-12-28 17:17:40 499

原创 吴恩达深度学习笔记之结构化机器学习(一)

1.1 机器学习策略(ML Strategy)我们在训练深度学习网络的时候,有一下一些策略,提高我们的网络性能。如下图所示: 1.2 正交化(Orthogonalization)要弄好一个监督学习系统,我们需要调我们的系统旋钮确保四件事情。如下所示: 第一:确保在训练集上的结果不错,我们可以通过训练更大的网络,或者选择更好的优化算法。 第二:确保在开发集上不错,我们可以通过正则化或者数据扩充来

2017-12-27 22:09:08 1530

原创 吴恩达深度学习笔记之改善神经网络(三)

3.1 调试处理(Tuning process)神经网路的改变会涉及到许多不同的超参数的设置。下面我们介绍一些指导性原则。 关于训练深度最难的事情之一就是,我们要处理的参数的数量,从学习速率α\alpha 到momentum的β\beta ,如果使用momentum或者Adam优化算法的参数即β1{\beta _1},β2{\beta _2}以及ε{\rm{\varepsilon }},也许我们还

2017-12-23 22:09:46 559

原创 吴恩达深度学习笔记之改善神经网络(二)

2.1 mini-batch 梯度下降法(mini-batch gradient descent)我们知道,向量化可以让我们有效的对所有的m个训练样例进行计算,允许我们处理整个训练集,而无需某个明确的公式,所以我们要把训练样本放到巨大的矩阵x当中去。向量化能够让我们相对较快的处理m个样本,但如果是很大的话,处理速度仍然缓慢。mini-batch要做的就是将整个训练集分割为小一点的子训练集。比如,我们

2017-12-23 19:59:07 437

原创 吴恩达深度学习笔记之改善神经网络(一)

1.1 Train/dev/test sets在配置训练,验证,和测试数据集的过程中做出正确决策,会在很大程度上帮助大家创建高效的神经网络。训练神经网络的时候,我们需要做出很多决策。例如:神经网络分多少层,每层包含多少神经元,以及学习速率是多少。 实际上,应用型机器学习是一个高度迭代的过程,下面的示例图可以表示我们训练一个神经网路的过程。![这里写图片描述](http://img.blog.csd

2017-12-21 09:37:52 949

原创 吴恩达深度学习笔记之卷积神经网络(特殊应用)

4.1 人脸识别Verification (1) Input image,name/ID (2) Output whether the input image is that of the claimed personRecognition (1) Has a database of k persons (2) Get an input image (

2017-12-20 17:55:47 1525

原创 吴恩达深度学习笔记之卷积神经网络(目标检测)

3.1 目标定位定位分类问题意味着我们不仅要用算法判断出图片中是否有该物体,还要标记出它的位置,例如图片有一辆汽车,我们需要用边框把汽车圈起来。 图像分类问题已不陌生,例如输入一张图片到多层卷积神经网络,它会输出一个特征向量,并反馈给softmax来预测图片类型。 比如某张图片包括以下几类,人,汽车,摩托车,背景。如果在该张图片中没有检测到对象,则输出结果就会是背景,这些分类就是softmax函

2017-12-19 22:01:50 2728

原创 吴恩达深度学习笔记之卷积神经网络(实例探究)

2.1 为什么要进行实力探究(why look case studies)这周我们来看看卷积神经网络的实例分析。 为什么要看这些案例分析呢?上周我们讲了基本构建,比如卷积层,池化层以及全连接层这些组件,事实上,过去几年,计算机视觉中的大量研究都集中在如何把这些基本构建组合起来,形成有效的卷积神经网络,找感觉最好的方法之一是看一些案例。 实际上,在计算机视觉中表现良好的神经网络框架往往也适用于其他

2017-12-18 21:50:11 6725 1

原创 吴恩达深度学习笔记之卷积神经网络(卷积网络)

1.1 计算机视觉(computer vision) 应用计算机视觉存在一个挑战:就是数据的输入可能会非常大,例如,过去一般的操作是64*64的小图片,实际上它的数据量是64*64*3,因为每张图片还有3个颜色通道,如果计算一下,可以得知数据量是12288,所以我们的特征向量X维度是12288,这其实不算大,但是如果操作更大的图片,比如一张1000*1000的图片,则其特征向量维度X为1000

2017-12-18 16:33:14 1899

原创 3DMM配置

本文参考自:https://blog.csdn.net/tan_chi_she/article/details/728717641. 环境准备1.1在github上用git命令下载源码,源码地址如下https://github.com/patrikhuber/eos。也可在用命令直接下载,如下所示:git clone –recursive https://github.com/patrikhub

2018-04-08 15:51:13 2976 7

原创 吴恩达深度学习之序列模型(一)

1.1 为什么选择序列模型(why sequence models?)循环神经网络之类的模型在自然语言处理,语音识别有着广泛地应用,如音乐生成,电影评分,机器翻译等。如下图所示:1.2 数学符号(Notation)我们如果想建立一个序列模型它的输入语句如下: 假设我们建立一个能够自动识别句中人名位置的序列模型,那么这就是一个命名实体识别问题,命名实体识别常用于搜索引擎。 我们看到上述输入数据

2018-04-08 14:12:27 504

原创 Mysql 无法输入中文错误:Incorrect string value: '\xE7\xA8\x8B\xE5\xBA\x8F...' for column 'course' at row 1

问题描述: (1)在ubuntu终端输入命令mysql -uroot -p,然后输入密码,进入mysql客户端,可是发现无论如何输入不了中文。然后问度娘,说是编码格式的问题。然后输入如下命令:SHOW VARIABLES LIKE "%char%";发现自己的编码格式不对,然后输入以下命令,更改编码格式set character_set_database=utf8;此时可...

2018-03-25 15:52:10 4087

转载 机器学习之SVM算法常用问题

1.SVM原理SVM是一种二类分类模型,它的基本模型是在特征空间中寻找间隔最大化的分离超平面的线性分类器。(1)当训练样本线性可分时,通过硬间隔最大化,学习线性分类器,即线性可分支持向量机。(2)当训练数据近似线性可分时,引入松弛变量,通过软间隔最大化学习一个线性分类器(3)当训练数据线性不可分时,通过使用核技巧及软间隔最大化,学习非线性支持向量机2. SVM为什么间隔最大...

2018-03-24 12:17:40 626

原创 机器学习之决策树算法总结

1.原理决策树的建立是不断的使用数据的特征将数据分类的过程,主要的问题在于如何选择划分的特征。2.划分选择ID3算法:以信息增益度量属性选择,选择分裂后信息增益量最大的属性进行分裂。缺点:偏向于多值属性。C4.5算法:以信息增益率度量属性选择CART算法:使用基尼系数来选择划分属性,数据集的纯度可以用基尼系数来度量3.剪枝处理剪枝是决策树学习算法对付“过拟合”的主要手段,在决策树学习中,为了

2018-03-24 11:47:35 462

原创 python去掉字符串中某些特定的字符

1 . 去掉一行字符串中的汉字english_only = ''.join(x for x in str(col) if ord(x) < 256)2. 去掉字符串中所有的英文以及一些特殊符号#re是一个python库,需要提前倒入这个库str = re.sub("[A-Za-z0-9\!\%\[\]\,\。\.]", "", col)

2018-03-23 16:27:37 2961

原创 NLTK was unable to find the java file! Use softwarespecific configuration paramaters or set the JAVA

本文参考自https://weibo.com/p/23041888fb77570102veu9 只是他的是windows系统,我是ubuntu系统。 我的代码如下:from nltk.tag import StanfordPOSTaggerfrom nltk import word_tokenizeimport nltk# nltk.internals.config_java("/home

2018-03-08 17:03:46 3715 1

原创 NotImplementedError: Use label() to access a node label.

在用nltk做词性标注时,出现了这样的错误,后来查了下,可能是因为版本的问题。代码如下:import nltk# 一 NLTK进行分词#将文本拆分成句子列表text='PythonTip.com is a very good website. we can learn a lot from it.'sens=nltk.sent_tokenize(text)print(sens)#对句子进行

2018-03-07 16:46:01 797

原创 周志华机器学习第二章总结及课后答案

2.1 经验误差与过拟合通常我们把分类错误的样本总数的比例称为错误率(error rate),即如果在m个样本中有a个样本分类错误,则错误率E=a/m;相应的,1-a/m称为”精度”(accuracy),更一般的,我们把学习器的实际预测输出与样本的真实输出之间的差异称为“误差”,学习器在训练集上的误差称为“训练误差”或“经验误差”,在新样本上的误差称为“泛化误差”。过拟合(overfitting)

2018-01-31 19:38:35 3252 1

原创 周志华机器学习第一章总结及课后答案参考

1. 引言机器学习是这样一门学科,它致力于研究如何通过计算的手段,利用经验来改善系统自身的性能。在计算机系统中,“经验”通常以“数据”形式存在,因此机器学习所研究的主要内容,是关于在计算机上从数据中产生“模型(model)”的算法,即“学习算法”。有了学习算法,我们把经验数据提供给他,就能基于这些数据产生模型。因此奇迹学习是研究“学习算法“的学问。2.基本术语数据集(data s

2018-01-24 17:39:40 1370

转载 Error mounting /dev/sdab7 at /media/XXXX: Command-line `mount -t "ntfs" -o

本文转载自:http://blog.csdn.net/u010426270/article/details/52420231 我的电脑装的是双系统,win10和ubuntu16.04。在ubuntu中访问win10磁盘时,总是会出现如下的错误。 查了一下,可能出现的原因是上一次使用win10后使电脑睡眠,没有完全关机,这次开机直接进入ubuntu系统,访问win10磁盘报错。 解决方法如下:

2018-01-11 15:49:28 551

原创 python各种包下载网站

在执行python程序时,经常会出现如下的错误:no moduled named xxx此时一般情况下我们执行pip install xxx但是,有时候会总是安装不成功,此时我们可以直接网站上手动下载好,然后进行安装,同样是用pip install xxx。注意:此时的xxx是包的全名各种包的下载网站https://www.lfd.uci.edu/~gohlke/pythonlibs/#lxml

2018-01-08 21:03:41 2736

转载 深度学习笔记之caffe安装教程

本文参考自http://blog.csdn.net/u010193446/article/details/53259294我安装的是基于ubuntu16.04的cpu版本。说明一下:因为我先前已经安装了anaconda3.6,所以python版本是3.6,但是发现caffe貌似还没有那么高的对应版本。所以我就切换到了管理员权限,那里的python版本是2.7的,刚好符合caffe版本。如下所示:l

2018-01-08 09:51:18 403

原创 深度学习笔记之自然语言处理(word2vec)

1.1 自然语言处理的应用 拼写检查,关键词搜索 文本挖掘 文本分类 机器翻译 客服系统 复杂对话系统1.2 语言模型举个例子: 这里有一句话:“我今天下午打篮球。” p(S)是称为语言模型,即用来计算一个句子概率的模型。 如下的语言模型,会造成数据过于稀疏,参数空间太大。 用下述的方式可以解决上面的问题。如下: 假设下一个词的

2018-01-05 10:47:45 1786 2

原创 TypeError: Expected int32, got list containing Tensors of type '_Message' instead.

出现这样的错误是因为tensorflow的版本问题。主要是concat这个函数的位置发生了错误,为了简便,我只取一段代码: # Combine all the pooled features num_filters_total = num_filters * len(filter_sizes) #self.h_pool = tf.concat(pooled_outp

2018-01-04 09:57:01 2401

原创 tensorflow中模型无法保存出现 get NotFoundError

源代码如下:,运行这段代码时,程序可以正常运行,模型可以正常保存。import tensorflow as tfv1=tf.Variable(tf.random_normal([1,2]),name="v1")v2=tf.Variable(tf.random_normal([2,3]),name="v2")init_op=tf.global_variables_initializer()sa

2017-11-28 16:11:02 1703

原创 ValueError: Only call `softmax_cross_entropy_with_logits` with named arguments (labels=..., logits=.

遇到这样的错误是tensorflow版本的问题,我用的是tensorflow3.5的版本,在这里,原先代码为 cost=tf.reduce_mean(tf.nn.softmax_cross_entropy_with_logits(y,pred)) 在tensorflow3.5的版本中需要将该函数改为如下: cost=tf.reduce_mean(tf.nn.softm

2017-11-27 20:35:12 326

原创 深度学习之momentum,RMSprop,Adam优化算法

momentum算法: 除了batch/mini-batch/stochastic gradient descent 梯度下降法,还有一种算法叫做momentum梯度下降法,运行速度几乎总是快于标准的地图下降法,简而言之,基本的思想就是计算梯度的指数加权平均数,并利用该梯度更新权重 ,以下是batch/mini-batch gradient descent以及momentum梯度下

2017-11-25 09:25:50 4018

原创 tensorflow.python.framework.errors_impl.FailedPreconditionError: Attempting to use uninitialized val

tensorflow出现这样的错误是没有进行初始化。执行tensorflow的变量都必须进行先用 init=tf.global_variables_initializer() sess.run(init)这样的代码进行初始化。

2017-11-21 10:53:45 11350

原创 win10搭建cntk环境并使用fastRcnn实现目标检测

准备阶段,在这里我是基于anaconda进行安装的,所以首先去anaconda官网下载anaconda3,最好下载anaconda3,因为听说numpy库貌似不支持python2了,官网上有三个版本,windows,linux以及mac版,我们下载windows版即可,链接如下:https://www.anaconda.com/download/。接着下载cntk的工具包,在这里需要强调的是,我觉

2017-11-18 10:39:30 3028 3

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除