自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(141)
  • 收藏
  • 关注

原创 概率论与数理统计(二)

本文主要讲一下如何对随机事件求概率这个问题,这个问题听起来是很简单的,但实际上这里面还是有一点点东西的。文章目录三大结构离散的样本空间连续的样本空间总结三大结构当我们讨论某一随机事件的概率时,我们一般是在一个框架下讨论的,这个框架包含三个结构:样本空间(sample space),事件(event)和几率测度(probability measure)。sample space:记作Ω\OmegaΩ,样本空间,即某一随机现象发生的所有可能取值集合。event:sample space的任一子集叫做

2020-07-16 20:35:57 1699

原创 概率论与数理统计(三)

接下来讨论的对象就是随机变量了,而不是事件。随机变量可以由事件映射得到,本文就不详细讲这个了,有时间再补充。现在讲一下随机变量的基本类型与随机标量的独立性。离散型随机变量当我们的sample space Ω\OmegaΩ的outcome都是discrete的时候,从事件的sample space映射到随机变量的sample space的outcome也是discrete的,这样的话我们称该随机变量是离散的。如掷骰子只有6种可能的结果;某路口一个月车祸的数量可以取0,1,2,…对于离散型随机变量,我们通

2020-07-15 23:20:12 662

原创 概率论与数理统计(一)

本文主要讲了什么是事件,事件与概率的关系,事件常见的分类,事件的基本关系及运算,什么是条件概率以及由条件概率引出的事件独立性,由事件独立性引出来的概率0乘法定理,概率的三条公理。文章目录事件与概率概率的三条公理事件的关系与运算条件概率与事件的独立性事件与概率当我们讲概率呢,我们得首先明确概率的对象,即什么东西拥有概率,纵观各种概率论教科书,第一章都是先从事件讲起,比如“明天下雨”这一事件发生的概率是多少呀?即概率描述的对象一般都是事件。在概率论中,什么是事件呢?事件就是对某种情况的描述,比如我可以这

2020-07-15 21:48:58 673

转载 高斯判别分析(GDA)和朴素贝叶斯(NB)

生成模型和判别模型监督学习一般学习的是一个决策函数y=f(x)y=f(x)y=f(x)或者是条件概率分布p(y∣x)p(y|x)p(y∣x)。判别模型直接用数据学习这个函数或分布,例如Linear Regression和Logistic Regression。生成模型是先用数据学习联合概率分布p(x,y)p(x,y)p(x,y),然后使用贝叶斯公式求p(y∣x)p(y|x)p(y∣x)p(...

2020-03-16 17:47:53 630

转载 详解最大似然估计(MLE)、最大后验概率估计(MAP),以及贝叶斯公式的理解

最大似然估计(Maximum likelihood estimation, 简称MLE)和最大后验概率估计(Maximum a posteriori estimation, 简称MAP)是很常用的两种参数估计方法,如果不理解这两种方法的思路,很容易弄混它们。下文将详细说明MLE和MAP的思路与区别。但别急,我们先从概率和统计的区别讲起。概率和统计是一个东西吗?概率(probabilty)和...

2020-03-05 12:46:57 862

原创 python进阶(小白也能看懂)——装饰器浅谈(一)

python进阶(小白也能看懂)——装饰器(一)第四篇文章目录python进阶(小白也能看懂)——装饰器(一)1.函数基础知识例子1.1例子1.2例子1.3例子1.42.不带参数的装饰器3.带参数的装饰器参考1.函数基础知识谈装饰器前,先了解一下函数的基础知识python中一切都是对象,函数也是对象,可以将一个函数赋值给另一个变量函数可以嵌套,即在一个函数内部定义另一个函数函数...

2020-02-20 18:49:22 279

原创 python进阶(小白也能看懂)——Map、Filter、Reduce

python进阶(小白也能看懂)——Map、Filter、Reduce第三篇Map、Filter、Reduce是python中常用的函数,使用这些函数能够给我们带来很多便捷。Mapmap(function_to_apply, list_of_inputs)第一个参数是工具函数(工具函数是我自己起的名,因为这个函数就像一个工具一样,用来处理我们的数据),第二个参数是列表,map的作...

2020-02-19 23:16:38 277

原创 python进阶(小白也能看懂)——生成器与迭代器

python进阶(小白也能看懂)——生成器与迭代器第二篇文章目录python进阶(小白也能看懂)——生成器与迭代器1 例子1.1 生成器1.2 迭代器2 什么是生成器与迭代器2.1 迭代器与可迭代对象的区别2.2 为什么使用迭代器2.3 生成器——一种特殊的迭代器3 参考1 例子先给出生成器与迭代器的例子,然后详细讲解需要理解的知识。1.1 生成器# 生成器a = (i+1 fo...

2020-02-18 23:27:22 371

原创 python进阶(小白也能看懂)——*args与**kwargs的使用

python进阶(小白也能看懂)——*args与**kwargs的使用== 本文是在***的基础上写的==

2020-02-17 21:01:02 399

原创 pytorch中的CrossEntropyLoss

这里主要探讨torch.nn.CrossEntropyLoss函数的用法。使用方法如下:# 首先定义该类loss = torch.nn.CrossEntropyLoss()#然后传参进去loss(target, label)第一个参数的维度为m1 * m2,第二个参数维度为m1。我们在做多分类问题的时候,target应该为我们网络生成的值,而label则是非one-hot类型的值。...

2019-03-30 21:31:43 6182 1

原创 nn.BCELoss与nn.CrossEntropyLoss的区别

以前我浏览博客的时候记得别人说过,BCELoss与CrossEntropyLoss都是用于分类问题。可以知道,BCELoss是Binary CrossEntropyLoss的缩写,BCELoss CrossEntropyLoss的一个特例,只用于二分类问题,而CrossEntropyLoss可以用于二分类,也可以用于多分类。不过我重新查阅了一下资料,发现同样是处理二分类问题,BCELoss与Cr...

2019-03-28 18:12:57 28702 7

原创 ubuntu设置jupyter

生成配置文件:jupyter-notebook --generate-config设置默认路径:(建议使用绝对路径,~在配置中代表默认工作区,如果不是第一次设置容易出错)c.NotebookApp.notebook_dir = ‘/home/dnt/桌面/work’Ubuntu18.04下给Jupyter-NoteBook设置默认工作路径...

2019-03-27 16:28:25 389

原创 转置卷积/反卷积

pytorch中反卷积的函数为:class torch.nn.ConvTranspose2d(in_channels, out_channels, kernel_size, stride=1, padding=0, output_padding=0, groups=1, bias=True, dilation=1)参数的含义如下:...

2019-03-27 16:04:31 284

原创 torchvision.transforms包的使用

torchvision.transforms是专门用来对数据进行相关的处理。我们可完成的操作如下:归一化PIL.Image / numpy.ndarray 与Tensor的相互转化对PIL.Image进行裁剪、缩放等操作通常,在使用torchvision.transforms,我们通常使用transforms.Compose将transforms组合在一起。PIL.Image/num...

2019-03-27 14:40:48 4773

原创 pytorch的梯度计算以及backward方法

tensors:tensor在pytorch里面是一个n维数组。我们可以通过指定参数reuqires_grad=True来建立一个反向传播图,从而能够计算梯度。在pytorch中一般叫做dynamic computation graph(DCG)——即动态计算图。import torchimport numpy as np# 方式一x = torch.randn(2,2, requir...

2019-03-21 22:27:00 44806 3

原创 np的矩阵乘法

np.dot()方法 —— 矩阵乘法Usage:np.dot( matrixA, matrixB ) or matrix.dot(matrixB)example:import numpy as np# define two matrixs hereone = np.array([[1,2,3]])two = np.array([[4],[5],[6]])# let's...

2019-03-21 20:55:52 7140

原创 numpy.random.normal

函数原型:np.random.normal(loc,scale,size),该函数用于生成高斯随机分布是随机数,其中loc表示均值,scale表示方差,size表示输出的sizeexampleimport numpy as npprint(np.random.normal(size=(2,2), scale=1, loc=0))输出结果[[-0.22615645 0.0839...

2019-03-21 20:39:17 4721 2

原创 python中的__init__()和__call__()函数

前言在Python的class中有一些函数往往具有特殊的意义。init()和__call__()就是class很有用的两类特殊的函数。__init__()在Python中,init()函数的意义等同于类的构造器(同理,del()等同于类的析构函数)。因此,init()方法的作用是创建一个类的实例。__call__()为了将一个类实例当做函数调用,我们需要在类中实现__call__()方法...

2019-03-20 14:02:12 393

转载 pytorch 常用的 loss function

1 nn.L1Lossloss(Xi,yi)=∣Xi−yi∣ loss(X_{i}, y_{i}) = |X_{i}-y_{i}|loss(Xi​,yi​)=∣Xi​−yi​∣这里我们亲自做一下实验看看具体效果# torch.nn.L1Lossimport torchl1_loss_fn = torch.nn.L1Loss(reduce=False, size_average=Fal...

2019-03-19 11:20:51 9932 1

转载 交叉熵

信息论交叉熵是信息论中的一个概念,要想了解交叉熵的本质,需要先从最基本的概念讲起。1 信息量每件事情都有一定的发生概率,不同概率的事情发生带来的信息量是不同的。举例来说:事件A:巴西队进入了2018世界杯决赛圈。事件B:中国队进入了2018世界杯决赛圈。可以知道,B事件发生的信息量是比A事件发生的信息量要大的,因为A事件的概率明显比B事件的概率大。那么我们如何来衡量不同事件发生带来的信...

2019-03-18 16:47:35 163

原创 ubuntu18.04 更改apt源

前言:为什么要更改源1.什么是软件源?源,在Ubuntu下,它相当于软件库,需要什么软件,只要记得正确的软件名就可以用命令安装:sudo apt-get install 软件名如果源里面没有这个软件,则无法安装该软件。2.通过源安装软件的原理其实通过软件源安装软件的原理非常简单,Ubuntu 系统中自带了一个名为 apt的软件包管理工具,它的主要功能就是负责 Ubuntu 系统中所有软...

2019-03-14 23:21:02 7656

原创 TCP释放连接后实现端口的立即复用

python立即释放端口背景在使用python进行socket编程时,如果某一个端口被绑定并进行TCP连接后,调用socket.close()方法并不会立即释放该端口。根据TCP终止连接的规则,还需要经过一个TIME_WAIT的等待时间才会彻底释放端口。为了在连接断开后立即实现端口的复用,可以实现setsockopt()函数来实现。下面看代码import sockettcp1 = s...

2019-03-14 22:48:37 5320

转载 向量范数与矩阵范数的理解

参考:https://blog.csdn.net/jack_20/article/details/72896459https://blog.csdn.net/lqy201117/article/details/51757513

2018-10-08 11:10:41 1422

转载 范数和机器学习中的范数

什么是范数?我们知道距离的定义是一个宽泛的概念,只要满足非负、自反、三角不等式就可以称之为距离。范数是一种强化了的距离概念,它在定义上比距离多了一条数乘的运算法则。有时候为了便于理解,我们可以把范数当作距离来理解。在数学上,范数包括向量范数和矩阵范数,向量范数表征向量空间中向量的大小,矩阵范数表征矩阵引起变化的大小。一种非严密的解释就是,对应向量范数,向量空间中的向量都是有大小的,这个大小如何...

2018-10-08 10:55:19 2278 1

转载 理解图像中卷积操作的含义

原文地址:https://blog.csdn.net/chaipp0607/article/details/72236892?locationNum=9&fps=1上文用生动的例子来解释卷积记载了卷积的含义,现在就来看看卷积在图像处理中的应用吧。(ps:本文大部分内容系转载大神的博客,现在csdn强制图片水印,实在感到很无奈!!!)数字图像处理中卷积数字图像是一个二维的离散信号,对...

2018-10-07 11:47:59 17520 1

转载 用生动的例子来解释卷积

前言学了几周的深度学习,前几天感觉基础不太牢固,于是今天便从卷积神经网络开始复习,把脑子中不太清楚的概念全部弄清楚。先在这里说清楚,本文大部分例子都是参考其他的博客,其他的都是我自己的理解。1. 从卷毛巾开始理解卷积首先看看卷积的定义:这两个定义都有一个共同的特征:让n不断变化,得到下面动图里面的直线:如果遍历这些直线,就好比,把毛巾沿着角卷起来并积分(也相当于求和):2....

2018-10-06 22:04:29 5811 1

转载 【C++】 vector.erase()

函数原型erase的函数原型有两种形式:iterator erase(iterator position);iterator erase(iterator first, iterator last);第一个表示删除某一固定位置的元素第二个可以删除从某个位置至另外一个 位置之间的元素问题:如何删除vector中多个值为val1的元素三种方法:代码一:for(vector&l...

2018-10-04 15:28:28 33452

转载 nlp语义理解

给你一篇文章或者一个句子,人们在理解这些句子时,头脑中会进行上下文的搜索和知识联想。通常情况下,人在理解语义时头脑中会搜寻与之相关的知识。知识图谱的创始人人为,构成这个世界的是实体,而不是字符串,这从根本上改变了过去搜索的体系。语义理解其实是基于知识,概念和这些概念间的关系。人们在解答问题时,往往会讲述与这个问题相关的知识,这是语义理解的过程。这种机制完全不同于人对图像或者语音的认识。CNN在图像...

2018-10-02 22:19:27 3453

原创 常见函数说明

numpy.random.shuffle用途:打乱序列的顺序用法:numpy.random.shuffle([list,iterable]),返回值为None,直接更改列表的顺序样例:np.random.shuffle(参数)->np.random.shuffle([1,2,3])注意:如果参数是二维的数据,则只在第一维度上更改顺序 tensorflow.transpose用...

2018-09-24 11:52:15 2504

转载 向量空间模型(Vector Space Model)的理解

https://www.cnblogs.com/hapjin/p/8687527.html

2018-09-23 13:22:28 1751

原创 tensorflow在训练的时候权重是nan,如何解决

https://blog.csdn.net/zbzb1000/article/details/65626297

2018-09-22 22:06:27 1569

转载 使用numpy生成one_hot

https://blog.csdn.net/zhongranxu/article/details/79332154

2018-09-22 22:05:54 2833

原创 中心化(又叫零均值化)和标准化(又叫归一化)

https://blog.csdn.net/GoodShot/article/details/80373372

2018-09-22 22:04:44 3989

转载 利用卷积神经网络提取特征

https://blog.csdn.net/jnulzl/article/details/51440055https://blog.csdn.net/lcy7289786/article/details/68958662

2018-09-20 22:10:45 23041

转载 L2正则化方法

在机器学习中,无论是分类还是回归,都可能存在由于特征过多而导致的过拟合问题。当然解决的办法有(1)减少特征,留取最重要的特征。(2)惩罚不重要的特征的权重。但是通常情况下,我们不知道应该惩罚哪些特征的权重取值。通过正则化方法可以防止过拟合,提高泛化能力。先来看看L2正则化方法。对于之前梯度下降讲到的损失函数来说,在代价函数后面加上一个正则化项,得到https://www.cnblogs....

2018-09-20 22:06:21 18052

转载 为什么L1稀疏,L2平滑?

L1和L2正则常被用来解决过拟合问题。而L1正则也常被用来进行特征选择,主要原因在于L1正则化会使得较多的参数为0,从而产生稀疏解,将0对应的特征遗弃,进而用来选择特征。  但为什么L1正则会产生稀疏解呢?这里利用公式进行解释。假设只有一个参数为w,损失函数为L(w),分别加上L1正则项和L2正则项后有:假设L(w)在0处的倒数为d0,即则可以推导使用L1正则和L2正则时的导数。引入...

2018-09-20 21:53:31 9182

转载 anaconda

Anaconda与conda区别conda可以理解为一个工具,也是一个可执行命令,其核心功能是包管理与环境管理。包管理与pip的使用类似,环境管理则允许用户方便地安装不同版本的python并可以快速切换。 conda的设计理念——conda将几乎所有的工具、第三方包都当做package对待,甚至包括python和conda自身 Anaconda则是一个打包的集合,里面预装好了conda、某个版本...

2018-09-18 20:48:13 231

原创 shape的各种获取、更改以及设置方式辨析

各种shape获取和shape设置以及更改1. shape获取tensor.get_shape:只有tensor才有这个方法,(相对于op来说的),用于返回该 tensor的维度,返回的是一个数组。不需要在session里面使用。x.get_shape()tensor.shape:用法同tensor.get_shape()类似。如...

2018-09-18 20:35:15 1324

原创 tf里面InteractivateSession()与Session()的区别

sd

2018-09-18 20:01:13 1020 3

原创 使用tensorflow书写逻辑回归

书写中存在的问题 mnist读取训练集 mnist.train.images mnist.train.labels读取训练集的长度 mnist.train.num_examples 函数tf.placeholder() 必须指定数据类型,shape可以不指定,这样就可以使用多种shape了 tf.Variable() 必须给定初始值tf.reduce_m...

2018-09-15 22:04:38 218

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除