自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(129)
  • 收藏
  • 关注

原创 图网络算法—变量消元与团树传播(精确推理)

图网络算法—变量消元与团树传播(精确推理)1 概率图中的推理问题首先,给定的联合概率分布:p(x)=p(x1,x2,...,xn)=1Z∏cφ(Xc)p(x)=p(x_1,x_2,...,x_n)=\frac{1}{Z}∏_cφ(X_c)p(x)=p(x1​,x2​,...,xn​)=Z1​c∏​φ(Xc​)这里Z表示的是归一化因子,XcX_cXc​表示的是所有随机变量的一个子集,φ表示的是势函数。对于这一部分的理解,我在之前的博客中给出了叙述,感兴趣的读者可以参考我之前的文章。根据上述的联合概率

2020-11-13 16:13:01 2469

原创 图网络算法—马尔科夫随机场与因子图

图网络算法—马尔科夫随机场与因子图在之前的文章中,我们重点介绍了概率图的基本概念与基本定理,感兴趣的读者可以参考我前一篇文章图网络算法——概率图介绍与贝叶斯网络。其中贝叶斯网络是一种比较典型的有向概率图模型。在下面的文章中,我们将来介绍无向概率图的一个代表模型,即马尔科夫随机场。进一步,我们将来介绍因子图的相关概念与基本形式。1. 马尔科夫随机场(MRF)1.1 马尔科夫随机场引入首先,与贝叶斯网络这种有向概率图的一个重要区别是,马尔科夫随机场是一类无向的概率图模型。其基本的组成是G(V,E)G(V

2020-11-06 11:43:09 2118

原创 图网络算法——概率图介绍与贝叶斯网络

图网络算法——概率图综述1 概率论回顾在介绍概率图之前,我们先来回顾一下概率论中的相关的知识。样本空间(Ω): 样本空间描述的是一个随机试验中所有可能输出的集合。比如我们随机抛了一千次硬币,那么我们就可以获得一千次的结果,这一千个结果就构成了样本空间。样本空间中的每一个结果,我们称之为一个样本点。随机事件: 在样本空间中,某些样本点组成了一个随机事件,即随机事件是样本空间的一个子集。随机事件之间可能存在的关系:包含关系:即A⊂BA⊂BA⊂B,则事件A发生必然会导致事件B发生。相等关系:即A

2020-10-26 19:01:47 2854 1

原创 元学习—基于元学习的上下文快速适应(Fast Context Adaptation via Meta-Learning)

元学习—基于元学习的上下文快速适应(Fast Context Adaptation via Meta-Learning)1 介绍机器学习中的快速适应指的是使用少量的数据在之前未见的任务上进行快速的学习。原则上,可以利用之前的一些相关的任务所获取的一些知识来完成这个挑战。然而,如何选择一个最好的方式,目前仍然是一个没有被解决的问题。我们对于利用元学习来解决快速适应的问题十分的感兴趣,即通过少量的样本在未见的任务上进行学习。一个快速适应的方法是使用基于梯度的方法,在测试的时候,定义一个具体的与任务相关的损

2020-10-24 16:35:08 1588

原创 元学习—对抗式元学习(ADML)

元学习—对抗式元学习(ADML)在之前的文章中,我们介绍了MAML模型,有兴趣的读者可以参考元学习—模型不可知元学习(MAML)。在下面的文章中,我们将介绍MAML模型在对抗式学习中的应用,即MAML模型的一个变体ADML模型。1 FGSM方法在对抗式的学习中,需要同时使用到真实样本和对抗样本。对于对抗样本的生成,有很多种方法,我们下面来看其中的一种方法,即基于梯度的攻击算法(FGSM)。一般情况下,我们会计算模型参数的梯度值来更新模型参数,以求得使得模型的Loss最小,在FGSM中,为了获取对抗样

2020-10-23 15:47:31 3973 6

原创 元学习—MAML模型Pytorch实现

元学习—MAML模型Pytorch实现之前,我们介绍了MAML模型的基本原理和基本流程元学习—模型不可知元学习(MAML),这里简单的从零开始来实现一个MAML模型。这里我们通过随机生成数据来定义十个回归任务,其中每一个回归任务的训练样本数量和测试的样本数量均为10个。为了便于展示,这里采用的单层神经网络来实现每一个回归任务。具体可以参考下面的代码展示。1 代码展示#encoding=utf-8import torchimport torch.nn as nnimport torch.optim

2020-10-19 14:48:57 8821 6

原创 元学习—模型不可知元学习(MAML)

元学习—模型不可知元学习(MAML)在之前的文章中,我们介绍了神经图灵机和记忆增强网络(MANN),主要介绍了其对于内存中信息的读取与写入。有兴趣的读者可以参考我之前的博客元学习—神经图灵机。在今天的文章中,我们来介绍一种更加常见的元学习的学习方法,即模型不可知元学习。1. MAML原理1.1 MAML引入MAML是一种最近被提出的,最为主流的一种元学习的方法。其是元学习上的一个重大突破。在元学习中,众所周知,其目标是学会学习。在元学习中,我们从大量的相关学习任务中获取一小部分的样本点,然后通过元学

2020-10-16 17:06:22 5081 2

原创 元学习—高斯原型网络实现(Pytorch)

元学习—高斯原型网络实现(Pytorch)原理部分可以参考我之前的博客,元学习—高斯原型网络,本文在实现过程中,采用了基于半径的置信度计算,对于逆矩阵采用的softplus的计算方式。以评论文本分类作为基础任务,使用LSTM作为原型网络中的编码函数。下面给出具体的代码实现:1. 数据处理部分(utils.py)#encoding=utf-8'''以评论文本为例,进行计算。'''import torchimport torch.nn as nnimport numpy as npimpor

2020-10-09 15:09:52 2766 9

原创 元学习—半监督原型网络

元学习—半监督原型网络本文主要参考文献META-LEARNING FOR SEMI-SUPERVISED FEW-SHOT CLASSIFICATION,有兴趣的读者可以参考该文献。1 介绍大量的可用数据可以使得深度学习模型在很多人工智能任务上取得非常不错的效果。例如,语音识别,物体识别,和机器翻译等等。然而,当前的深度学习方法面临着数据缺少的问题。具体的,当前的多数方法都擅长处理拥有大量数据的单个任务。这些方法能够利用仅仅缺少一点标签的数据来处理大量的任务。另外一个方面,人类很容易去学习到一个新的类

2020-10-08 18:22:36 1933

原创 知识图谱—大规模网络编码(LINE模型)

知识图谱—大规模网络编码(LINE模型)本文主要是对于LINE:Large-scale Information Network Embedding的翻译,有兴趣的读者可以参考原始文献。1 背景介绍信息网络在现实世界中是无处不在的,例如航线网络,出版网络,社交网络等等。这些信息网络的规模从几百个节点到百万,千万个节点的规模。 分析大规模的信息网络在学术界和工业界受到了广泛的关注。本文章主要关注于信息网络在低维空间中的编码问题。网络中的每一个节点使用一个低维的向量进行表示。这样的低维编码在下游的应用中,例

2020-10-07 17:10:10 2803 1

原创 元学习—高斯原型网络

元学习—高斯原型网络本博客源于文献《Gassian Prototypical Networks for Few-Shot Learning on Omniglot》,只选择的有关模型描述的部分进行了翻译,有兴趣的读者可以进行参考全文。同时,该文章没有仔细的介绍原型网络的基本结构,有兴趣的读者可以参考我的另外一篇博客元学习——原型网络(Prototypical Networks)1 背景介绍1.1 高斯原型网络引入在本篇文献中,我们基于原型网络提出了一个新的结构,并且将其在Omngilot数据集上进行

2020-10-06 10:55:01 2807 2

原创 元学习——原型网络(Prototypical Networks)

元学习——原型网络(Prototypical Networks)1. 基本介绍1.1 本节引入在之前的的文章中,我们介绍了关于连体网络的相关概念,并且给出了使用Pytorch实现的基于连体网络的人脸识别网络的小样本的学习过程。在接下来的内容中,我们来继续介绍另外一种小样本学习的神经网络结构——原型网络。这种网络的特点是拥有能够不仅仅应用在当前数据集的泛化分类能力。在接下来的内容中,我们将介绍以下几个内容:原型网络的基本结构。原型网络算法描述。将原型网络应用于分类任务。高斯原型网络结构以及算法

2020-09-30 10:17:47 36119 34

原创 元学习——通过知识迁移的图小样本学习(Graph Few-shot Learning via Knowledge Transfer)

文献记录—通过知识迁移的图小样本学习1 摘要对于图的半监督学习已经提出了很多的研究方法。类似于GNN类方法,通过聚合节点周围节点的信息来更新节点的表示,已经取得了非常不错的效果。但是,大多数的GNN类方法,都是通过在一个限定的局部区域内,利用浅层的神经网络进行信息聚合。当有标签的节点数量很少的时候,这种方法的效果并不是太好。为了缓解这个问题,我们的一个创新点是提出了一个图的小样本学习方法GFL,包括了从辅助图中学习的先验知识来提高分类的效果。具体的,一个可迁移的度量空间可以通过一个节点的编码来表示,并且

2020-09-24 13:22:12 3058

原创 知识图谱—知识推理综述(三)

知识图谱—知识推理综述(三)接上一篇文章知识图谱—知识推理综述(二)3 基于表示的知识推理3.1 方法简述在之前所介绍的知识推理中,都显示的定义了知识推理所需要的规则,条件等等离散符号。而在基于表示的知识推理中,我们第一步是将知识图谱中的节点和关系进行连续向量空间的映射,需要将其物理表示映射为数值表示,然后在利用数学中的相关算法,通过数值计算的方式进行知识推理。对于映射的向量空间而言,其可以是一个或者多个的向量或者矩阵。基于表示的推理的核心在于“如何表示”,在表示学习的过程中,我们需要的是让算法自

2020-09-07 17:25:01 2492

原创 元学习—神经图灵机

元学习—神经图灵机1 神经图灵机神经图灵机(NTM)是一类能够从内存中存储和恢复信息的一个算法。神经图灵机的基本思路在额外的内存空间中增加神经网络,而不是通过增加隐藏单元 ,NTM使用一个额外的内存来存储和恢复信息。NTM的整体结构如下图所示:1.1 NTM的基本组成控制器: 这是一个基础的前馈神经网络或者递归神经网络,其主要负责从内存中读取信息或者想内存中写入信息。内存: 内存通常以内存矩阵或者内存池的形式进行展现。我们将在内存中存储信息。一般情况下,内存是通过两个维度的矩阵所构成,矩阵中的每

2020-09-07 10:22:45 1618

原创 知识图谱—知识推理综述(二)

知识图谱—知识推理综述(二)本文接上一篇博客知识图谱—知识推理综述(一)2 基于传统方法的推理2.2 基于图结构的推理2.2.1 引入在知识图谱中,如果是自下而上的进行构建,那么最终图谱将以一个有向图的形式进行呈现。图中的节点表示的是实体或者实体的属性值,有向图的边表示的是不同实体之间的关系,或者实体和其属性值之间的属性关系。有向图的结构可以很好的反应知识图谱的语义信息。当进行推理的时候,可以从图谱中的一个点进行出发,沿着有向边到达其他节点。从而形成一条推理路径。举一个例子来说: 小明——&gt

2020-09-05 15:39:46 4515 1

原创 知识图谱—知识推理综述(一)

知识图谱—知识推理综述(一)1 知识推理的概念以及分类1.1 知识推理的基本概念所谓的知识推理,就是在已有知识的基础之上,推断出未知的知识的过程。通过从已知的知识出发,通过已经获取的知识,从中获取到所蕴含的新的事实,或者从大量的已有的知识中进行归纳,从个体知识推广到一般性的知识。根据上面的概念的描述,我们可以知道,对于知识推理而言,其包括的内容可以分为两种,第一种是我们已经知道的,用于进行推理的已有知识,另外一种是我们运用现有的知识推导或者归纳出来的新的知识。对于知识而言,其形式是多种多样的,可以是

2020-09-04 18:47:18 21613 4

原创 元学习—关系网络pytorch实现

元学习—关系网络实现原理部分已经在元学习—关系网络和匹配网络中讲述,这里不再赘述,实验包括了one-shot学习,few-shot(few=5)学习的两种学习过程。原始样本通过随机产生,类别一个有两个,损失函数使用的是均方误差的方式。具体的代码如下:1 One-Shot学习#encoding=utf-8import torchimport torch.nn as nnimport torch.nn.functional as Fimport torch.optim as optimimpor

2020-09-03 20:27:10 2734 1

原创 元学习—关系网络和匹配网络

元学习—关系网络和匹配网络1 关系网络(Relation Network)1.1 关系网络的基本函数一个关系网络至少需要包含两个核心的函数,第一个核心的函数是编码函数f,该函数经支持集(Support Set)和查询数据(Query data)进行编码,用于后续的数据计算。其次,一个关系网络至少还需要包括一个关系函数g,而关系函数的作用则为根据查询数据和支持集中各个分类的相关性来决定查询点的最终分类。下面,我们以一个one-shot的图片分类学习过程为例,即support set中各个分类的样本数量

2020-09-03 13:24:16 4326 1

原创 文献阅读——Revisiting Semi-Supervised Learning with Graph Embeddings

文献阅读——Revisiting Semi-Supervised Learning with Graph Embeddings1 背景介绍半监督学习的目标是利用未标记的数据来提升模型的效果。大量的半监督学习算法共同优化两个训练时的目标函数。包括基于已标记数据的监督学习损失和基于已标记和未标记数据的半监督学习的损失。基于图的半监督学习的损失以一种对于监督学习的损失和图的拉普拉斯正则化项的加权求和的形式来定义。图的拉普拉斯正则化是基于相邻节点之间拥有相同标签的结构的假设来定义的。图的拉普拉斯正则化因为约束了

2020-07-04 22:21:26 1052

原创 Pandas—CSV文件读入和处理

Pandas—CSV文件读写我们经常需要处

2020-06-24 18:08:13 3370

原创 Gephi教程——外观和布局

Gephi教程——外观和布局在本部分的内容中,我们将来关注Gephi中的外观设置和布局设置。通过外观的设置,我们可以设置图形节点、边、标签的颜色和大小。通过布局的设置,按照某一种策略来对节点和边进行排布,使得图形的展示满足我们的需要。1 外观设置对于颜色和大小的编辑,一般存在两种方式来实现,第一种是统一型的编辑设置,这种方法对所有的数据进行统一的处理。另外一种是利用数值来编辑颜色和大小情况。1.1 基本工作区上图展示的是一个基本的工作区,在这个工作区中“节点”和“边”表示的是要操作的对象。同一行

2020-06-20 11:57:17 22289 2

原创 Gephi教程———数据输入

Gephi教程———数据输入在上一篇文章中,我们主要介绍了Gephi整个界面的布局以及Gephi中对于图形的一些基本操作和基本设置。在接下来的内容中,我们将重点如何利用数据在Gephi中生成可视化图。1 Gephi中的图形存储在这一小节,我们来关注Gephi对于图形数据的存储问题。首先,为了便于展示,先给出一个基本的图形:如上所示,我们给出了三个点的表示,这是一个简单的有向图。1.1 图形输出的基本格式当我们选择将图形输出,保存到文件的时候,文件的类型可以有很多的选择,首先,最基本的是输出成.

2020-06-19 17:44:22 16927

原创 Gephi教程——基本操作

Gephi教程——基本操作1 整体预览1.1 概览、数据资料与预览在Gephi的整个主界面,可以看到三个大的按钮,分别为概览,数据资料和预览。如下图所示:其中单击概览之后,会切换到图形的可视化的编辑页面。单击数据资料,可以切换到对于构建当前图的原始数据的页面,在可视化的过程中,很多情况下需要对于原始构建该图的数据进行操作。比如,删除,替换等操作。原始数据在数据资料中是以表格的方式进行呈现,用户可以直接对表格中的数据进行操作。为了便于展示,我随机生成了一个随机图,如下图所示:对于上图,我们可

2020-06-19 15:03:45 39922 5

原创 文献阅读——Revisiting Semi-Supervised Learning with Graph Embeddings

文献阅读——Revisiting Semi-Supervised Learning with Graph Embeddings1 Introduction半监督学习的目标是利用未标记的数据来改善模型的效果。大量半监督的学习算法共同优化利用已标记数据的监督学习损失和利用已标记数据和未标记数据的半监督学习的两个训练的目标函数。基于图的半监督学习定义了一个对于已标记数据和一个图的拉普拉斯正则化项的损失函数。其中图的拉普拉斯正则化项是一个基于周围节点假设:其假设图中相邻的节点之间拥有相同的标签结构。因为其通过图

2020-06-17 17:16:51 1585

原创 Pytorch—模型参数与自定义网络层

Pytorch—模型参数定义与访问

2020-06-16 00:11:50 3801

原创 Pytorch—NiN和GoogleNet神经网络

Pytorch—NiN和GoogleNet神经网络1 NiN神经网络在前面介绍的LeNet,AlexNet,VGG神经网络中,其共同点在于使用卷积层和池化层提取输入特征。在将矩阵展开成一个向量的形式,再利用线性层进行输出分类结果。在下面的内容中,我们描述另外的一种思路。1.1 基本介绍在我们之前的实现的LeNet,VGG中,原始输入的形式一般为(Batch_size,channel,high,width)这样的四个维度。通过卷积层之后,我们将卷积获得的结果进行展开操作,再输入到线性层中进行下一步的操

2020-06-15 19:51:03 261

原创 Pytorch—VGG网络

Pytorch—VGG网络和GoogleNet网络在之前的文章中,我们实现了LeNet网络结构和AlexNet结构,其中ALexNet对于LeNet做出了一些修改。在下面的文章中,我们来介绍一下其他两种卷积网络的思路和实现。1 VGG网络1.1 结构回顾实际上,VGG网络也是多个卷积层的堆叠的过程。其中VGG累积过程为:连续使用个数相同的,padding=1,Kernel-size=33的卷积之后,在堆叠一个stride=2,Kernel-size=22的Max-pooling层。,通过卷积层之后,

2020-06-13 11:46:33 722

原创 NLP—RNTN文献翻译

NLP—RNTN文献翻译1 摘要以及介绍1.1 摘要语义空间是非常有用的,但是对于长句子是不能使用一个规则的方式来表示句子的语义信息。对于任务中需要理解组成的部分(例情绪检测),需要更加丰富的监督训练和评估信息(更多的文本特征)以及更加有效的模型结构。为了解决这个问题,作者在这篇文章中提出了情绪树库的结构。一共包含了11855个句子语法分析树中215154个短语的细粒度情感标签。为了阐述他们,这里使用递归张量网络。当在一个新的情绪树库上训练完成的时候,该模型的很多指标都优于之前的模型。它是单个句子正负

2020-06-12 13:05:09 1062

原创 Pytorch——LeNet和AlexNet实现

Pytorch——LeNet和AlexNet实现1 LeNet模型1.1 基本结构LeNet分为卷积层和全连接层两个部分。卷积层块里的基本单位是卷积层后接最大池化层,卷积层用来识别图像里的空间模式。之后使用最大池化层则用于降低卷积层对于位置的敏感性。整个的卷积部分由这两个基本的单位重复堆叠构成。卷积层的输出形状为(Batch,通道数量,高,宽)。当卷积层快的输出传入到全连接层快的时候,全连接层快会将Batch中的每一个样本进行展开(flatten),也就是说,全连接层的输入是一个二维矩阵,第一个维

2020-06-10 15:47:18 341

原创 Pytorch——卷积网络基础

Pytorch——卷积网络基础1. 二维卷积层在CNN模型,最常见的是二维的卷积层,我们也从这个方面开始介绍。1.1 知识回顾在二维的卷积层中,一个二维输入数组和一个二维核数组通过互相关运算输出一个二维数组。举一个具体的例子来说:这里定义原始的二维矩阵为33的矩阵,定义卷积核为22,通过卷积核在原始矩阵上的滑动来进行互运算,以蓝色的部分为例:0∗0+1∗1+3∗2+4∗3=190*0+1*1+3*2+4*3=190∗0+1∗1+3∗2+4∗3=19在二维的互运算中,卷积核从原始的输入矩阵从左

2020-06-10 12:34:49 829

原创 Pytorch—模型构造(Module)

Pytorch—模型构造(Module)1. 模型构造(Module类)1.1. Module简介在这个系列之前的文章中,在自定义模型的时候,始终都都需要继承nn.Module类。这里我们对于这个类进行一下解释。众所周知,Pytorch是基于动态图的模型搭建方式,我们可以随机的在网络中添加或者删除网络层。在搭建我们自己的网络结构的时候,我们需要基础nn.Module类作为父类。然后在我们自定义类的内部添加不同的网络层。其中nn.Module类是nn模块中提供的一个模型构造类,是所有神经网络模块的基础

2020-06-09 19:07:04 1202

原创 Pytorch—softmax回归

Pytorch—softmax回归1 知识回顾softmax回归和一般的线性回归类似,将输入特征和权重做线性叠加。与线性回归的一个主要的不同的是,softmax回归的输出值个数等于标签里的类别数数量。这里我们以4个特征和3个分类为例。所有的权重参数的数量为12,偏差的数量为3,对于每一个输入计算o1,o2,o3o_1,o_2,o_3o1​,o2​,o3​这三个输出:o1=x1w11+x2w21+x3w31+x4w41+b1o2=x1w12+x2w22+x3w32+x4w42+b2o1=x1w13+x2

2020-06-09 16:04:57 456

原创 Pytorch—线性模型实现

Pytorch—线性模型实现本文将通过设置变量的自动求导方式来手动编写一个线性模型和利用Pytorch自定义的线性层来实现一个线性模型。1. 手动编写#encoding=utf-8import torchfrom IPython import displayfrom matplotlib import pyplot as pltimport numpy as npimport random# 生成数据集input_dim = 2exmples_num = 1000true_w =

2020-06-09 09:45:25 1016

原创 元学习——连体网络(Siamese Network)概念与结构

元学习——连体网络(Siamese Network)1 概念和结构1.1 引入在介绍连体网络之前,我们首先来介绍单样本学习:**单样本学习:**所谓的单样本学习是我们对于每一个分类使用一个样本进行学习。这种单样本学习的方式在我们实际上经常出现,举一个例子来说,假设我们需要构建一个人脸识别的系统中,我们的目标是识别500个人的人脸。但是我们手里面的数据只有500份,也就是每一个人拥有一张图片作为训练数据。在这个时候,如果我们想要使用CNN神经网络进行识别,我们需要很多的训练图片才能够对这500个人的

2020-06-06 18:04:02 3553

原创 最优化问题——无约束优化方法(一)

最优化问题——无约束优化方法在只前的文章中,我们关注的是非线性规划问题,以及对应步长因子的搜索方法。在非线性规划问题中,其基本形式包括目标函数和约束条件两个部分,并且约束条件确定了可行域等等重要的部分。但是今天,我们开始关注与不存在约束的优化问题。1 无约束优化问题的引入1.1 无约束优化意义实际的优化问题一般都有很多的约束,那么为什么还需要研究无约束的最优化方法呢?首先,我们从一个例子开始,相信大家在看到我的这篇文章之前,对于机器学习中的SVM算法已经有了一定的了解,对于SVM的求解,同样也是包含

2020-06-02 16:01:37 11940

原创 元学习——Meta Relational Learning for Few-Shot Link Prediction in Knowledge Graphs(文献解读)

元学习——Meta Relational Learning for Few-Shot Link Prediction in Knowledge Graphs(文献解读)1. Introduction常规的知识图谱是由一系列的三元组所组成,三元组的基本形式为:头实体,关系,尾实体头实体,关系,尾实体头实体,关系,尾实体尽管在知识图谱中包含了大量的实体、关系和三元组,但是很多的知识图谱仍然是不完整的。因此,知识图谱的完整性是知识图谱发展的一个重要的环节。一类的知识图谱补全的任务是知识图谱的连接预测。其目

2020-06-01 21:39:33 3247 6

原创 最优化问题——一维搜索(二)

最优化问题——一维搜索(二)在前面的的文章最优化问题——一维搜索(一)中,我们主要介绍了一维搜索中精确搜索的缩小区间法,具体的算法包括黄金分割法,斐波那契法,中点法,以及确定初始区间的进退法。在本篇文章中,我们主要介绍一维搜索的牛顿法和插值法以及非精确的一维搜索。1. 牛顿法1.1 牛顿的基本思路与之前介绍的缩小区间法的思路不同,牛顿法使用的是函数逼近的基本原理,看过之前的非线性规划文章的读者可知,通过泰勒展开式,我们可以将函数变成一阶逼近和二阶逼近的形式。而在一维搜索中,利用插值函数来逼近所需要

2020-05-29 10:04:00 3442

原创 最优化问题——一维搜索(一)

最优化问题——一维搜索1. 一维搜索的引入1.1 从非线性规划问题到一维搜索在前面的文章中,我们提到了基于迭代的非线性规划问题的求解思路。在求解过程中,我们提到了在每一步的迭代中都需要对计算步长因子,其计算公式为:λk=minλf(xk+λp)λ_k=min_{λ}f(x_k+λp)λk​=minλ​f(xk​+λp)我们将f(xk+λp)f(x_k+λp)f(xk​+λp)视为λ的一元函数,我们的目标就是求这个一元函数的极小值。对于这个问题,我通常的求解方式为一维搜索。1.2 一维搜索的基本形

2020-05-28 15:15:01 4619

原创 最优化问题—非线性规划(二)

最优化问题—非线性规划(二)在之前的文章最优化问题—非线性规划(一)里面,我们主要关注了对于非线性规划的一般形式和最优条件,在最后我们介绍了关于凸规划的相关定义和其最优条件。下面,我们要介绍的是关于对于非线性规划问题的一般的求解思路。1. 非线性规划的求解思路1.1 迭代法以及其基本思想对于非线性规划问题的求解,一般情况下,我们都是采用迭代法进行求解,这种方法的思路很简单,首先给定一个初始的点x0∈Rnx_0∈R^nx0​∈Rn,按照某种迭代法则产生一个点xkx_kxk​,使得当{xk}\{x_k\

2020-05-26 15:25:40 6233

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除