自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(41)
  • 资源 (1)
  • 收藏
  • 关注

翻译 论文笔记——Influence Maximization in Undirected Networks

这也是这篇paper的主要贡献,接下来是定理3.1的证明,也就是文章中具有technical的部分。首先构建lemma 3.1和lemma 3.2,这两个lemma想做的事情是说,当OPT不是特定的"balance"形式的时候,定理3.1是成立的。好久没发paper笔记了,这篇比较偏理论,可能边看边记比较高效一些,仅作为个人笔记,如有解读不到的还请包涵。为了正式的说明这一点,我们必须为连通分量的大小和连接性事件之间的相关性建立界限;到目前为止,我们集齐了所有的武器,接下来可以证明theorem 3.1了。

2023-07-29 23:24:15 1682 3

原创 关于SIR模型性质的进一步摘录

又是成为SIR搬运工的一天。以下内容来自陈卫老师在《大数据网络传播模型和算法》。纯纯自我记录,不够美观不够细致,不喜欢看出门左拐。

2022-09-27 21:31:55 1064 1

翻译 论文笔记——Influence maximization with limit cost in social network

这篇paper应该是我们需要的那一款。文章主要贡献如下:1)提出了在图上的SEIR model;2)提出了给定预算的社交网络IM(information maximization with limit cost,下面称为IMLC)的定义,并证明了该问题可以归约到weighted set cover,为NP-Complete;3)提出了四个贪心算法来解决IMLC;4)提出了一个heuristic算法;5)展开两部分实验分别测试model以及算法。

2022-09-20 14:45:55 445

翻译 论文笔记——随机异构链接大图上的SIR传播过程

继上一篇研究给定度序列的随即网络上的SIR阈值后(仅限该paper的第二章,后续可能会继续看看该paper的其他章节),今天的paper是研究SIR在异构链接网络()上的传播速率,主要贡献如下:将SIR在异构链接网络上的传播用三个度分布(degree distribution)衡量:与S类节点度相关的公式,以及从I类或R类人群指向S类人群的边的集合。

2022-09-15 17:13:23 210

翻译 论文笔记——SIR在给定度数的随机图上的大数定律

paper还在arxiv上,主要贡献如下:在初始种子节点个数随机的情况下,证明了SIR模型中存在一个阈值,该阈值可能与顶点的度以及传染率、恢复率有关,当超过了该阈值,SIR模型在给定度的随机图上会以一定的概率进行大规模传播,且已感染节点的占比会随时间收敛于确定性函数。这里我们重点研究模型的由来。

2022-09-13 21:19:47 152

原创 SI,SIS,SIR,SEIRD模型

因为个人工作需要系统地整理SI,SIR以及SEIR模型,故对三个模型进行原理介绍以及对比。文中关于SI,SIS,SIR的所有的截图都来自西工大肖华勇老师在慕课上的分享,原视频戳SEIRD模型则来自发表在SCI上的paper,想看原文戳。...

2022-08-26 16:53:55 7256

翻译 论文笔记——Influence Maximization on Undirected Graphs: Toward closing the (1 − 1/e) Gap

Influence Maximization(IM)领域的算法主要分为两类,像是之前看到的VoteRank,K-shell等影响力最大化算法都是启发式算法(Heuristic algorithm),从网络结构出发设计算法选取种子节点。作为IM领域的另一个分支,近似算法(Approximate Algorithm)是从理论计算机(TCS)角度出发解决IM问题,最经典的就是贪心算法(Greedy Algorithm),被证明达到了1−(1/e)1-(1/e)1−(1/e)的近似。这类算法和启发式算法最大的区别就

2022-08-20 20:32:38 480

原创 textstudio编辑器缩放

textstudio编辑器放大毕业狗最难熬的毕业季终于来了!保护眼睛,从我做起!编辑器放大一直没搜到,自己在这里记录一下,下次毕业翻出来看看(狗头)注意,是编辑器放大,不是文章中字体的放大!!!方法:查看-编辑器缩放-放大,或者直接快捷键ctr++,或直接ctr+鼠标滚轮为了解释清楚,放上效果图,注意,只是编辑器放大!放大前放大后...

2022-03-11 18:55:33 1079

翻译 论文笔记(影响力最大化)——NCVoteRank:a coreness based VoteRank algorithm

Identifying influential nodes in Social Networks: Neighborhood Coreness based voting approach这是发表在pyhsica A上的一篇论文,作者都是来自Indian Institute of Technology Delhi的Sanjay Kumar和B.S. Panda。文章思路很简单,是基于VoteRank的改进算法,取名NCVoteRank。文章链接我放在右上角“版权”里面,想深入拜读的小伙伴自行下载哈~1

2021-12-13 12:02:06 944 1

原创 搬运工具——python实现prim算法

具体来自于 这里,我只是改了一下变量名,加了些注释,仅作个人笔记。下面展示一些 内联代码片。#!/usr/bin/env python# -*- coding: utf-8 -*-# @Time : 2021/10/19 16:32# @Author : Pineapple Liu''''input: adjacency matrixoutput: MST and sum of priceMST = [A[0]]lowcost = [-1] # 用来标记是否在MST中(-1)以及与当前M

2021-10-19 20:51:34 478

原创 小工具——Numpy实现将矩阵沿对角线扩展、合并

首先,我的需求是这样,这是一个邻接矩阵a,长这样(44):邻接矩阵b,长这样(33):我要把它们斜着拼接起来,并把空缺的地方补上零,也就是这样:话不多说,上代码:def adjConcat(a, b): ''' 将a,b两个矩阵沿对角线方向斜着合并,空余处补零[a,0.0,b] 得到a和b的维度,先将a和b*a的零矩阵按行(竖着)合并得到c,再将a*b的零矩阵和b按行合并得到d 将c和d横向合并 ''' lena = len(a) lenb

2021-09-23 16:54:53 1852 2

原创 用投票机制寻找影响力节点:VoteRank plus Method

Identifying influential nodes in social networks: a voting approach发表在chaos, solutions and Fractals上的一篇文章。该文章基于启发式方法VoteRank进行了改进,在解决影响力最大化问题上提出不仅要尽可能少的寻找种子节点,而且要尽可能广泛的在网络中寻找种子节点。这样一来,就会避免信息在网络局部的流动,大大增强了节点的传播能力。图中所示即为VoteRank++VoteRank^{++}VoteRank++的主

2021-07-27 17:02:15 1326 13

翻译 论文笔记——DISCO:网络嵌入和深度学习联合解决影响力最大化(IM)问题

DISCO: Influence Maximization Meets Network Embedding and Deep Learning来自西电的一篇待发表的文章。之前的基于神经网络的工作都是用STR模型获取节点的标签,该文章认为这一行为是不够准确的。作为一个NP-hard问题,系欸但那的影响力标签是难以获取的。该文章思路很清晰,将IM问题转化为一个用神经网络求解参数的一个问题QQQ。通过embedding获取节点特征,之后Q将特征结合输入神经网络进行节点影响力最大化问题的求解。1、基于学习的IM

2021-07-12 15:35:29 884

翻译 论文笔记——RINF:一种重排序的影响力最大化算法

A Re-Ranking Algorithm for Identifying Influential Nodes in Complex Networks本文基于节点排序方法,提出了一种新的信息传播函数重新排序算法,以识别复杂网络中一组有影响的节点。对于该算法的每一步,选择得分最高的节点,然后利用信息传播概率函数INF根据所选节点的局部路径更新节点分数。利用可感知感染恢复(SIR)模型评估了该算法的有效性。1 背景知识SIR model之前论文笔记中讲过,这里不做过多介绍。重排序算法若节点以概率

2021-07-05 12:15:00 872

翻译 论文笔记——HDD算法:异构网络中信息扩散的深度学习方法

HDD算法发表在knowledge-Based Systems上的一篇文章。该作者关注异构网络,并通过考虑不同的元路径为输入添加权重,提出了一种新的元路径表示学习方法HDD(Heterogeneous Deep Diffusion),该方法将元路径作为网络中的主要实体。算法的总体框架:1 背景知识1.1 元路径以及topic diffusion的目标给出图 TG=A,GT_{G}={A, G}TG​=A,G,元路径PPP定义如下。A和R代表了节点和边的类型,元路径一般表示为A1R1A2R2.

2021-05-24 17:35:56 639 1

原创 日常工具搬运——python逐行写入txt文件

日常工具搬运——python逐行写入txt文件同样,也是代码里的一个小需求,但是一时半会不知道怎么解决。需求是有一个大列表 list = [ [ a , …, z], … , [w, …, v]],需要把列表中的每一个子列表逐行写入到txt文件中。乍一看这个功能很好实现,但是网上搜了几个都不能实现逐行写入,而是一股脑都写进去了,没有换行(加了换行符也没用),最后阴差阳错用下面的方法解决了。同样,仅作为自己的学习笔记,若有不对之处请多多指正。先来看一下原来的列表数据:下面展示一些 内联代码片。['6

2021-05-16 16:53:51 8346 4

原创 日常搬运——python生成固定格式的数据

日常搬运——python生成固定格式的数据其实这个题目我也起的极其不标准,我这边代码的一个小需求就是把很多个数据分成n组,每组六个数据用空格分开,并存在列表里面,也就是list = [ ‘a b c d e f g’, …, ‘q w e r t y’ ] 这样子。所以这个代码主要是完成此任务,但又不知道怎么描述,就这样命名了。同样,仅当作自己的学习笔记,如果有不对的地方欢迎指正。下面展示一些 代码。import randomdata = [random.randint(0, 10) for _ i

2021-05-16 16:42:09 612 1

翻译 论文笔记——影响节点的识别:一种基于网络效率的边权值更新新方法

Identifying influential nodes: A new method based on network efficiency of edge weight updating来自电子科大发表在Chaos上的一篇文章。该文章提出了一种基于网络边权值更新效率的识别方法Ewuc,它可以有效地结合网络的全局和局部信息。背景知识1、Network efficiency网络效率网络效率表示整个网络的平均效率,通常用于描述整个网络的平均接近度和鲁棒性。网络效率也是衡量复杂网络中节点间信息交换的必要

2021-05-10 21:43:14 2199

翻译 论文笔记——加权K_Shell度邻域:一种从各种复杂的网络连接结构中识别有影响的传播者的一种新方法

Weighted kshell degree neighborhood: A new method for identifying the influential spreaders from a variety of complex network connectivity structures来自美国国立理工学院(是这么翻译的吧)发表在expert systems with applications的文章,这篇文章思路简洁易懂,实验内容也丰富,文章里表达的远远不止本博文所呈现的只言片语,想看原文的小伙

2021-05-08 17:26:48 896 3

翻译 论文笔记——通过组合经典中心性来识别影响力节点

Top infuencers can be identifed universally by combining classical centralities来自scientific reports上的一篇文章,该作者认为,在复杂网络上寻找有影响力的节点时,单独的中心性(single centrality)方法是不够的,有局限性的,故该文章使用了两个或多个中心性方法的公共值来寻找有影响力的传播者:即结合局部中心性和全局中心性,如特征向量中心性(eigenvector centrality),closene

2021-04-05 18:20:15 851

翻译 论文笔记——从全局角度出发识别网络中有影响力的节点

Identifying influential nodes in complex networks from global perspective又是一篇来自电子科大的论文,发布在Chaos, Solitons and Fractals期刊,该论文在识别有影响力节点时不仅考虑了节点自身的重要性,也同时考虑了图中所有节点的影响力。提出的方法自身重要性(self importance)其中,α是一个自身重要性的调节因子。nnn是节点个数。可以看出,节点的自身重要性与其度成正比。全局重要性节点的重

2021-03-22 11:42:36 873

翻译 论文笔记—— 一种用于复杂网络中识别影响力节点的广义重力模型

A generalized gravity model for influential spreaders identification in complex networks此文章作者来自电子科大,在识别有影响力节点的问题上,该作者提出了一种**广义重力模型**来为每个节点测量局部信息:节点的局部聚类系数以及节点的度。该模型中含有一个可调参数α,该参数为0时,提出的广义重力模型=重力模型(gravity model)。原文链接戳这里!.1、背景知识重力模型(gravity model)重力模型

2021-02-28 20:05:05 1401 9

原创 小工具——寻找节点的一二三阶邻居

日常小工具,本人代码水平一般,只是存在这里当笔记。若正好有小伙伴用到,希望能帮助到你,如若有错误之处,欢迎批评指正。输入:图以及图中一个节点输出:该节点在图中的一阶,二阶,三阶邻居import networkx as nxdef find123Nei(G, node): nodes = list(nx.nodes(G)) nei1_li = [] nei2_li = [] nei3_li = [] for FNs in list(nx.neighbors(G

2020-12-22 17:26:19 4967 3

原创 日常搬运——networkx返回图的邻接矩阵

最近有用到关于邻接矩阵的一些问题,平时不太常用所以一直没注意到networkx里面的函数,权当笔记了,有兴趣查看官方文档,这里只举个小例子。import networkx as nx # 导入必要的函数包import scipy as spimport operatorimport matplotlib.pyplot as plph = nx.Graph() # 我这里需要用到的图h.add_nodes_from(list(range(1, 9)))h.add_edges_from([(

2020-12-22 16:57:58 7013 1

翻译 论文笔记——基于网络表示学习(Network Representation Learning)的复杂网络中有影响力节点识别

基于网络表示学习(Network Representation Learning)的复杂网络中有影响力节点识别 一个节点所属的社区越多,节点可以影响的社区就越多。 节点的网络约束系数可以看作是社区中的传播速度。 节点的约束系数越小,节点传播信息的速度就越快1、背景知识1.1 网络表示学习(NRL)模型网络表示学习旨在学习网络中每个顶点的分布式向量表示。 它也越来越被认为是网络分析的一个重要方式。 网络表示学习任务可以大致抽象为以下四大类:(a)节点分类,(b)链路预测,©聚类,(d)可视化。研究

2020-12-04 11:45:53 1721 5

翻译 论文笔记——InfGCN:用图卷积网络识别复杂网络中有影响的节点

InfGCN:用图卷积网络识别复杂网络中有影响的节点在本文中,我们提出了深度学习模型InfGCN的框架,以确定复杂网络中最有影响的节点。 首先,我们采样固定大小的邻居网络,并构造由每个节点的4个经典中心组成的特征向量。 接下来,我们将每个节点的邻居网络和特征向量馈送到一个图形卷积网络(GCN)层中进行表示学习,然后将三个完全连接(FC)层用于任务学习。 最后,将模型的输出与SIR仿真实验得到的地面真相进行了比较,以最小化负对数似然损失。 同时,我们对模型进行了预训练,以克服小网络数据不可靠的问题。1、

2020-12-01 17:14:56 2114 17

翻译 论文笔记——使用图神经网络预测影响概率

使用图神经网络预测影响概率我们提出的GCN被优化以预测影响概率:(1)在图卷积过程中考虑顶点和边缘特征,(2)我们的图卷积过程是考虑信息级联过程的,(3)子图的训练是增加可伸缩性的必要条件,而某些影响概率预测需要完整的邻域信息-存在训练速度和GPU内存需求与预测精度之间的权衡问题。 然而,我们的方法在理论上保证了了随机抽样子图的适当训练1、背景知识1.1 图卷积神经网络GCN(Graph Convolutional Networks)图卷积神经网络(Graph Convolutional Netwo

2020-12-01 16:44:49 1649 5

翻译 论文笔记——通过图卷积网络识别网络中的复杂节点

通过图卷积网络识别网络中的重要节点识别网络中的重要节点一直以来是一个热门话题。收到图卷积网络的启发,本文将节点的影响力识别转换为一个回归问题。通过考虑网络的邻接矩阵和卷积神经网络,提出了RCNN方法,来更高效率的识别网络中有影响力的节点。整体思路如下:为每个节点产生一个特征矩阵,用卷积神经网络训练、预测节点的影响力。1 背景知识我们对Markdown编辑器进行了一些功能拓展与语法支持,除了标准的Markdown编辑器功能,我们增加了如下几点新功能,帮助你用它写博客:1.1、卷积神经网络1.2、图

2020-11-16 19:59:54 1390 6

翻译 论文笔记——使用信息熵对复杂网络中节点进行影响力排名

论文笔记——使用信息熵对复杂网络中节点进行影响力排名本方法是基于k-shell方法提出的一种在分解过程中使用了迭代信息的*多属性k-shell*方法。该方法首先结合了sigmod函数和迭代信息来得到位置指数,之后再次结合位置指数和k-shell中的shell值得到位置属性(position attribute)。其次,通过节点的局部信息得到邻居属性(neighbor property)。最后,使用信息熵加权法给位置属性以及邻居属性进行加权。1、背景知识1.1 sigmod函数Sigmoid函数是一

2020-10-30 11:41:46 2738 5

翻译 论文笔记——基于结构相似性的影响力节点识别

基于结构相似性的影响力节点识别众所周知,复杂网络中的有影响力节点的识别很重要。本文是基于PageRank方法以及节点的结构相似性(通过kullback-Liebler散度计算 )提出的PageRank改进算法。实验部分利用SIR模型进行验证。1、背景知识1.1、K–L divergence(k-l 散度)k-l 散度是概率论和信息论中的一个基本概念,度量两个概率之间差异的非对称方法。对于两个概率P和Q,它们之间的k-l散度定义为:其中P和Q都有着相同的组成元素,n为上述的两个可能性组成的元素

2020-10-14 08:56:09 1121

翻译 论文笔记——ECRM(基于邻域相关系数的影响力最大化算法)

论文笔记——ECRM(基于邻域相关系数的影响力最大化算法)本文提出一个改进的聚类排序方法 Extended Cluster Coefficient Ranking Measure (ECRM)来寻找网络中一组有影响力的节点,ECRM方法考虑了节点的公共层以及邻居集合。该文章发表在SCI一区,提出了影响力最大化的新思路。提出的方法给定一个图G=(V,E)G = (V, E)G=(V,E),V是点的集合,E是边的集合。NiN_{i}Ni​是节点ViV_{i}Vi​的邻居集合,did_{i}di​是节点V

2020-09-17 16:55:13 549

翻译 论文笔记—— 利用邻接信息熵识别复杂网络中的重要节点

利用邻接信息熵识别复杂网络中的重要节点相关定义定义一:邻接度AiA_iAi​对于无向网络,邻接度AiA_iAi​定义为Ai=∑j∈Γ(i)kjA_i=\sum_{j\in\Gamma(i)}k_jAi​=j∈Γ(i)∑​kj​对于有向网络,邻接度AiA_iAi​定义为Ai=θ∗∑j∈Γ(i)kjin+(1−θ)∗∑j∈Γ(i)kjoutA_i=\theta*\sum_{j\in\Gamma(i)}k_{j_{in}}+(1-\theta)*\sum_{j\in\Gamma(i)}k_{j_{out}}

2020-07-23 15:50:38 2440 7

翻译 论文笔记——加权网络中的WVoteRank

加权网络中的WVoteRankvoterank算法的目的是通过从其邻居投票来选择整个网络上的传播者,选定的传播者不参与随后的选举,其相邻节点的投票能力随后减少。 然而,这种方法只能应用非加权网络,是有局限性的。 各种实际网络都是加权网络,其中边缘的强度表示节点之间的相互作用。 因此,我们将voterank算法从未加权网络扩展到加权网络作为WVoterank。 由于非加权网络是特定的加权网络,它可以处理非加权网络 当每个边的默认权重值为1时的特定情况。给定一个加权网络G=(V,E)G = (V, E)G=

2020-07-23 09:33:17 1429

原创 Python对字典进行排序并返回字典

前段时间写代码总是需要用到字典排序,但返回值一般都为列表,偶尔看到一个返回值为字典的,整理一下,供日后使用查看。直接放代码:import operatordic_instance = {3: 1, 2: 23, 1: 17}sort_key_dic_instance = dict(sorted(dic_instance.items(), key=operator.itemgetter(0))) #按照key值升序sort_val_dic_instance = dict(sorted(dic_ins

2020-07-07 17:54:20 14696 8

翻译 信息熵对复杂网络中影响节点的识别(Enrenew algroithm)以及SIR模型

信息熵对复杂网络中影响节点的识别 识别一组有影响力的节点是复杂网络中的一个重要课题,在市场营销、谣言控制和价值预测等诸多应用中起着至关重要的作用 科学出版物。 在这方面,研究人员已经开发了从简单程度方法到各种复杂方法的算法。 然而,一种更健壮和实用的算法 是任务所必需的在本文中,我们提出了En更新算法,旨在通传播扩展能力。SIR模型影响力最大化一般是通过SIR模型来评估算法的效果的。 SIR模型中的每个节点可以分为三种状态,即感知节点(S)、感染节点(I)和恢复节点®。 首先,将初始选定的节点设置为

2020-06-30 20:04:56 3646 6

翻译 改进的TOPSIS算法-利用拉格朗日计算权重

改进的TOPSIS算法-利用拉格朗日计算权重1 TOPSIS方法1981年由Yoon开发的TOPSIS方法尝试选择与正理想最大值具有最短距离,和负理想最大值有最远距离的候选方案。正理想最大值使效益评价准则最大化,使成本评价准则最小化,而负理想最大值使成本评价准则最大化,使效益评价准则最小化[9]。首先得到由候选方案和评价准则组成的决策矩阵,其中为第m个候选方案的第n个评价准则。对矩阵做归一化处理:其中为第个候选方案的第个评价准则。然后,将归一化决策矩阵的列乘以相关联的权重,以获得加权判决矩阵:

2020-06-23 11:51:58 2436

翻译 基于改进的k-shell方法识别复杂网络中有影响力的重要节点

基于改进的k-shell方法识别复杂网络中有影响力的重要节点K-Shell是一种有效的识别有影响的分散体的方法。 然而,K-Shell忽略了关于节点拓扑位置的信息。 本文提出了一种改进的算法基于K-Shell和节点信息熵IKS,从较高的壳层和较低的壳层中识别有影响的扩散器。1、背景知识设G(V,E)G(V,E)G(V,E)是一个无权无向图,N=∣V∣,M=∣E∣N=|V|,M=|E|N=∣V∣,M=∣E∣分别表示节点和边的数目。A=(aij)n∗nA=(a_{ij})_{n*n}A=(aij​)n∗n

2020-06-23 11:24:25 7675 28

翻译 识别社交网络中有影响力的节点:基于邻居核心的投票方法

识别社交网络中有影响力的节点:基于邻居核心的投票方法最近引入了基于投票等级的方法来寻找种子节点。 它根据投票方案选择一组分散器,其中每个节点的投票能力相同,每个节点获得来自邻居的投票。 但我们认为每个节点的投票能力应该是不同的,并且应该取决于它在网络中的拓扑位置。 在本文中,我们提出了一个基于核心的投票 k方法称为NCVote Rank,通过在投票时考虑邻居的核心价值来寻找散布者。背景知识1、MDD混合度分解(MDD)利用K-shell的概念,在K-shell分解的每一次迭代中,根据节点的剩余和移除

2020-06-22 19:49:45 1510

翻译 论文笔记—— 基于特征选择和两步分类策略的证据分类器

基于特征选择和两步分类策略的证据分类器本文研究了利用信任函数从不确定数据中高效学习的方法,提出了一种由特征选择过程和两步分类策略组成的监督学习方法。 利用训练信息,提出特征选择过程通过最小化目标函数自动确定信息最丰富的特征子集。 提出的两步分类策略进一步提高了决策精度通过使用在分类过程中获得的互补信息。 在各种合成数据集和真实数据集上对该方法的性能进行了评价。1、背景知识1.1 信任函数1.2 E-KNN2、提出的方法本文提出的特征选择过程和两步分类策略都需要适当处理数据中的不确定性和不精确性

2020-06-09 16:59:44 592

原创 使用networkx绘制社交网络图

使用networkx绘制社交网络图lot as plt代码如下.import networkx as nx # 导入networkximport matplotlib.pyplot as plt # 导入绘图工具// 绘制社交网络图G = nx.Graph() # 声明一个图G//为图添加节点和边G.add_nodes_from([1, 2, 3, 4, 5, 6, 7, 8...

2020-06-08 20:45:03 3312

简简单单的网络社交图.png

使用networkx绘制社交网络图

2020-04-01

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除