自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(11)
  • 收藏
  • 关注

原创 Graph Structure Learning

Graph Structure Learning1 《Graph Structure Estimation Neural Networks》—— WWW 20212 《Learning Discrete Structures for Graph Neural Networks》—— ICML 20191 《Graph Structure Estimation Neural Networks》—— WWW 2021论文2 《Learning Discrete Structures for Graph N

2021-10-22 14:06:48 340

原创 异质图论文阅读

1 《Beyond Homophily in Graph Neural Networks: Current Limitations and Effective Designs》1.1 Contributions(1)三个理论证明,最重要的证明了GCN处理异质图的缺陷;(2)提出了不同hop和不同iterations的特征拼接有助于提高模型准确性;1.2 Benchmarksynthematic dataset、Texas、Wisconsin、Actor、Squirrel、Chameleon、Co

2021-06-17 22:23:36 1003

原创 《Learning Discrete Representation via Information Maximizing Self-Augmented Training》

作者提出Self- Augmented Training(SAT)学习一个invariance for applications of interest 的表示;RIM(Regularised INformation Maximization)与SAT结合生成本文的模型IMSAT;一些具有代表性的聚类方法:K-Means,hashing,Gaussian mixture model clustering,iterative quantization,minimal-loss hashing,这些方法的.

2021-03-21 10:53:03 505

原创 时间序列预测模型ARMA、ARIMA整理,结合statsmodel python代码分析

1.21 学习笔记时光荏苒,一去三年,为毛学的时间序列忘的一干二净???一、基础回顾1、白噪声满足以下三个条件的过程称为白噪声过程:E(ϵt)=0(1)E(\epsilon_{t})=0\tag{1}E(ϵt​)=0(1) E(ϵt2)=σ2(2)E(\epsilon_t^2)=\sigma^2 \tag{2}E(ϵt2​)=σ2(2) E(ϵtϵτ)=0,t≠τ(3)E(\epsilon_t\epsilon_{\tau})=0, t\not=\tau \tag{3} E(ϵt​ϵτ​)=0,t

2021-01-21 22:16:50 1012

原创 Statsmodels遇到的坑之:from statsmodels.stats.diagnostic import unitroot_adf

1.19学习笔记——记录被statsmodels折磨的一下午一、背景最近正好在做一个时间序列预测的问题,需要用到分解方法STL,一查statsmodels自带这个模块直接调用就行,于是pip安装:pip install statsmodel二、程序运行安装成功,省去数据预处理的部分先展示一下调用的方法吧!from statsmodels.tsa.seasonal import STLstl = STL(data['value'],period=12).fit()stl.plot()pl

2021-01-19 21:28:41 6364 5

原创 Dropout(一)《Improving neural networks by preventing co-adaptation of feature detectors》

目录1、Why — Dropout提出原因(1) 特征之间具有共适应性(co- adaptation)(2) 对co- adaptation怎样理解2、How— 怎样去理解Dropout背后思想(1) 缓解过拟合(2) 集成方法——平均3、How—Dropout训练及预测设计插入链接与图片如何插入一段漂亮的代码片生成一个适合你的列表创建一个表格设定内容居中、居左、居右SmartyPants创建一个自定义列表如何创建一个注脚注释也是必不可少的KaTeX数学公式新的甘特图功能,丰富你的文章UML 图表FLowc

2021-01-18 17:36:07 560

原创 论文阅读4:《GPT-GNN:Generative Pre-Training of Graph Neural Networks》

KDD,2020论文链接:https://arxiv.org/abs/2006.15437代码链接:https://github.com/acbull/GPT-GNN论文PPT: https://acbull.github.io/pdf/gpt.pptx一、简介(题外话:看了几篇pre-training文章,除了masked还是masked,为啥masked效果这么好???)1、方法概括本篇文章预训练方法概括讲就是:1)属性生成;2)边生成。为什么要生成节点和边呢?因为用了masked!

2020-11-22 20:07:19 1020 1

原创 论文阅读3:《GCC: Graph Contrastive Coding for Graph Neural Network Pre-Training》

KDD,2020一、简介一言以蔽之就是:在不同的图之间进行对比表示学习。(即:对某一节点进行多次采样,如果采样结果属于同一个图的相同节点,则赋予较大的比重,从而得到较小的损失,反之亦然)...

2020-11-22 20:02:31 1408 1

转载 【Graph Embedding1】LINE:算法原理,实现和应用

转自:https://zhuanlan.zhihu.com/p/56478167一、简介LINE也是一种基于邻域相似假设的方法,只不过与DeepWalk使用DFS构造邻域不同的是,LINE可以看作是一种使用BFS构造邻域的算法。此外,LINE还可以应用在带权图中(DeepWalk仅能用于无权图)。之前还提到不同的graph embedding方法的一个主要区别是对图中顶点之间的相似度的定义不同,所以先看一下LINE对于相似度的定义。二、算法原理1. First-order proximity1

2020-11-21 12:51:09 881

原创 阅读论文2:《STRATEGIES FOR PRE-TRAINING GRAPH NEURAL NETWORKS》

阅读论文2:《STRATEGIES FOR PRE-TRAINING GRAPH NEURAL NETWORKS》(ICLR, 2020)论文链接:https://arxiv.org/abs/1905.12265?context=cs.LG代码链接:https://github.com/snap-stanford/pretrain-gnns/一、简介(1)文章提出了图上两种预训练方法:节点级别(单个节点)、图级别(整个图);(Abstract:The key to the success of

2020-11-15 15:31:34 187

原创 阅读论文1:《How Powerful Are Graph Neural Networks?》

图神经网络学习笔记(一):《How Powerful Are Graph Neural Networks?》一、 论文中定理简介Definition 1 (Multiset) A multiset is a generalized concept of a set that allows multiple instances for its elements. More你好! 这是你第一次使用 Markdown编辑器 所展示的欢迎页。如果你想学习如何使用Markdown编辑器, 可以仔细阅读这篇文章,

2020-11-02 20:45:14 250

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除