自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(9)
  • 收藏
  • 关注

原创 Neighbor Interaction Aware Graph Convolution Networks for Recommendation - sigir20

Sequential Recommendation papers文章目录Sequential Recommendation papers一、Neighbor Interaction Aware Graph Convolution Networks for Recommendation - sigir201.1二、一、Neighbor Interaction Aware Graph Convolution Networks for Recommendation - sigir201.1二、

2021-04-06 20:34:42 875

原创 BGNN:Bilinear Graph Neural Network with Neighbor Interactions. 2020. IJCAI

BGNN Bilinear Graph Neural Network with Neighbor InteractionsMotivation: 目前的GNN在聚合邻居信息的时候只是简单的加权求和,这种方式忽略了邻居之间的交互信息。捕获邻居之间的交互信息有两个困难:排列无关性;线性复杂度。Method: 为了解决上述问题,我们提出一种新的GNN,该模型使用传统的线性聚合器和提出的双线性聚合器。通过双线性聚合器捕获邻居之间的交互信息。利用邻接节点的交互用于aggregate结点feature作为目标节

2021-04-01 18:51:38 1014

原创 parse_args()

import argparsedef parse_args(): parser = argparse.ArgumentParser(description='DeepRec') parser.add_argument('--num_epochs', type=int, default=100) parser.add_argument('--emb_size', type=int, default=64) parser.add_argument('--len_Seq', t

2021-03-30 20:51:41 554

原创 LDA Recommendation

LDA Recommendation papers简单的论文笔记目录LDA Recommendation papers前言一、LDA Model and Network Embedding-Based Collaborative Filtering RecommendationAbstructRelated WorkMain Research二、使用步骤总结前言一、LDA Model and Network Embedding-Based Collaborative Filtering Re

2021-03-30 11:29:38 228

原创 对比两个代码文件_python_word

目标:改后代码对比改前代码(很傻得复制到word进行对比)第一步:第二步:第三步:

2021-03-30 10:37:10 162

原创 GNN综述-Philips Yu

2021-01-05 11:18:31 196

原创 Vanilla是什么

Vanilla是什么经常在论文里看到这个单词,翻译成香草很怪异的感觉vanilla 英 [vəˈnɪlə] 美 [vəˈnɪlə]n. 香草醛,香草香精(从热带植物香子兰豆中提取,用于冰激凌等甜食)adj. 有香子兰香味的;香草味的;普通的;寻常的;毫无特色的Policy Gradient的原始版本叫做Vanilla Policy Gradient(VPG)RNN的最简单最初版本叫Vanilla RNN用最原始的DDPG算法也常被叫Vanilla DDPG所以DL,RL里面算法的

2020-12-06 11:09:49 1825

转载 多层感知器(MLP)

多层感知器             多层感知器(Multilayer Perceptron,缩写MLP)是一种前向结构的人工神经网络,映射一组输入向量到一组输出向量。MLP可以被看作是一个有向图,由多个的节点层所组成,每一层都全连接到下一层。除了输入节点,每个节点都是一个带有非线性激活函数的神经元。使用反向传播算法的监督学习方法用来训练MLP。...

2020-12-06 10:49:16 8274

原创 学习笔记1—Bert

BERT迁移学习在自然语言处理(NLP)领域同样也是一种强大的技术。由这种技术训练出来的模型,我们称之为预训练模型。预训练模型首先要针对数据丰富的任务进行预训练,然后再针对下游任务进行微调,以达到下游任务的最佳效果。迁移学习的有效性引起了理论和实践的多样性,两者相结合,高效地完成了各种NLP的实际任务1. 预训练模型BERT的结构是来自Transformers模型的Encoder。Transformer的内部结构由Self-Attention Layer和Layer Normalization的

2020-11-23 17:21:31 673

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除