自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+

aaHua_

ACM菜鸡选手

  • 博客(149)
  • 收藏
  • 关注

原创 Multi-Behavior Recommendation with Cascading Graph Convolution Networks (WWW 2023)

Multi-Behavior Recommendation with Cascading Graph Convolution Networks (WWW 2023)

2024-01-12 17:33:16 417

原创 Cascading Residual Graph Convolutional Network for Multi-Behavior Recommendation (TOIS 2024)

Cascading Residual Graph Convolutional Network for Multi-Behavior Recommendation (TOIS 2024)

2024-01-12 16:55:40 1080

原创 论文阅读: Multi-view Multi-behavior Contrastive Learning in Recommendation (DASFAA 2022)

Multi-view Multi-behavior Contrastive Learning in Recommendation

2023-10-25 22:57:13 201

原创 论文阅读: Self-supervised Graph Neural Networks for Multi-behavior Recommendation (IJCAI2022)

Self-supervised Graph Neural Networks for Multi-behavior Recommendation

2023-10-25 15:19:42 340

原创 (Python学习)爬虫——爬取虎牙直播网站主播名字和人气

获得不同类型游戏直播间的主播名字和人气。

2023-09-25 09:27:47 309

原创 论文阅读:Heterogeneous Graph Contrastive Learning for Recommendation(WSDM ’23)

Heterogeneous Graph Contrastive Learning for Recommendation

2023-04-25 21:49:16 1650 2

原创 论文阅读: Multi-behavior Recommendation with Graph Convolutional Networks(SIGIR2020)

Multi-behavior Recommendation with Graph Convolutional Networks

2023-04-20 20:58:50 425 2

原创 记2023第十四届蓝桥杯感受

第十四届蓝桥杯省赛

2023-04-09 15:30:18 6595 12

原创 tensorflow1.版本和tensorflow2.版本复制张量元素个数

tensorflow1. 和tensorflow2. 复制张量元素个数

2023-03-29 09:40:24 166

原创 解决TensorBoard打开html后无法访问网站问题

版本的原因,在127.0.0.1:6006不能直接可视化tensorboard。

2023-03-14 11:21:17 717

原创 论文阅读:On the User Behavior Leakage from Recommender System Exposure

On the User Behavior Leakage from Recommender System Exposure

2022-11-23 19:15:21 500

原创 论文阅读:Attention-driven Factor Model for Explainable Personalized Recommendation

AFM、GAU

2022-10-13 11:46:12 364 3

原创 论文阅读:How to Put Users in Control of their Data in Federated TopN Recommendation with Learning toRank

FPL

2022-10-11 22:39:42 188 1

原创 论文阅读:An Attribute-aware Attentive GCN Model for Attribute Missing in Recommendation

A2_gcn

2022-08-30 21:55:38 362

原创 论文阅读:RGCF: Refined Graph Convolution Collaborative Filering with Concise and Expressive Embedding

RGCF: Refined Graph Convolution Collaborative Filering with Concise and Expressive Embedding

2022-07-29 19:32:36 377

原创 论文阅读:LightGCN: Simplifying and Powering Graph Convolution Network for Recommendation

LightGCN: Simplifying and Powering Graph Convolution Network for Recommendation

2022-07-28 20:06:27 469

原创 论文阅读:Neural Graph Collaborative Filtering

Neural Graph Collaborative Filtering

2022-07-28 19:02:13 457

原创 论文阅读:SPR:Supervised Personalized Ranking Based on Prior Knowledge for Recommendation

SPR:Supervised Personalized Ranking Based on Prior Knowledge for Recommendation

2022-07-17 18:49:22 240

原创 AI学习命令行自用总结

jupyter 进入非C盘:cd D:jupyter notebook查看GPU进程nvidia-smi实时查看GPU进程nvidia-smi -l 10

2022-03-02 09:39:35 546

原创 Attentional Factorization Machine(AFM)复现笔记

声明:本模型复现笔记记录自己学习过程,如果有错误请各位老师批评指正。之前学习了很多关于特征交叉的模型比如Wide&Deep、Deep&Cross、DeepFM、NFM。对于特征工程的特征交叉操作,这些模型已经做的非常好了,模型进一步提升的空间已经很小了,所以很多研究者继续探索更多"结构"上的尝试,比如注意力机制、序列模型、强化学习等在其他领域表现得很好的模型结构也逐渐进入推荐系统。本周就学习了注意力机制在推荐系统中的应用。注意力机制不懂的同学学一下李沐老师的注意力机制这一节课AFM

2021-12-30 22:21:43 1265

原创 Wide&Deep Model、Wide Model(LR)、Deep Model、DeepFm Model、NFM Model复现笔记

声明:本模型复现笔记记录自己学习过程,如果有错误请各位老师批评指正。本周复现了Wide&Deep Model、Wide Model、Deep Model、DeepFm Model、NFM Modeldataset:cretio数据集(选取了train 20000, test 5000)Wide&Deep Model结合了Wide Model(LR)的记忆性和Deep Model的泛化能力,对于部署应用来说会提高用户的获取率和满意度,但是Wide&Deep的Wide part,需

2021-12-24 12:09:22 1594 1

原创 Neural Collaborative Filtering学习笔记

学习《Neural Collaborative Filtering》。该论文介绍了利用深度神经网络去建模user-item interaction,提出了NCF框架,并实例化GMF、MLP、NeuMF。MF出现的问题1.假设所有隐藏因子相互独立,MF可以被看做是线性模型(在做内积时,相当于对应位置的权重都是1),仅仅是对浅层特征做处理,结果偏差较大。2.MF的隐藏因子不好确定。对于一个复杂的user-item interaction,低维的效果不好,但是对于一个稀疏矩阵,增加隐藏因子的数量变成高维可能会

2021-12-03 14:22:14 1575

原创 Factorization Machines. VS Support Vector Machines.(理解+实现)

FM是什么?FM(Factorization Machine,因子分解机)主要是为了解决数据稀疏的情况下,特征怎样组合的问题。为什么使用FM?正如FM是什么说的,FM主要用来解决:1.数据稀疏 2.特征组合。1.数据稀疏:现如今在推荐系统中存在这种问题,例如一个书店网上商城,商城中有几百万本书籍,大部分用户最多也就买几本或者几十本,在一条用户向量中绝大部分的值都是0。2.特征组合:在现在的机器学习建模中,如果直接对特征进行建模,会使我们忽略了特征与特征之间的交互关系(比如男生喜欢运动类,女生喜欢

2021-12-01 20:36:29 868

原创 UserCF和ItemCF的综合比较

UserCF和ItemCF的综合比较(自用)转自书籍《推荐系统实践》

2021-10-25 15:45:28 98

转载 hmmlearn实现HMM模型三个问题

hmmlearn实现了三种HMM模型类,按照观测状态是连续状态还是离散状态,可以分为两类。GaussianHMM和GMMHMM是连续观测状态的HMM模型,而MultinomialHMM是离散观测状态的模型,也是我们在HMM原理系列篇里面使用的模型。对于MultinomialHMM的模型,使用比较简单,"startprob_"参数对应我们的隐藏状态初始分布, "transmat_"对应我们的状态转移矩阵, "emissionprob_"对应我们的观测状态概率矩阵。对于连续观测状态的HMM模型,Gaussi

2021-10-15 12:42:30 980

原创 机器学习——树回归

CART算法什么是CART?CART是英文Classification And Regression Tree的简写,又称为分类回归树。从它的名字我们就可以看出,它是一个很强大的算法,既可以用于分类还可以用于回归,所以非常值得我们来学习。CART算法使用的就是二元切分法,这种方法可以通过调整树的构建过程,使其能够处理连续型变量。具体的处理方法是:如果特征值大于给定值就走左子树,否则就走右子树。CART算法有两步:决策树生成:递归地构建二叉决策树的过程,基于训练数据集生成决策树,生成的决策树要

2021-10-03 22:56:08 387

原创 机器学习——决策树函数(ID3)

决策树一种简单但广泛使用的分类器,它通过训练数据构建决策树,对未知的数据进行分类。决策树的每个内部节点表示在一个属性上的测试,每个分枝代表该测试的一个输出,而每个树叶结点存放着一个类标号。ID3算法:该模型数据为整条数据,目标值在特征值后一列。信息熵:def calEnt(dataSet): n = dataSet.shape[0] iset = dataSet.iloc[:,-1].value_counts() p = iset / n ent = (-p *

2021-10-02 10:03:03 1701 1

原创 机器学习自用函数整理

整条的数据集划分import randomdef randSplit(dataSet,rate): l = list(dataSet.index) random.shuffle(l) dataSet.index = l n = dataSet.shape[0] m = int(n*rate) train = dataSet.loc[range(m),:] test = dataSet.loc[range(m,n),:] dataSet.in

2021-10-02 09:22:31 364

原创 第十届蓝桥杯B组C/C++——I.后缀表达式(满分讲解)

I.后缀表达式题目描述:给定 N 个加号、M 个减号以及 N+M+1 个整数 A1,A2,⋅⋅⋅,AN+M+1,小明想知道在所有由这 N 个加号、M 个减号以及 N+M+1 个整数凑出的合法的后缀表达式中,结果最大的是哪一个?请你输出这个最大的结果。例如使用 123+−,则 “23+1−” 这个后缀表达式结果是 4,是最大的。输入格式第一行包含两个整数 N 和 M。第二行包含 N+M+1 个整数 A1,A2,⋅⋅⋅,AN+M+1。输出格式输出一个整数,代表答案。数据范围0≤N,M≤10

2021-04-16 19:23:01 239

原创 生活小技巧——WiFi密码忘了怎么办

生活中常常因为忘记家中WiFi密码而苦恼,不用急!我来帮你。仅需打开电脑(笔记本,台式机无法连接WiFi),使用两行cmd命令,方便又快捷。以管理员身份打开你的命令提示符netsh wlan show profilenetsh wlan export profile folder=D:\ key=clearstep1:在命令行中输入以下命令,获取你曾经连接过的所有WiFinetsh wlan show profilestep2:在命令行中输入以下命令,获取你曾经连接过的所有WiFi

2021-02-05 11:14:34 549 2

原创 STL之Map遍历

//默认顺序(从小到大)map<string, int > m1{ {"张三",10},{"李四",20} };//从大到小排序map<string, int, greater<string> > m2{ {"张三",10},{"李四",20} };//从小到大排序map<string, int, less<string> > m3{ {"张三",10},{"李四",20} };//定义遍历指针itmap<string,int

2021-02-04 10:22:24 2682

原创 利用vector处理大数加法

具体方法:1.定义vector两个字符串数组,通过a[i]-‘0’将字符串类型数据转化成整型数据2.输入数据以反序存入数组,加法操作可以从数组开头进行3.有进位,下一位加1#include<iostream>#include<vector>#include<stdio.h>using namespace std;const int N=1e6+10;vector<int>add(vector<int>&A,vector&l

2021-02-04 09:14:16 454

原创 hdu 4841 圆桌问题

题目连接: 圆桌问题Problem Description圆桌上围坐着2n个人。其中n个人是好人,另外n个人是坏人。如果从第一个人开始数数,数到第m个人,则立即处死该人;然后从被处死的人之后开始数数,再将数到的第m个人处死……依此方法不断处死围坐在圆桌上的人。试问预先应如何安排这些好人与坏人的座位,能使得在处死n个人之后,圆桌上围坐的剩余的n个人全是好人。Input多组数据,每组数据输入:好人和坏人的人数n(<=32767)、步长m(<=32767);Output对于每一组数据,输出

2021-02-03 17:16:14 87

原创 水果(Map套Map)

Problem Description夏天来了好开心啊,呵呵,好多好多水果Joe经营着一个不大的水果店.他认为生存之道就是经营最受顾客欢迎的水果.现在他想要一份水果销售情况的明细表,这样Joe就可以很容易掌握所有水果的销售情况了.Input第一行正整数N(0<N<=10)表示有N组测试数据.每组测试数据的第一行是一个整数M(0<M<=100),表示工有M次成功的交易.其后有M行数据,每行表示一次交易,由水果名称(小写字母组成,长度不超过80),水果产地(小写字母组成,长度不

2021-02-03 10:32:14 123

原创 矩阵距离(多源BFS)

题目描述给定一个N行M列的01矩阵A,A[i][j] 与 A[k][l] 之间的曼哈顿距离定义为:dist(A[i][j],A[k][l])=|i−k|+|j−l|输出一个N行M列的整数矩阵B,其中:B[i][j]=min1≤x≤N,1≤y≤M,A[x][y]=1dist(A[i][j],A[x][y])输入格式第一行两个整数n,m。接下来一个N行M列的01矩阵,数字之间没有空格。输出格式一个N行M列的矩阵B,相邻两个整数之间用一个空格隔开。数据范围1≤N,M≤1000输入样例:

2021-02-02 10:49:51 312

原创 树的重心

题目描述给定一颗树,树中包含n个结点(编号1~n)和n-1条无向边。请你找到树的重心,并输出将重心删除后,剩余各个连通块中点数的最大值。重心定义:重心是指树中的一个结点,如果将这个点删除后,剩余各个连通块中点数的最大值最小,那么这个节点被称为树的重心。输入格式第一行包含整数n,表示树的结点数。接下来n-1行,每行包含两个整数a和b,表示点a和点b之间存在一条边。输出格式输出一个整数m,表示将重心删除后,剩余各个连通块中点数的最大值。数据范围1≤n≤1e5输入样例91 21 71

2021-02-01 14:03:33 126

原创 区间覆盖(贪心)

题目描述给定N个闭区间[ai,bi]以及一个线段区间[s,t],请你选择尽量少的区间,将指定线段区间完全覆盖。输出最少区间数,如果无法完全覆盖则输出-1。输入格式第一行包含两个整数s和t,表示给定线段区间的两个端点。第二行包含整数N,表示给定区间数。接下来N行,每行包含两个整数ai,bi,表示一个区间的两个端点。输出格式输出一个整数,表示所需最少区间数。如果无解,则输出-1。数据范围1≤N≤1e5,−1e9≤ai≤bi≤1e9,−1e9≤s≤t≤1e9输入样例:1 53-1

2021-02-01 11:36:36 387

原创 离散化模板

对于很大的数据进行离散化比如:1、2、5000、9999999、6离散化为:1、2、4、5、3目的:对于一些只比较数字大小而不关注具体数时,离散化方便存储。操作:1.sort2.二分查找位置:lower_bound(a,a+n,x)-a 在a数组中寻找>=x的第一个数的位置for(int i=1;i<=n;i++) { scanf("%lld",&a[i]); b[i]=a[i];}sort(b+1,b+n+1);for(int i=1;i<=n;i

2021-01-29 11:31:32 63

原创 谜一样的牛(树状数组+二分)

题目描述有n头奶牛,已知它们的身高为 1~n 且各不相同,但不知道每头奶牛的具体身高。现在这n头奶牛站成一列,已知第i头牛前面有Ai头牛比它低,求每头奶牛的身高。输入格式第1行:输入整数n。第2…n行:每行输入一个整数Ai,第i行表示第i头牛前面有Ai头牛比它低。(注意:因为第1头牛前面没有牛,所以并没有将它列出)输出格式输出包含n行,每行输出一个整数表示牛的身高。第i行输出第i头牛的身高。数据范围1≤n≤105输入样例:51210输出样例:24531对于

2021-01-25 14:44:01 141

原创 二分查找模板

引用闫大佬的二分模板二分模板一共有两个,分别适用于不同情况。算法思路:假设目标值在闭区间[l, r]中, 每次将区间长度缩小一半,当l = r时,我们就找到了目标值。版本1当我们将区间 [l, r] 划分成 [l, mid] 和 [mid + 1, r] 时,其更新操作是 r = mid 或者 l = mid + 1 ,计算mid时不需要加1。等价于int a[] = {1, 3, 5, 7, 9};lower_bound(a, a + 5, 1) - a; // 第一个大于等于1的元素是1,

2021-01-25 12:05:12 102

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除