自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(15)
  • 收藏
  • 关注

原创 Contrastive Multi-View Representation Learning on Graphs

对图做数据增广,取出一部分(随机断掉一些边,类似图像里的crop) 每个view学习自己的顶点表示和图表示 利用一个view的点表示和另一个view的图表示,学习分类器,同时学习一个score具体地:augmentations我们可以考虑两类图的增广:(1)对初始节点特征进行的特征空间增广,如掩蔽或添加高斯噪声;(2)对图结构进行的结构空间增广和腐蚀,通过添加或删除连通性、子采样和,或者使用最短距离或扩散矩阵生成全局视图。前一种可能有问题,因为不是所有测试集都给了特征,而且我们试了这样没什么好

2021-03-12 21:21:53 1875 2

原创 Type-Aware Anchor Link Prediction across Heterogeneous Networks Based on Graph Attention Network

背景:异质边预测(社交网络,学术网络,推荐网络等)的难点在于节点对齐,以往异质边预测的方法是先融合用户相关的各种节点得到融合特征,再根据融合向量来判断边是否连接。问题:以上方法忽略了局部类型信息对节点对齐的影响解决方案:提出TALP,它从局部和全局角度同时模拟了类型信息和信息融合对用户节点对齐的影响。TALP利用两层图注意力结构,同时提取特征和对齐类型。以往的方案:缺点是忽略了局部信息,特别是两个融合点的局部信息类别不一样时。如以上左边的a1和右边的a1。同样的信息比如paper在两边发

2021-03-12 21:20:37 1142 1

原创 A Multi-Scale Approach for Graph Link Prediction

总结:小改进,对于一个节点的两个邻居,若这两邻居包含相似和冗余的信息时,GNN模型的表现就会变差,本篇paper设置了规则对这些相似和冗余的信息节点进行了聚合。根据迭代聚合,可以得到不同尺度的graphs,这些graphs包含着互补信息,有助于提升任务性能。问题:一个点的表示主要来自于他的邻居,如果邻居的特征和本身很相似,那么会学不到有用的。所以需要更远的邻居。解决方法:通过节点聚类方法(h-hop子图再去除冗余信息)对图做收缩。得到不同尺度的图,并学到对应的节点特征,再通过不同层次的节点特征预测节

2021-03-12 21:19:36 872

原创 Multi-View Attribute Graph Convolution Networks for Clustering

摘要:本文提出了一种新的多视点属性图卷积网络(MAGCN)聚类模型。MAGCN设计了两个路径编码器,用于映射嵌入特征的图形和学习视图一致性信息。具体地说,第一种方法开发了多视图属性图注意网络,以减少噪声/冗余,并学习多视图图数据的嵌入特征。第二种方法开发了一致性嵌入编码器来捕获不同视图之间的几何关系和概率分布的一致性,自适应地为多视图属性找到一致的聚类嵌入空间。在三个基准图数据库上的实验表明,与现有的几种算法相比,该方法是有效的。以往多时间图聚类有以下缺点:1) 它们不能为邻域中的不同节点分配指定不

2021-03-12 21:17:20 1605

原创 CGD: Multi-View Clustering via Cross-View Graph Diffusion

问题:多视角聚类之前的方法不够通用主要内容:考虑到不同视图之间的信息互补性,创新性地提出了基于扩散模型的跨视图相似图融合算法。首先,根据各个视图生成独立的相似图矩阵,再通过挖掘不同视图之间的互补性,构造视图加权的迭代扩散模型,经过迭代更新每个视图的相似图矩阵。迭代过程中,考虑不同视图对应的相似图之间的关联。利用每个视图修正之后的相似图矩阵融合得到最终多视图共有的相似图矩阵,再利用谱聚类方法得到聚类结果,显著提升了多视图聚类算法的性能,并且该算法步骤中只涉及相似图的更新融合,计算复杂度也较低。与以

2021-03-12 21:14:42 1052

原创 c语言菜鸟学习

常量可以在main函数之前先定义如#define LENGTH 10 或者main函数内部const int LENGTH = 10;auto 存储类是所有局部变量默认的存储类。register 存储类用于定义存储在寄存器中而不是 RAM 中的局部变量;static 存储类指示编译器在程序的生命周期内保持局部变量的存在;extern 存储类用于提供一个全局变量的引用,全局变量对所有的程序文件都是...

2018-07-02 19:04:06 1242

原创 r-fcn论文阅读

简介:R-FCN(Region-based Fully Convolutional Networks),是一个准确和高效的基于区域的对象检测框架。 与先前的基于区域的检测器(诸如Fast/Faster R-CNN)在每个区域子网络几百次的高成本计算相反,R-FCN的基于区域的检测器是利用深度完全卷积网络,几乎所有计算在整个图像上共享。 R-FCN可以采用强大的完全卷积图像网络结构,例如ResNet...

2018-06-30 23:12:29 660

原创 mask rcnn论文阅读

1. Introduction在faster rcnn后面加一个预测物体mask的分支平行于bbox regression的分支。可以在此基础上加其他任务比如姿态估计本来有物体检测object detection和物体分割senabtic segmentation,现在结合起来是instance segmantation,既每个个体都能mask分开(原来是一个类一个颜色).结合的faster rc...

2018-06-30 23:09:47 798

原创 yolov2论文阅读

摘要:1. yolov2:改进自yolo,现在效果和faster rcnn/ssd类似,但是速度很快(67fps时可以达到76.8on voc datasets)。2. 我们在yolov2基础上把detection和classification融合到一起后得到了yolo9000,其数据集是coco和imagenet(只有分类标注)的合体(共200类,只有44个类里面有检测框标注,最后那44类19,...

2018-06-30 14:08:26 1673 1

原创 yolov3论文阅读

在yolo上做改进,精度和SSD 持平但是速度快三倍

2018-06-29 17:19:35 1261

原创 yolo论文阅读

摘要:之前都把检测当做分类问题,一般先弄一个预选框然后分类,然后对未知精调;现在我们把他当做回归问题,45fps,检出率低但是误捡也不会高.好处:1.快,因为回归和分类一起而且回归很快.2.误捡少,因为随时有全局信息,视野是整张图3.学习到很好的抽象表示,所以相对来讲,学真实图片,测素描或艺术图片的任务yolo会表现的相对好.介绍:分成S*S格,每个格子预测B个框(x, y, w, h,and c...

2018-06-29 15:29:31 680

原创 Historical Sales and Active Inventory kaggle

本题数据集是来自kaggle的Historical Sales and Active Inventory数据集,该数据集包含了历史销售记录数据和当前活跃库存的数据,在原始数据集中通过FileType特征进行区分(取值分别为Historical和Active),并且在当前活跃库存数据中不存在SoldFlag和SoldCount的值,所以无法用于训练或验证模型。我们去除了当前活跃库存数据,只保留了历史

2017-09-03 21:32:36 1032

原创 K近邻算法(三)--kaggle竞赛之Titanic

小白好难得会用python做第分类,实践一下用于kaggle入门赛之泰坦尼克生还预测问题介绍:泰坦尼克电影大家都看过,大灾难过后有些人生还了,有些人却遭遇了不信,官方提供了1309名乘客的具体信息以及提供了其中891名乘客的最后的存活情况,让我们去预测另外418乘客的存活情况。是很基本的二分类问题。一、数据分析官方所给的数据长这样:Survived:是否存活(0

2017-02-20 18:40:49 2208

翻译 K近邻算法(二)--约会网站配对

问题描述:一姑娘相亲无数,并且给相亲对象进行了评分123分别表示很喜欢的,一般般的和不喜欢的,这里也给出了被约过的1000位男士的个人信息包括飞行里数,玩游戏视频所耗时间比,和每周消费的冰激凌公升数。要求建立一个分类器使得一个新的男士出现时能以最大概率进行分类。这里我们用KNN算法。一、准备数据所给txt文档有1000行,大概长这样:40920    8.326976    0.9

2017-02-20 14:47:38 1986

翻译 K近邻算法(一) python实现,手写数字识别(from机器学习实战)

k近邻法(KNN)算法概述算法概述优点 精度高、对异常值不敏感、无数据输入假定。 缺点 计算复杂度高、空间复杂度高。 试用数据范围 数值型和标称型工作原理:将新数据的每个特征与样本集中数据对应特征进行比较,计算之间的距离值,选取样本数据集中前k个最相似的数据。伪代码: 1. 计算已知类别数据集中的点与当前点之间的距离 2. 按照距离递增次序排序 3. 选取与当前点距离最小的k个点

2017-02-19 22:07:44 1435

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除