自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(273)
  • 资源 (10)
  • 问答 (9)
  • 收藏
  • 关注

原创 关于 ivanti Access Client软件配置问题

ivanti client 连接问题

2023-07-26 11:42:25 1295

原创 Anaconda pytorch安装 问题记录 Solving environment: failed with initial frozen solve. Retrying with flexibl

Anaconda pytorch安装 问题记录 Solving environment: failed with initial frozen solve. Retrying with flexibl

2023-05-05 01:07:09 3553 2

原创 Python zip()函数个人遇到的小问题——当输入的列表个数不固定的时候如何解决

Python zip()函数个人遇到的小问题——当输入的列表个数不固定的时候如何解决

2022-07-09 12:39:28 552 1

原创 WL-OA Kernel论文讲解——On Valid Optimal Assignment Kernels and Applications to Graph Classification

本资源详细分解了WL-OA Kernel中各个模块的定义,以及在图上的计算过程,包括论文中未提及的V-OA Kernel的计算过程的图示。最后,比较WL-OA Kernel和WL Kernel的区别,发现WL-Kernel的Hierarchy等结构的定义目的是为了说明相比于特征向量对应位置的值的乘积之和,特征向量对应之间取最小值之和能够保留标签类型变换的过程,进而更好的保留图结构信息。

2022-04-21 22:43:02 458 2

原创 基于高斯过程的贝叶斯优化

因为目前来看,最常用的贝叶斯优化方法是基于高斯过程的,所以本篇blog主要记录基于高斯过程的贝叶斯优化方法的使用(不讲理论,不讲理论~)一、贴两个比较关键的基于高斯过程的贝叶斯优化包:1. BayesianOptimization ---https://github.com/fmfn/BayesianOptimization2. Botorch ---https://github.com/pytorch/botorch我个人更加推荐第一个,实现和修改起来更加的方便。二、关于贝叶斯..

2021-09-03 15:20:47 2541

原创 如何引入先验知识——Embedding Symbolic Knowledge into Deep Networks——纯属个人思考,极有可能出错,自行取用

纯属个人思考,极有可能出错,自行取用一、Abstract:使用先验符号知识 -> 改善深度模型的效果如何使用先验符号知识:图表征网络——将命题公式转化到一个mainfold(空间)。得到了什么?具有语义可靠的表征(semantically-faithful embedding)——能够在学习的过程中,将命题公式的信息一并加入到模型中,使其获得一定根据规则判断的能力进一步的工作:阐明为什么这么做能够将知识编写与向量表示学习进行联系二、Introduction:目前的De.

2021-04-05 12:27:48 2560 1

原创 Pytroch+DGL+模型设置相关总结

1、DGL部分: 当使用DGLGraph数据结构对原始数据进行解析的时候(从一条一条的数据变成一张一张图),首先要考虑的是如何将通过DGL库处理后的图数据存储,这时候需要用到的函数是dgl.load_graphs( )和dgl.save_graphs( graph list,label dict ),存储的文件后缀是.bin。此时,我们就将原始数据转换为了图数据,并得到后处理后的图数据集。此时要注意的是,使用pytorch进行训练,数据的读取需要使用到Dataloader类,Dataloade...

2021-03-05 15:01:45 916 5

原创 Deep Graph Library消息传递机制-Message Passing详解

首先是看一下dgl的官网:https://docs.dgl.ai/index.html里面的第二章https://docs.dgl.ai/guide/message.html#guide-message-passing,介绍了DGL数据结构的消息传递机制,这一机制便于我们去设计图神经网络,以及模型参数的传播。里面的三个核心的方法分别是message function、reduce function和update function,直接看官网给出来的式子不难理解,论文中的消息传递指的就是如何更

2021-02-19 14:04:43 646

原创 关于github的一些问题汇总

一、小白刚开始使用github的commit和push功能的时候肯定出现了,Push rejected: Push master to origin/master was rejected by remote这一类的错误,我们可以逐步的排出,a、首先是看自己的github远端的权限是否未开放,这种适用于团队或者小组开发的时候使用,如果你设置的是private类型的项目只要你通过token或者账号连接了github,那么正常来看肯定是可以push到远端的。为什么push不成功呢?首先检查一下当前项目下

2021-02-03 11:42:24 340

原创 关于各种服务器在境外的软件安装缓慢的问题解决方法

划重点:前提是需要有一个代理,代理的格式如下:类似于安装homebrew、tensorflow、pytorch等软件,如果想要不更换镜像源的前提下正常高速下载在终端(控制台)下前缀是类似这个结构的代理ip及其端口all_proxy=socks5://127.0.0.1:8080 后面是你需要执行的下载命令比如安装homebrew 终端的命令是:all_proxy=socks5://127.0.0.1:7888 /bin/bash -c "$(curl -fsSL https://raw...

2021-02-03 10:56:37 686

原创 关于python numpy.quantile()方法的理解以及分位数的理解

近期在编写python代码的时候遇到了python的numpy包中的quantitle()方法,产生了困惑,没有明白其得到的是什么,查阅之后发现,其实意思是分为数的意思,里面的参数q如果传入的是一个值就是求一个分位数,如果是一个list就是分别求不同的分位数,那么?如何通俗地理解分位数?直观来看,分位数就是用概率作为依据将一批数据分开的那个点。注意选取的是值而不是索引,这在python数据操作中着重注意一下一、数据分位数是数据分析中常用的一个统计量,经过抽样得到一个样本值,以考核分数为例:

2021-02-02 17:49:11 23493 3

原创 关于图神经网络的相关学习资源的分享——网站 博客(一)

图神经网络论文作者讲座——详细介绍——好的网站名称:ML Explained - Aggregate Intellect - AI.SCIENCE主站:https://ai.science/streams/graph-neural-nets?graph-neural-nets-tabs=videosYouTube页面:https://www.youtube.com/watch?v=W1GvX2ZcUmYGNN大佬Michael Bronstein教授博客:https://medium.com/@mi

2021-01-25 11:37:24 305

转载 如何理解UCB-Upper Confidence Bound

转载自:https://zhuanlan.zhihu.com/p/32356077博主讲的非常好,假设我们开了一家叫Surprise Me的饭馆客人来了不用点餐,由算法从N道菜中选择一道菜推荐给客人 每道菜都有一定的失败概率:以1-p的概率不好吃,以p的概率做得好吃 算法的目标是让满意的客人越多越好。解决方法:def UCB(t, N): upper_bound_probs = [avg_rewards[item] + calculate_delta(t, item)

2021-01-13 18:03:37 1004

原创 核函数的理解——映射与核的关系

首先可以先看一下几个常见的核函数,明确一点,核函数的目标是为了更加简便的计算从低维空间映射到高维空间后内积的运算问题,也就是基于现有的低维空间向量,能够计算出映射到高维空间后的内积。既然有这个性质,那么每一个核函数必然要对应一个从低维到高维的映射函数,换句话来说,只有能找到一个映射,使得从低维映射到高维后的坐标内积能够与核函数计算出的值相同,那么当前所找出的核函数才是有意义的。例如,线性核:,假定v1是二维向量,对应的映射为,< >代表的是向量内积,可以做如下的推演,可知当前的线性核

2021-01-12 13:44:55 3972

原创 VAE方法新理解

关于变分自编码器 ,在给师兄讲解的过程中,发现了自己理解的偏差,首先明确一点VAE本身不是从AE联想过来的,AE的过程本身是对输入信息x的一个提取,每一个x会对应提取的一个特征z,根据这个特征z经过解码器有能够得到还原后的x'。这个地方不应该从概率的角度去理解,而应该从变换的角度去理解,相当于是对输入x学习了一个变换,从而提取x的信息,并对信息进行了一个解码。针对于VAE的思路,他的源论文是《Auto-EncodingVariationalBayes》。源论文的直观意思并不是变分自编码器,变分自...

2020-12-27 18:21:48 781

原创 VAE-变分自编码器-Auto-Encoding Variational Bayes-详细推导

mac太难了,我想把我写好的word复制粘贴,一复制电脑就死机 炸裂,大家凑合看看图片吧,word可以看我的资源中心

2020-12-24 14:49:04 385

转载 好文分享—— RNN基本原理以及基于Pytorch实践

转载自https://blog.csdn.net/hei653779919/article/details/102868128作者隔壁的NLP小哥RNN神经网络和基于Pytorch的实践 本文主要讲述了RNN循环神经网络的基本原理和利用pytorch进行序列生成的实践,原理的部分主要参考 https://blog.csdn.net/HappyRocking/article/details/83657993,实践的部分主要参考的 是《深度学习原理和Pytorch实战》。在这里向..

2020-12-23 19:35:44 825

原创 关于目前深度学习技术的相关思考----个人理解笔记

根据目前所掌握的知识来看,对深度学习技术的建模思路做一个小总节,(基于现有的了解,不是系统总结):1、最简单的就是输入x经过神经网络后直接输出预测值,属于回归问题。神经网络参数相当于是函数的参数2、其次就是如分类任务中,输入x经过神经网络后直接输出概率,比如使用one-hot对标签进行编码,输出的向量中概率最大的一个表示就是类别3、第三类是自编码器的思路,这一类思路适合于不同的样本之间具有联系的时候,对一个输入的样本,通过一个神经网络去聚合与样本相关的一些样本的 信息,也就是通常说的...

2020-12-21 20:00:48 358

原创 VAE-《Auto-Encoding Variational Bayes》----Section2部分的有关理解

Section 21、论文中的i.i.d,表示的是独立同分布,是一种严谨的说法,通俗来看其实指的就是我们所经常见到的数据集中的特征,也可以理解为输入,如果是图结构的数据的话就是节点特征,这个独立同分布是进行建模的一个大前提。2、思考: a、注意针对于论文中概率建模的理解,论文中使用概率机型建模,不代表建模的物体是有概率的,比如说 小明爱打篮球,这是一个客观存在,如果使用概率建模,表现的形式是小明爱打篮球的概率为p。为什么要用概率去建模呢?原因在于概率可以模拟更多复杂的场景,因为要通...

2020-12-21 17:52:55 327

转载 pytorch Tensor及其基本操作

今日好文,在使用pytorch过程中遇到了tensor的处理问题,这篇知乎文章中作者zcyanqiu写得非常全面,特转载,望能够帮助到大家~转载:本章只是对pytorch的常规操作进行一个总结,大家看过有脑子里有印象就好,知道有这么个东西,需要的时候可以再去详细的看,另外也还是需要在实战中多运用。Tensor attributes:在tensor attributes中有三个类,分别为torch.dtype, torch.device, 和 torch.layout其中, torch

2020-12-21 13:46:27 569

原创 关于MAC中anaconda下python版本的问题

不知道各位有没有出现过这种情况,就是mac下的Terminal中输入python始终都是anaconda的默认python,并且如果在pycharm中设置编译器的时候如果选取的是python,那么pycharm使用的始终是anaconda的默认python无法切换到子环境的python版本中,解决方案就是必须要使用python3对Pycharm的环境进行设置,并且在anaconda的Terminal中也得使用python3来调用子环境的python才可以...

2020-12-18 15:09:52 791

原创 读《学术研究,你的成功之道》读书笔记分享给各位

一、四条格雷准则:1、有明显的益处 2、描述简单 3、目前还不具有明确的解法 4、问题具有可拆解行补充5、确保研究中数据获取的可靠性以及足够的数量二、本书框架:第一章:本书主旨,研究的本质以及成为研究者的基本要素第二章:讨论了研究的终极目标和从事研究事业的必备条件第三章:围绕着如何选择合适的导师,如何阅读文献和如何产生新点子进行讨论,并提出了在任何研究中都普遍使用的”三步式“原则第四章:总结了如何评估研究课题的潜在价值,从而能够读者为自己选取一个具有高影响力的研究课题,也希望能够成.

2020-09-20 15:20:46 709

原创 Random walk 和 random walk with Restart理解

以下是我在阅读论文过程中总结的内容,因为是ppt格式,就直接截图了仅为个人理解,如有不对多包涵谢谢各位!

2020-09-16 14:28:39 1520

原创 Random Walk之如何得到每个节点的第i次游走的路径种数目

小插曲:如何理解从全局的游走路径数目公式 表示的通过计算邻接矩阵A和初始的游走向量e可以得到一个向量r,r表示从各个节点游走出去的路径个数如下可以这么理解假设一邻接矩阵 图像可以看为: 对于上述式子,1、如果随机游走一次,可以得到r1=Ar0=[2 2 1 3]的向量,此时向量的意思表示的是从A,B,C,D节点游走一次得到的路径个数,也可以等价为当前节点的度。2、如果随机游走两次,那么可以得到r2=Ar1=[5 5 3 5...

2020-09-15 11:39:57 308

原创 吉林大学研究生课程-面向对象方法2020考试复习资料

一、复习范围二、针对一的回答以及附属的个人理解一、RUP部分01、重点补充:补充性规格说明中的万金油部分:A、 目标本文档描述了xxxx系统的需求,列举了用例模型中不能描述的需求,它与用例模型 共同描述了xxx系统的完备需求集B、 适用范围只能定义xxx系统的非功能性需求C、 参考无D、 功能:多个终端操作,比如银行系统的手机app端、微信小程序以及电脑端(这里与用例模型中的功能有差别)E、 可用性:兼容的系统为windows10\windows7F、 可靠性

2020-09-12 16:30:11 1740 3

原创 关于唐杰老师18年KDD-DeepInf-社会影响力论文初次理解《DeepInf: Social Influence Prediction with Deep Learning》

纯属个人记录,有错误的话,勿喷~《DeepInf: Social Influence Prediction with Deep Learning》唐杰老师的这篇论文目前阅读了2遍,代码看了一遍,最初阅读有了一个对模型的初步认知,模型数据来源主要是图结构以及图中每个节点的actionstate,通过这两个输入得到最终的下一个timestamp的actionstate。其中用到的技术是先通过randomwalk,游走过程中允许回到初始节点,为每个节点游走出若干次定长序列,然后通过embeddin...

2020-09-12 16:11:32 528 1

原创 关于RUP的一点见解,针对于近期的面向对象方法课程

以下是个人的拙见,如有不对请指正,谢谢各位!RUP-统一软件开发过程核心工作流:商业建模-需求-分析和设计-实现-测试-部署-配置和变更管理-项目管理-环境,其中课程中详细介绍的是需求、分析和设计、实现和部署部分。1、需求指的是通过需求分析得到需求模型的过程,需求模型包括用例模型、词汇表和补充说明。2、基于需求模型可以进行软件的分析和设计,而软件的体系结构其实就是软件的架构。3、架构分析指的就是分析过程,通过架构分析可以得到分析模型4、架构分析的步骤如下:A...

2020-09-04 21:26:56 210

原创 形式语义学-JLU-ZHH

2020-09-02 16:56:47 1797

原创 关于embedding的理解,2020-7-30

Embedding是什么?字面上的意思是“表征”,那么实际上它蕴含了什么呢?从CNN开始回顾,CNN最开始处理的是图片信息。图片本身是由像素点构成的,每一个像素点,每个像素点代表了一种颜色,如果是灰度图,每个像素点是一个值;如果是rgb图,每一个点是一个三元向量(分别代表三原色);那么一张图的所有像素点构成的像素矩阵,我们就看为这张图的特征,是一种直观的表现,然后对图片的像素矩阵进行卷积,再通过激活函数输出,输出的是图像的类别,比如是猫、是狗、或是其他的什么物体。对于图片这类数据,原始特征和类别是显

2020-07-30 19:06:15 546 1

原创 Hierarchical Softmax、CBOW词带模型抽象化及其公式推理以及python代码实现包括注释

接下来是我的详细的推倒过程

2020-07-27 19:12:00 588

原创 Ablation Study解释

今天在看论文的过程中看到了名为Ablationstudy的实验方法,一时间不知道这到底是什么方法,直观翻译过来叫烧蚀研究法:上知乎搜索后精选两条知乎的答案作为解释,供大家参考:https://www.zhihu.com/question/60170398?sort=createdAblation study(直观翻译叫烧蚀研究方法)英文本版释义:(知乎 尼箍纳斯凯奇)An ablation study typically refers to removing some “featu...

2020-07-16 11:49:09 864

原创 图卷积网络-《深入浅出图神经网络》读书笔记

由于是word格式,在这里我就直接放截图了,都是自己的思考,谢谢大家!参考文献:《深入浅出图神经网络》

2020-06-30 16:41:09 885 1

原创 CNN卷积神经网络之卷积运算的初步理解

上述的卷积方式是带有反转的卷积,而不带反转的卷积操作称为互相关卷积,在进行卷积的过程中需要指明属于哪一种卷积。对于5.6式子中,如果i,j分别取1,很明显会出现x取到-1位置的情况,我个人理解是可能这个时候的卷积就属于无效卷积了,因为此时以x1,1为中心,前面和上面都是不存在的,只有当i,j同时取3的时候,也就是卷积的中心在第二行第二列的0的时候才开始具有意义。因此来说5.6式应该还需要加上i,j都必须要≥3才可以,也就是一个为了将二维卷积写成数学式的一种妥协。因为懒得打字了,所以索性直接将...

2020-06-23 17:47:18 323

原创 忘了 忘了,以前学的矩阵知识全交给老师了,敲黑板了,矩阵乘法实例讲解

在这个地方整蒙了,W1和W2这俩是矩阵的标记,但是后面只有个Tr-1和Cr-1,我????实际上,1x Tr-1这种表示,即可以是向量也可以是矩阵呀,没有问题,往下理解是向量,往上理解就是矩阵,其次,W1与做运算是将W1当作Tr-1× 1的矩阵进行运算,而W3和运算是将其当成1×Cr-1进行运算,我们可以看到W1和W3是都是用的R^(?)的形式表示的矩阵,但是运算时候却不一样,敲黑板了!这就是我整蒙圈的地方,你想R^(?)是个欧几里得空间,1×Cr-1和Cr-1× 1都是R^C...

2020-05-22 21:23:03 609

转载 交通流量预测数据集解读

智慧交通系统即Intelligent TransportationSystem (ITS)属于时空预测方向,在人工智能相关会议上有不少工作值得借鉴。中科院计算所9楼网数的徐冰冰在github上有建微信群讨论,下周约在计算所给课题组做报告。群中Davidham(宋超,北交)也撰写了不少论文笔记,最近还发现了CSDN上张博士的 “当交通遇上机器学习”,也很不错。原始数据集总结一、TaxiBJ,北京出租车数据集,郑宇,"BJ15_M32x32_T30_InOut.h5",原始数据s...

2020-05-20 16:42:40 28567 25

转载 图神经网络学习笔记(1)——图信号与图傅里叶变换

以上转载自https://blog.csdn.net/weixin_40718664/article/details/104439350

2020-05-20 15:46:57 571

原创 2020 AAAI-GMAN: A Graph Multi‐Attention Network for Traffic Prediction阅读笔记(翻译)

注明:本文仅是翻译了论文,主要目的方便日后温故

2020-05-19 11:21:56 3374 6

转载 Ground truth的含义

在机器学习中,术语”ground truth”指的是用于有监督训练的训练集的分类准确性,主要用于统计模型中验证或推翻某种研究假设。术语也指收集准确客观的数据用于验证的过程。训练集中的不准确性总是和训练结果集中的不准确性是关联的。机器学习包括有监督学习(supervisedlearning),无监督学习(unsupervised learning),和半监督学习(semi-supervisedlearning).在*有监督学习中,数据是有标注的,以(x, t)的形式出现,其中x是输入数据,t.

2020-05-18 20:42:42 4664

转载 TensorFlow中数据的feed与fetch

TensorFlow中数据的feed与fetch一:占位符(placeholder)与feed当我们构建一个模型的时候,有时候我们需要在运行时候输入一些初始数据,这个时候定义模型数据输入在tensorflow中就是用placeholder(占位符)来完成。它的定义如下:def placeholder(dtype, shape=None, name=None):其中dtype表示数据类型,shape表示维度,name表示名称。它支持单个数值与任意维度的数组输入。1. 单个数值占位符定义

2020-05-11 00:04:00 309 1

转载 正确理解TensorFlow中的logits

【问题】I was going through the tensorflow API docs here. In the tensorflow documentation, they used a keyword called logits. What is it? In a lot of methods in the API docs it is written like我正想通过tensorflow API文档在这里。在tensorflow文档中,他们使用了一个叫做关键字logits。它是什么?API

2020-05-10 21:44:39 565

WL-OA Kernel个人理解注释以及论文的讲解PPT

On Valid Optimal Assignment Kernels and Applications to Graph Classification; Weisfeiler-Lehman Graph Kernels和WL-OA Kernel的关系 本资源详细分解了WL-OA Kernel中各个模块的定义,以及在图上的计算过程,包括论文中未提及的V-OA Kernel的计算过程的图示。最后,比较WL-OA Kernel和WL Kernel的区别,发现WL-Kernel的Hierarchy等结构的定义目的是为了说明相比于特征向量对应位置的值的乘积之和,特征向量对应之间取最小值之和能够保留标签类型变换的过程,进而更好的保留图结构信息。

2022-04-21

MacOS_Catalina+Ubuntu教程.pdf

亲测实用,首先是需要自己制作启动u盘,这个阔以直接参考Ubuntu官网即可 本人电脑mbp 17 touch bar

2021-03-26

VAE推导过程.docx

2014 年的《Auto-Encoding Variational Bayes》论文中具体的公式推导过程,如有不对请指正,谢谢各位

2020-12-24

唐杰社会影响力.pptx

DeepInf: Social Influence Prediction with Deep Learning论文个人理解以及论文内容的相关内容讲解,纯属个人见解,谢谢各位

2020-09-16

组件+COM+CORBA+EJB.docx

来源于研究生课程面向对象方法的ppt,组件、COM、CORBA、EJB部分的总结,希望能帮助大家!谢谢!

2020-09-12

面向对象方法课程内容背诵3.0.docx

吉林大学研究生课程之面向对象方法个人总结,其中RUP部分较为详细,内容均选自2020年课程ppt,希望帮助到大家

2020-09-12

形式语义学笔记zhh版.pdf

个人根据课程材料+自己的思考总结出来的笔记版的形式语义学,如有需要可以直接跟着笔记学习形式语义学这门课,希望对大家有所帮助,谢谢!

2020-09-02

word2vec词袋模型实现.zip

只使用了numpy,没有使用tensorflow或pytorch框架,使用的是单线程,具有详细的注释,如有不对请大家指正,非常感谢,多交流

2020-07-30

个人Hierarchical softmax之CBOW推倒+知乎讲解.zip

个人Hierarchical softmax之CBOW推倒+知乎讲解(注明了引用~),看了知乎上大佬的讲解后,自己手动重新推倒了CBOW的loss的设计以及个人理解模型导图和反向传播过程

2020-07-27

GCN图卷积网络的理解.docx

本文中有两个gif图需要将文件使用html的方式打开才可以看到,主要介绍了本人对图卷积网络的形象化的理解,希望能够帮助到大家共同努力,谢谢!

2020-06-30

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除