自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+

Firmiana1220的博客

坚持做件小事

  • 博客(67)
  • 收藏
  • 关注

原创 论文笔记 | CodeXGLUE: A Machine Learning Benchmark Dataset for Code Understanding and Generation

arxiv 2021Shuai Lu, Daya Guo, Shuo Ren, …Peking University, Sun Yat-sen University, Beihang University, Microsoftkeywords: program understanding, benchmark dataset本文提出了一个代码理解领域的benchmark,其中包括10个任务,14个数据集,还有一个可以供研究者们参考和比较的平台。文章中所有内容基本可以用下面这张表概括,主要是在讲.

2021-03-03 10:07:08 1305

原创 论文笔记 | Type4Py: Deep Similarity Learning-Based Type Inference for Python

arxiv 2021Amir M. Mir, Evaldas Latoskinas, Sebastian Proksch, Georgios GousiosDelft University of Technology(荷兰代尔夫特理工大学)keywords: type inference of identifier, deep similarity learning-based method, large type vocabulary研究动机本文做的任务是动态编程语言的变量类型预测。所谓动态.

2021-02-23 19:06:00 433

原创 pytorch数据可视化(tensorboard的安装和使用)

根据《深入浅出pytorch》一书中的实例进行了修改和总结Tensorboard简介tensorboard是一个数据可视化工具,能够展示深度学习过程中张量的变化。可视化的内容可以包括:模型训练过程中的损失、张量的分布直方图、训练过程中输出的图片和音频数据等。Tensorboard安装pip install tensorboard【注意:tensorboard版本号要和tensorflow版本匹配,具体的匹配规则不太清楚,以下给出我的版本号】使用方法以线性模型的训练为例,以下为完整代码:.

2021-02-21 20:19:08 1248 1

原创 软件工程领域国际会议列表

学术期刊CCF期刊名称影响因子出版商CCF AIEEE Transactions on Software Engineering (TSE)4.778IEEECCF AACM Transactions on Software Engineering and Methodology (TOSEM)ACMCCF BJournal of Software: Evolution and Process0.606John Wiley & Sons, Lt

2021-02-20 21:45:18 4118

原创 论文笔记 | code pretraining(代码预训练系列)

文章目录Pre-trained contextual embedding of source codeCodeBERT: A Pre-trained model for programming and natural languagesGraphCodeBert: Pre-training code representations with data flowContrastive code representation learningInferCode: Self-Supervised Learning

2021-02-20 21:42:40 4330

原创 机器学习算法总结

持续更新…文章目录XgBoost算法XgBoost算法XgBoost是Boosting算法的其中一种,Boosting算法的思想是将许多弱分类器集成在一起,形成一个强分类器。因为XgBoost是一种提升树模型,所以它是将许多树模型集成在一起,形成一个很强的分类器,所用到的树模型是CART回归树模型。也就是XgBoost是由很多CART树集成。什么是CART树呢?数据挖掘或机器学习中使用的决策树主要有两种类型:分类树分析是指预测结果是数据所属的类回归树分析是指预测结果可以是实数而术语分.

2021-02-20 20:50:36 106

原创 论文笔记 | Graph Pooling

文章目录Graph U-Nets研究动机主要内容Hierarchical Graph Representation Learning with Differentiable Pooling研究动机研究内容Graph U-Nets会议:ICML 2019Authors:Hongyang Gao, Shuiwang JiDepartments: Texas A&M UniversityRecommend Score: 8.5 / 10.0Keywords: graph classifica

2021-02-20 20:46:04 789

原创 论文笔记 | 基础知识类论文(多任务学习、图卷积等)

文章目录Representation Learning Using Multi-Task Deep Neural Networks for Semantic Classification and Information Retrieval研究动机两个任务模型框架模型训练实验评估总结An Overview of Multi-Task Learning in Deep Neural Networks什么是Multi-task Learning?Multi-task learning 适用场景两种常见的参数共享方

2021-02-20 20:39:43 536

原创 Attention 和 Transformer详解

Attention & Transformer由Jay Alammar的博客总结链接:1. seq2seq and attention 2. transformerAttention以下的内容都以机器翻译任务举例。Seq2seq for translation传统的seq2seq架构在做机器翻译任务时,encoder部分获取输入句子的embedding,也就是最后一个时间步的hidden state向量,输入到decoder中,经过多个时间步后,得到输出的序列。但其中存在的

2021-02-20 20:35:02 791

原创 论文笔记 | Neural attribution for semantic bug-localization in student programs

Conference: NIPS 2019Authors: Rahul Gupta, Aditya Kanade, Shirish ShevadeInstitution: Indian Institute of Science, Google Braindataset and code: https://bitbucket.org/iiscseal/nbl/src/master/研究动机代码错误定位任务和目前的研究现状如下:学生在Online Judge (OJ) 平台上提交程序,可以得到.

2021-02-20 20:15:59 292

原创 pytorch学习最佳工具——官方文档

python/pytorch各个库的官方docHugging Face:包含各个预训练模型的详细文档,可以直接使用。比如BERT中的tokenizer和model等。除此之外,还有一些公开的数据集。pytorch documentation同理,numpy或者其他的库,在学习的时候都可以找到他们的官方文档,看看某个函数的具体介绍。...

2021-02-17 20:46:56 281

原创 pytorch读取数据(Dataset, DataLoader, DataLoaderIter)

pytorch数据读取参考资料:pytorch数据读取pytorch对nlp数据的处理博客(以短文本匹配为例)dataloader使用教程博客pytorch使用DataLoader对数据集进行批处理简单示例Pytorch的数据读取主要包含三个类:DatasetDataLoaderDataLoaderIter这三者是依次封装的关系,Dataset被装进DataLoader,DataLoder被装进DataLoaderIter。Dataloader的处理逻辑是先通过Dataset类

2021-02-17 20:43:06 9524 1

原创 论文笔记 | code representation(代码表示学习)系列

文章目录Associating Natural language comment and source code entities研究动机本文方法Deep Learning Similarities from Different Representations of Source Code研究动机具体方法实验部分Learning Semantic Vector Representations of Source Code via a Siamese Neural Network研究动机具体方法实验部分数据N

2021-01-31 21:29:42 5429 1

原创 论文笔记 | code summarization(代码摘要生成)系列

代码摘要生成论文列表1. Recommendations for Datasets for Source Code Summarization2. Abridging Source Code3. Summarizing Source Code Using a Neural Attention Model4. Code Generation as a Dual Task of Code Summarization5. A Transformer-based Approach for Source Code S

2021-01-19 20:23:04 5979 4

原创 读书笔记 | 韭菜的自我修养

书名:韭菜的自我修养作者:李笑来阅读时间:2020年8月1. "韭菜"究竟是谁我们可以从人们的常用语境里得出基本上还算准确的定义:所谓“韭菜”,指的是在交易市场中没有挣到钱甚至赔钱的势单力薄的散户这样看来,作为一根韭菜,想要成为"非韭菜",任务很简单啊:赚到钱...2. "韭菜"的宿命从那一刻开始“韭菜"之所以是"韭菜”,绝大多数情况下只不过源自一个相同的原因:他们一进场就开始“买买买”!对于新手来说,有一个定律永恒不变:你一买,它就开始跌;你一卖,它就开始涨...为什么会出.

2021-01-19 09:39:03 871 4

原创 论文笔记 | graph pre-training 系列论文

图预训练论文笔记1. Strategies for pre-training graph neural networks2. Multi-stage self-supervised learning for Graph Convolutional Networks on graphs with few labeled nodesMotivation具体方法3. GPT-GNN: Generative Pre-training of Graph Neural Networks4. Pre-training G

2021-01-17 08:50:21 1525

原创 论文笔记 | 语义解析相关论文

文章目录1. Language to Logical Form with Neural Attention2. Abstract Syntax Networks for Code Generation and Semantic Parsing3. A Syntactic Neural Model for General-Purpose Code Generation4. Tree-structured Decoding with Doubly-recurrent Neural Network5. Seman

2020-05-16 14:53:49 1689

原创 强化学习导论 | 第10章 On-policyControl with Approximation

上一章讲了on-policy策略下,怎样估计状态价值函数,也就是“预测”任务。对应的还有一个“控制”任务,就是要找到最优策略。并且,在控制任务中,我们现在要估计的是动作价值函数,即q^(s,a,w)≈q∗(s,a)\hat{q}(s, a, \mathbf{w}) \approx q_*(s, a)q^​(s,a,w)≈q∗​(s,a),其中w∈Rd\mathbf{w} \in \mathbb{R...

2020-04-28 08:12:32 390

原创 全面理解RNN(包括GRU、LSTM)以及对应pytorch实现

之前在学习RNN的时候,总是零零散散的搜一些东西。这次想要将关于RNN的知识总结起来,包括各种RNN网络的结构、输入输出以及pytorch代码实现。文章目录单向RNN网络简介Vanilla RNN / GRU 的结构LSTM 的结构双向RNN网络简介单向和双向LSTM的pytorch代码实现单向LSTM双向LSTMReference单向RNN网络简介我们首先介绍单向RNN网络的结构,如下图所...

2020-04-26 20:35:07 2283 3

原创 强化学习导论 | 第九章 on-policy的近似预测

本章的题目为"on-policy prediction with approximation",之前几章的内容也涉及到了on-policy prediction,这里的不同就在于“估计”。因为前面讲到的内容是根据策略采样轨迹,再基于轨迹得到的奖励,计算价值函数。但这里不再是采用这样的思路,而是估计价值函数,并且估计出来的价值函数不再是以表格的形式存在,而是得到一个参数化的函数形式。形式化表示为v^...

2020-04-25 17:55:42 578 1

原创 强化学习导论 | 第八章 规划和学习

前面几章已经讲了model-based (如:动态规划)和model-free (蒙特卡洛、时序差分)方法。这两种方法的区别在于计算价值函数的时候是否已知模型(这里指状态转移概率)。虽然这两种强化学习方法不同,但也有相同的地方,比如:两种方法的核心都在于计算价值函数,还都是根据未来的奖励来估算当前状态价值。既然有相同之处,这两种强化学习方法能否统一起来呢?这就是本章的内容,其中,model-ba...

2020-04-07 17:45:59 1634

原创 论文笔记 | Tree-structured Decoding for Solving Math Word Problems

这篇文章是由京都大学和北京大学合作发表在EMNLP 2019上的。主要是在seq2seq架构上做了改进,用树结构的decoder来生成抽象语法树(也可简单理解为表达式树)。并且利用栈结构辅助,能够清楚的知道下一次要生成的token是什么,还有什么时候可以停止解码。文章目录研究动机系统架构图Strong PointsWeak Points补充研究动机目前已有很多用seq2seq结构来做解题的工...

2020-03-30 12:42:30 1398 9

原创 强化学习导论 | 第七章 n步时序差分算法

前面讲到了MC(蒙特卡洛方法)和TD(0)算法。MC方式是根据采样到的经验轨迹实际得到的奖励来更新轨迹中出现的状态的价值,即在每个轨迹结束之后更新。TD(0)方法中某个状态的价值是根据从当前状态走一步的即时奖励和后续状态的估计价值相加得来的,即在执行一个动作之后就更新价值。那么,能否将MC和TD(0)结合呢?基于这个想法,就产生了n步时序差分算法。即在某个状态的价值等于在当前状态下走n步得到的奖...

2020-03-19 16:56:50 2248 1

原创 论文笔记 | Learning Fine-Grained Expressions to Solve Math Word Problems

这篇文章是腾讯人工智能实验室发表在EMNLP 2017上的文章,基于细粒度的模板解数学应用题。文章目录贡献点整体思路1. 模板归纳 sketch for template2. 训练过程3. 测试过程分析贡献点学习问题文本到模板片段的映射,充分利用模板的信息。为每个模板自动构建sketch。实现了一个两阶段的系统,包括模板检索和对齐排序。整体思路总结下来,该工作主要分为三个部分:...

2020-03-13 21:20:27 802

原创 强化学习导论 | 第六章 时序差分方法

前面讲到的动态规划方法和蒙特卡洛方法都可以用来计算价值函数。动态规划方法是model-based的,需要知道状态的转换概率,某个状态的价值是根据其后续的状态价值计算的;蒙特卡洛方法是model-free的,不需要知道状态的转换概率,某个状态的价值是根据从该状态开始到轨迹结束的折扣奖励来计算的。本章的时序差分方法是对动态规划方法和蒙特卡洛方法的结合,跟蒙特卡洛方法一样,也是根据经验来学习,而不需要知...

2020-03-12 15:55:24 554

原创 强化学习导论 | 第五章 蒙特卡洛方法

在第四章 动态规划中,已知模型(即状态转换概率)能够对策略进行评估和更新,最终得到最优的策略和最优价值函数。但是,很多情况下,状态转移概率p(s′,r∣s,a)p(s', r | s, a)p(s′,r∣s,a)并不知道,那要怎么求解最优策略呢?本章将的蒙特卡洛方法可以利用经验学习到价值函数和策略。经验是指agent和环境交互生成的(状态,动作,奖励)的轨迹序列。文章目录5.1 蒙特卡洛预测 ...

2020-03-05 11:07:12 740

原创 强化学习导论 | 第四章 动态规划

本章主要讲了动态规划是怎样求解价值函数(value function)的。1. 动态规划和强化学习动态规划问题的特点是:

2020-02-29 16:07:59 390

原创 论文笔记 | Modeling Intra-Relation in Math Word Problems with Different Functional Multi-Head Attentions

简介Jierui Li, Wang Lei 和 Dongxiang Zhang团队发表在ACL19上的工作。主要使用不同功能的Multi-Head Attention来获取不同类型对象的关系。受到multi-head attention工作的启发,作者设计了四种不同的attention机制:Global attention:以整个句子的表示作为query, key和value,以获取全局信...

2020-02-25 21:24:10 1150

原创 强化学习导论 | 第三章 有限马尔科夫决策过程

本章将讲解有限马尔科夫决策过程中的有关反馈、策略和价值函数的内容。这个问题也是评估性反馈(evaluative feedback),但和上一章中讲到的多臂赌博机不同,多臂赌博机仅包含一个状态。在包含多个状态的情况下,我们需要考虑在不同状态下选择不同的动作。文章目录3.1 agent和环境的交互3.2 马尔科夫性质3.1 agent和环境的交互agent是决策者,在每个时间步ttt与环境进行交...

2020-02-25 19:35:34 723

原创 强化学习导论 | 第二章 多臂赌博机

这本书第一部分的内容是表格解决方法(即用表格来存储价值函数,从而选择最优动作)。但这类方法仅适用于状态空间和动作空间不大的情况下。本章要讲的赌博机问题只存在一个状态。多臂赌博机问题简介假设在我们面前有kkk个赌博机(即kkk个动作),每当我们选择一个赌博机,并且摇动它的摇杆时,就会得到一个数值奖励。我们的目标是最大化一定时间内总的奖励。由于摇动一个赌博机的摇杆得到的奖励是不确定的,所以某个动...

2020-02-20 16:14:50 348

原创 mathdqn代码记录

mathdqn代码github地址对应于论文《MathDQN: Solving Arithmetric Word Problems via Deep Reinforcement Learning》代码主体data文件夹中保存了AI2数据集的相关信息,包括每个题目的解析结构数据、训练集和测试集划分的数据等等。model文件夹中保存了训练过程中的模型文件。predict文件夹中包含模型预...

2020-02-18 21:37:55 492 2

原创 强化学习导论 | 第一章 简介

概要主要从四个方面介绍:强化学习是什么?解决什么问题?用什么样的方式解决问题?强化学习的重要概念强化学习是什么?强化学习是一个序列决策问题。即处在当前状态应该做出什么样的动作。强化学习的思想就是在和环境的不断交互中,最大化奖励。以游戏为例,采取某个策略赢得游戏,则“强化”这个策略,即倾向于选择该策略,以取得好的结果。当然,这里也涉及强化学习中的探索(explpration)和利...

2020-02-17 21:10:20 414

原创 论文笔记 | MathDQN: Solving Arithmetric Word Problems via Deep Reinforcement Learning

简介Lei Wang 和 Dongxiang Zhang团队在AAAI18上发表的文章,使用了DQN来解决MWP(Math Word Problem)问题。Motivation在将问题表达成一个表达式树的时候,有一种方法是枚举所有的操作数,组成树的叶子节点。这种方法所需的搜索空间很大,虽然有一些剪枝的算法可以运用,但仍不能满足需求。在实践中,可以发现Deep Q-netwrok能够处理搜索...

2020-02-17 16:27:21 1061 5

原创 DeepWalk代码解释

代码运行对给定的图数据集生成节点的embedding:先对图中的节点进行随机游走再将随机游走的路径作为Word2Vec的输入,生成节点的embedding执行代码如下:python __main__.py --input ../example_graphs/karate.adjlist --output ../example_graphs/karate.embeddingspyt...

2019-08-29 09:15:06 5562 3

转载 Keras函数式编程(举例超详细)

原文地址:https://zhuanlan.zhihu.com/p/53933876Keras使得创建深度学习模型变得快速而简单。序贯(sequential)API允许你为大多数问题逐层堆叠创建模型。虽然说对很多的应用来说,这样的一个手法很简单也解决了很多深度学习网络结构的构建,但是它也有限制-它不允许你创建模型有共享层或有多个输入或输出的网络。Keras中的函数式(functioanal)...

2019-07-02 13:57:36 5604 6

转载 Keras搭建CNN(手写数字识别Mnist)

MNIST数据集是手写数字识别通用的数据集,其中的数据是以二进制的形式保存的,每个数字是由28*28的矩阵表示的。我们使用卷积神经网络对这些手写数字进行识别,步骤大致为:导入库和模块我们导入Sequential模型(相当于放积木的桌子)from keras.models import Sequential接下来,导入各种层(相当于形状各异的积木)from keras.layers...

2019-07-01 19:48:47 4705 1

原创 SSH免密登录

下面展示了我的三个节点名称和IP地址,其中hdp-nn-01是主节点,其他两个是从节点。主节点hdp-nn-01,IP: 192.168.33.200从节点hdp-dn-01,IP: 192.168.33.201从节点hdp-dn-02,IP: 192.168.33.202目的:想要在hdp-nn-01中免密访问hdp-dn-01和hdp-dn-02。过程:生成主节点的公私钥,然后将...

2019-05-12 17:13:03 207

原创 MNIST入门——softmax回归

Softmax回归形式:y=softmax(Wx+b)y = softmax(Wx+b)y=softmax(Wx+b)交叉熵损失函数Hy′(y)=−∑iyi′log(yi)H_{y'}(y) = -\sum_{i}y_i'log(y_i)Hy′​(y)=−i∑​yi′​log(yi​)在这里,我们要利用softmax回归预测图中的数字yyy是我们预测...

2019-05-08 19:05:43 517

原创 机器学习——模型、策略、算法(tensorflow入门)

这里是一个简单的线性拟合的例子,利用numpy生成一些数据,其中要拟合的参数是WWW和bbb,原数据中的W=[0.1,0.2],b=0.3W=[0.1, 0.2],b=0.3W=[0.1,0.2],b=0.3。在机器学习的算法中,我们一般有三个部分:模型:即决策函数策略:求解最优解的决策函数,即损失函数算法:最后的求解(优化过程)下面给出这个简单的例子,然后来了解上面的三个部分分别对...

2019-05-08 14:47:04 522

原创 查看GPU使用情况

在使用GPU的时候,不知道GPU和显存的使用情况,这时候可以输入以下命令查看:Ubuntu系统中输入:nvidia-smiWindows系统中:在C:\Program Files\NVIDIA Corporation\NVSMI里找到文件nvidia-smi.exe,把该文件拖到命令提示符窗口中即可。得到的GPU和显存状态图如下:这是服务器上特斯拉K80的信息。上面的表格...

2019-05-05 14:51:35 4842

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除