5 土豆洋芋山药蛋

尚未进行身份认证

我要认证

理性的生存,诗意的栖居。

等级
TA的排名 4k+

ROUGE的理解

ROUGE的理解ROUGE表示Recall-Oriented Understudy for Gisting Evaluation,这是在文本摘要以及机器翻译中重要的评价指标。它通过将自动产生的摘要或翻译与一组参考摘要(通常是人工产生的)进行比较来工作。目前在文本摘要任务中最常用的评价方法是ROUGE(Recall-Oriented Understudy for Gisting Evaluation,来源于2003的paper Automatic Evaluation of Summaries Using

2020-10-24 09:49:45

【论文阅读 - AAAI 2020】TreeGen: A Tree-Based Transformer Architecture for Code Generation

TreeGen: A Tree-Based Transformer Architecture for Code GenerationConference: AAAI 2020Autors:Zeyu Sun,† Qihao Zhu,† Yingfei Xiong,∗† Yican Sun,† Lili Mou,‡ Lu Zhang† †Key Laboratory of High Confidence Software Technologies (Peking University), MoE; Sof

2020-10-15 16:49:59

【Posts阅读】关于 Deep Sets 和 Neural Processes的简单介绍

A Gentle Introduction to Deep Sets and Neural Processes关于 Deep Sets个 Neural Processes的简单介绍Link: https://gordonjo.github.io/post/deepsets_nps/Author:Jonathan GordonMachine Learning PhD StudentMy research interests include probabilistic machine learni

2020-10-06 19:36:18

【论文阅读-ASE 2020】利用单词重叠信息的代码检索 OCoR: An Overlapping-Aware Code Retriever

OCoR: An Overlapping-Aware Code RetrieverConference: ASE 2020Authors:摘要代码搜索任务是通过给出一段自然语言描述,模型能够找到一系列最相关的代码片段,由此来帮助开发人员重用代码。然而现有的方法都无法来专门捕获一个重要的特征:单词重叠(overlaps)。有不同的开发人员写的使用的不同名称可能是相关联的,比如“message”和“msg”它们表达的意思很可能是相同的。而且对于程序语言的变量名称和相应的自然语言描述之间的overl

2020-10-06 15:33:01

【论文阅读 - AAAI 2019】Abstractive Summarization: A Survey of the State of the Art

Abstractive Summarization: A Survey of the State of the ArtConference: AAAI 2019Authors:Hui Lin, Vincent NgHuman Language Technology Research Institute University of Texas at Dallas Richardson, TX 75083–0688 {hui,vince}@.hlt.utdallas.edu论文链接:https://ww

2020-09-26 22:28:24

C程序在内存中的布局与常见的漏洞

1. C程序员通用的漏洞指南C语言中大多数漏洞都与缓冲区溢出和字符串操作相关,在大多数情况下,都会导致段错误(segmentation fault),但仅过精心设计的输入值,但是,根据体系结构和环境特别设计的恶意输入值可能会导致任意代码的执行。下面列出了最常见的错误和建议的修复/解决方案。gets函数gets()函数不会检查缓冲区的长度,常常会成为一个漏洞。有漏洞的代码:#include...

2020-06-16 21:32:43

使用tf.data 加载文件夹下的图片集合并分类

Tensorflow原始教程链接在官网:https://tensorflow.google.cn/tutorials/load_data/images简化版:https://colab.research.google.com/drive/146IoL0nVN7HOA3sUJ08zAGbngmwTArDp?usp=sharing但原始教程中比较繁琐,对于想要直接使用的情况的话,本文将如下要点提炼出来。1、数据假设你有如下形式的数据:每一个类别的名称就是文件夹名称,每个文件夹下面放置该类的图片。

2020-06-16 21:17:01

【转载】linux screen 命令详解

转载:David_Tanglinux screen 命令详解https://www.cnblogs.com/mchina/archive/2013/01/30/2880680.html一、背景系统管理员经常需要SSH 或者telent 远程登录到Linux 服务器,经常运行一些需要很长时间才能完成的任务,比如系统备份、ftp 传输等等。通常情况下我们都是为每一个这样的任务开一个远程终...

2020-05-02 13:18:18

联邦学习(Federated Learning)白皮书

联邦学习白皮书下载地址:https://cn.fedai.orghttps://img.fedai.org.cn/wp-content/uploads/pdf/联邦学习白皮书_v2.0.pdf2020年4月8日,微众银行人工智能部联合电子商务与电子支付国家工程实验室(中国银联)、鹏城实验室、平安科技、腾讯研究院、中国信通院云大所、招商金融科技等多家企业和机构发布了《联邦学习白皮书V 2....

2020-04-28 11:56:34

联邦学习(Federated Learning)介绍

参考资料:Tensorflow官网教程:https://www.tensorflow.org/federated/联邦学(federated learning)习生态:https://cn.fedai.orgfederated learning/联邦学习:https://daiwk.github.io/posts/dl-federated-learning.htmlFederated ...

2020-04-21 13:44:16

NLP从Seq2Seq到ALBERT模型理解与实践

今天来推荐一下自己开源的一个小项目,主要包括NLP中一些经典模型的理解与相关实践,从最初的Seq2Seq到目前比较流行的BERT模型,以及BERT模型改进——ALBERT模型等。链接地址:https://github.com/LIANGQINGYUAN/NLP-Notebook下面包含这个仓库的基本学习路线、目录和示例。基本学习路线下面是模型实践的基本学习路线:图片内年分为对应模型的...

2020-04-19 00:15:23

【科研】经典演讲“You and Your Research”

在贝尔通讯研究研讨会系列的一次研讨会上,加利福尼亚蒙特雷海军研究生院教授,贝尔实验室退休科学家Richard W. Hamming博士作了一个非常有趣且令人振奋的演讲,“You and Your Research” 。这次演讲的重点是Hamming对以下问题的观察和研究:“为什么只有少部分的科学家做出了巨大的贡献,而大多数科学家的贡献都在历史中被遗忘了?”。根据他40多年的经验(其中30年在贝尔实...

2020-03-20 21:54:29

【NLP】ALBERT:瘦身版的BERT模型

引言BERT是一种预训练模型,有很多预训练模型,例如skip-gram,cbow可以用在embedding的时候的预训练模型,但参数比较少,我们得在加上很多其他层来训练。ALBERT也是一种预训练模型。在深度学习中,我们知道把网络变深可以增加模型的效果,但将BERT模型的网络变深,hiddne size变大之后将会很大训练,因为参数的量级达到了十几G。所以就引出了ALBERT的核心研究问题:...

2020-03-17 13:59:05

【NLP】李宏毅老师ELMO, BERT, GPT讲解【笔记】

零、引例首先来看一个例子,下面有四句话,每一句话中都有“bank”这个单词:1、Have you paid that money to the bank yet ?2、It is safest to deposit your money in the bank .3、The victim was found lying dead on the river bank .4、They sto...

2020-03-07 19:33:48

【NLP】Transformer机制与实战(Tensoflow2.x)

一、基本框架Transformer模型是Google在2017年的论文《Attention is all you need》中提出的一种模型。Transformer之前的Seq2Seq的模型中,Encoder和Decoder中的基本单元结构是RNN系列(如LSTM,GRU等)的单元。但在Transformer中并没有使用这些单元结构。首先来说一下transformer和LSTM的最大区别, ...

2020-03-06 21:48:19

【NLP】Attention机制与实战(Tensoflow2.x)

Attention是一种用于提升基于RNN(LSTM或GRU)的Encoder + Decoder模型效果的机制(Mechanism),一般称为Attention Mechanism。Attention给模型赋予了区分辨别的能力,例如,在机器翻译、语音识别应用中,为句子中的每个词赋予不同的权重,使神经网络模型的学习变得更加灵活(soft),同时Attention本身可以做为一种对齐关系,解释翻译输...

2020-03-03 22:09:01

PRML《模式识别与机器学习》的Python3代码实现

项目地址:Python实现:https://github.com/ctgk/PRMLMatlab实现:https://github.com/PRML/PRMLTPRML是一本有关机器学习的入门必备书籍,与“西瓜书”齐名,目前豆瓣评分9.5分:书籍评价引用网友对PRML的评价:“个人认为这是机器学习领域必读的一本书,甚至是目前最好的书。但这本书太过于 Bayesian, 作者对任何...

2020-03-03 21:04:38

【NLP】Seq2Seq模型与实战(Tensoflow2.x、Keras)

一、从RNN到Seq2Seq根据输出和输入序列不同数量rnn可以有多种不同的结构,不同结构自然就有不同的引用场合。如下图,one to one 结构,仅仅只是简单的给一个输入得到一个输出,此处并未体现序列的特征,例如图像分类场景。one to many 结构,给一个输入得到一系列输出,这种结构可用于生产图片描述的场景。many to one 结构,给一系列输入得到一个输出,这种结构可用...

2020-02-20 18:11:47

第4章(4.4~4.6节)自定义层与计算【深度学习计算】--动手学深度学习【Tensorflow2.0版本】

项目地址:https://github.com/TrickyGo/Dive-into-DL-TensorFlow2.0UC 伯克利李沐的《动手学深度学习》开源书一经推出便广受好评。很多开发者使用了书的内容,并采用各种各样的深度学习框架将其复现。现在,《动手学深度学习》书又有了一个新的复现代码版本——TensorFlow2.0 版,短时间内成为了github上千star项目,欢迎关注。文章...

2020-01-31 22:31:50

第4章(4.1~4.2节)模型构造与参数【深度学习计算】--动手学深度学习【Tensorflow2.0版本】

项目地址:https://github.com/TrickyGo/Dive-into-DL-TensorFlow2.0UC 伯克利李沐的《动手学深度学习》开源书一经推出便广受好评。很多开发者使用了书的内容,并采用各种各样的深度学习框架将其复现。现在,《动手学深度学习》书又有了一个新的复现代码版本——TensorFlow2.0 版,短时间内成为了github上千star项目,欢迎关注。文章...

2020-01-31 16:17:23

查看更多

CSDN身份
  • 博客专家
勋章 我的勋章
  • GitHub
    GitHub
    绑定GitHub第三方账户获取
  • 签到新秀
    签到新秀
    累计签到获取,不积跬步,无以至千里,继续坚持!
  • 技术圈认证(专家版)
    技术圈认证(专家版)
    博客专家完成年度认证,即可获得
  • 推荐红人
    推荐红人
    发布高质量Blink获得高赞和评论,进入推荐栏目即可获得
  • 新人勋章
    新人勋章
    用户发布第一条blink获赞超过3个即可获得
  • 专栏达人
    专栏达人
    授予成功创建个人博客专栏的用户。专栏中添加五篇以上博文即可点亮!撰写博客专栏浓缩技术精华,专栏达人就是你!
  • 持之以恒
    持之以恒
    授予每个自然月内发布4篇或4篇以上原创或翻译IT博文的用户。不积跬步无以至千里,不积小流无以成江海,程序人生的精彩需要坚持不懈地积累!
  • 1024勋章
    1024勋章
    #1024程序员节#活动勋章,当日发布原创博客即可获得
  • 勤写标兵Lv2
    勤写标兵Lv2
    授予每个自然周发布4篇到6篇原创IT博文的用户。本勋章将于次周周三上午根据用户上周的博文发布情况由系统自动颁发。
  • 学习力
    学习力
    《原力计划【第二季】》第一期主题勋章 ,第一期活动已经结束啦,小伙伴们可以去参加第二期打卡挑战活动获取更多勋章哦。
  • 博客之星-入围
    博客之星-入围
    授予每年博客之星评选结果第21-200名的用户
  • 原力新人
    原力新人
    在《原力计划【第二季】》打卡挑战活动中,成功参与本活动并发布一篇原创文章的博主,即可获得此勋章。