6 闰土不用叉

尚未进行身份认证

我要认证

暂无相关简介

等级
TA的排名 3w+

免费临时短信临时邮箱接收验证码

现在大多数软件都需要注册验证,不注册就不给用。对于经常使用的软件来说,注册后可以保存一些信息,还是挺好的,但是对于那些只用一次就不用的软件来说,还必须要注册才能用,还疯狂推送广告,这简直就是耍流氓,比如某剪辑软件。这种情况下可以考虑使用临时手机或者临时邮箱来进行注册验证。1 临时短信验证1.1 网站列表https://yunduanxin.net/https://www.pdflibr....

2020-04-15 11:53:34

利用bat批处理命令实现Hexo文章的自动创建和部署

之前每次写文章时都是手动的使用命令创建文件,写好后又通过相应的命令将其部署到github上,然后一直就在想,能不能通过bat命令来实现这些机械性的操作,本文就详细介绍这个过程。1 背景想要利用bat批处理命令实现每次写文章时那些机械性的重复敲命令的过程,然后在网上搜了下,还真有一些大佬用了这种方法来实现,然后就参照他们的代码进行了初步实验。发现真的可行。下面就给出相应的脚步。2 具体实...

2020-04-12 14:11:23

我的搬砖工具(科研工具)推荐-附下载链接

论文搜索:semantic scholar or 谷歌学术 or 谷歌学术搜索按钮插件NLP论文list: ACL Anthology第一个国内都可以访问,后面的需要帆樯,如果学校图书馆可以上谷歌学术的话,可以直接使用后两个。做自然语言处理的可以在ACL网站上找最新的论文。文献管理工具:Mendeley之前不习惯用文献管理工具,就把论文分门别类的放在指定的文件夹下,但是找起...

2019-05-15 13:15:31

300行python代码从零开始构建基于知识图谱的电影问答系统5-答案获取

啦啦啦,终于快写完了,虽然我也知道并没有写什么实质性的东西,至少我坚持下来啦,后面再慢慢多拧拧,少一些水分。在上一篇中,主要介绍了如何从接收到的用户问题中抽取关键信息,以及如何识别用户的意图,那么接下来就将介绍在得到了这些信息后,如何在知识图谱中查询答案。我在处理这个问题时,想得很直接,简单来说,每个问题模板就对应了一个用户意图,那么就按照每个意图来写查询语句,这是一种简单粗暴的方法,优点就...

2019-05-08 11:05:48

300行python代码从零开始构建基于知识图谱的电影问答系统4-用户问题预处理

今天天气不怎么好,我在五月份穿了三件衣服…这篇主要介绍对用户问题的处理,也就是从获取用户问题到明白用户意图这个过程,主要涉及到命名实体识别(这个任务简单,我就用词性标注来代替了),问题分类,以及填充问题模板这几个部分。介绍的时候,可能会用一些代码来说明,但是下面列出来的代码并不完整,完整的代码请参照github。这些代码只是辅助理解整个过程,这样去看代码的时候才容易理清函数之间的来龙去脉。再...

2019-05-07 10:31:44

300行python代码从零开始构建基于知识图谱的电影问答系统3-实验环境和实验数据准备

貌似很久没有写了,这段时间一直在忙着准备复试,就有点耽误了,好吧,今天继续写。你们的魔鬼又来啦 (什么鬼在上一篇中,我对整个系统的业务逻辑啰里啰唆的梳理了一遍,如果你被我绕晕了,那也没关系,因为不用看上面那篇也能继续往下走,当你自己理清楚他的逻辑的时候,你就会有一种踏破铁鞋无觅处,柳暗花明又一村的感觉,好吧下面言归正传。这一篇主要介绍实验的准备工作,也就是为后续工作铺平道路,主要包含实验...

2019-05-06 20:56:39

300行python代码从零开始构建基于知识图谱的电影问答系统2-系统业务逻辑介绍

昨天把这个教程的目录给理出来了,然后今天就想趁着这满腔热情(无心搬砖)把剩下的教程也写了。 对于整个系统,不管具体细节是怎么实现的,是逻辑一定要理清楚,于是这一节主要介绍各个模块的逻辑,为什么要这么做。首先我简单的画了一个示意图(这叫啥图我也还给软件工程老师了,肯定不规范,帮老师画了一上午的图,心都累了,将就着看吧)从第一部分的目录和上面的示意图我们我们都可以了解到,实际上要处理的就是那...

2019-04-16 16:38:42

300行python代码从零开始构建基于知识图谱的电影问答系统-目录

平时除了看论文还是看论文,感觉有点无聊,于是嘛就想着搞点东西来玩玩,然后就搞了一个非常简单的基于知识图谱的电影问答系统。系统是用python实现的,大概只花了1天吧,代码也仅有300多行,可以说是很容易上手了。然后在这里也简单的记录下整个搭建过程,给那些像我一样想玩玩的童鞋一些参考,大佬可以忽略。首先给来看看我们要实现的是什么东西,效果图如下:完成这个系统主要涉及到以下一些知识点,其实知...

2019-04-15 19:45:05

Beam search 算法的通俗理解

Beam search 算法在文本生成中用得比较多,用于选择较优的结果(可能并不是最优的)。接下来将以seq2seq机器翻译为例来说明这个Beam search的算法思想。在机器翻译中,beam search算法在测试的时候用的,因为在训练过程中,每一个decoder的输出是有与之对应的正确答案做参照,也就不需要beam search去加大输出的准确率。有如下从中文到英语的翻译:中文:我 ...

2019-04-11 21:47:47

【论文笔记14】Gated-Attention Readers for Text Comprehension

本文主要介绍GA reader模型的基本思想,由论文《Gated-Attention Readers for Text Comprehension》提出,论文直通车1 论文概述本篇论文的思想其实是很简单的,可以把其看成是AS reader模型的扩展,尽管模型简单,但是也取得了不错的成绩,也证明了乘法操作机制带来的效果显著。值得一提的是,论文中的相关工作部分,对之前的模型进行了分门别类的概述,这...

2019-04-03 14:27:56

【论文笔记13】Attention-over-Attention Neural Networks for Reading Comprehension

本文主要介绍AoA reader 的模型结构,由论文《Attention-over-Attention Neural Networks for Reading Comprehension》提出,论文直通车1 论文概述该论文针对机器阅读理解任务,提出了AoA reader模型,在CNN/Daily Mail 和CBT数据集上取得了不错的效果。2 模型细节模型的结构图如上图所示,主要包含了以...

2019-04-02 15:56:56

【论文笔记12】Iterative Alternating Neural Attention for Machine Reading

1 《Iterative Alternating Neural Attention for Machine Reading》(1)论文创新点这个模型的文章和问题在真正使用时,都是根据前一时刻的隐层状态,动态的表示成一个向量;在更新状态时,使用了gated机制(虽然看起来有点复杂)。(2)论文模型模型的整体结构图如下所示:接下来将对该模型上的组成部分做简单的介绍。bidirect...

2019-03-30 21:42:48

pytorch中LSTM输出问题

给出结论便于查询,具体分析过程见聊一聊PyTorch中LSTM的输出格式output保存了最后一层,每个time step的输出h,如果是双向LSTM,每个time step的输出h = [h正向, h逆向](同一个time step的正向和逆向的h连接起来)。h_n保存了每一层,最后一个time step的输出h,如果是双向LSTM,单独保存前向和后向的最后一个time step的输出h...

2019-03-18 19:20:10

visdom无法正常使用、只有蓝屏

如果出现蓝屏情况,说明服务是能够正常启动的,只是前端页面显示有问题,这些前端页面一般要翻墙才能下载,所以只要下载这些文件放进去就可以了。点我下载文件正常运行结果:下载后直接替换static文件即可,static目录下的文件情况如下:css目录下的文件情况如下:fonts目录下文件情况如下:js目录下的文件情况如下:点我下载文件...

2018-12-19 21:32:46

【论文笔记11】TRACKING THE WORLD STATE WITH RECURRENT ENTITY NETWORKS

这个模型也就是前面提到的动态记忆,这篇论文来自ICLR2017,论文比笔记还是参考了北邮的两位大佬的博客,后面给出了原博客地址。论文提出了一种新的动态记忆网络,使用固定长度的记忆单元来存储世界上的实体,每个记忆单元对应一个实体,主要存储该实体相关的属性(如一个人拿了什么东西,在哪里,跟谁等等),并且该记忆会随着输入内容实时更新。多个记忆槽之间相互独立,由(key,value)组成。key用来标识...

2018-12-12 17:29:12

【论文笔记10】Key-Value Memory Networks for Directly Reading Documents

上个月看了Facebook的记忆网络系列,前面的两篇论文的笔记看完就整理了,后面这几篇就耽误了,最近又看了一遍,于是及时整理,不然又忘了。这篇文章主要参考北邮的两位大佬(北邮张博、知乎-呜呜哈)的文章,这两个大佬是真的厉害Orz,他们的文章我在最后面贴出了链接。为了自己更好的理解,部分地方我进行了细化,也有些地方进行了省略。1 模型结构这是来自ACL2016的论文,它修改基本的端到端结构,使其...

2018-12-12 16:31:15

【论文笔记09】Teaching Machines to Read and Comprehend

本文主要做出了两个大的贡献:给出了阅读理解数据集的构造方法,并开源了两个阅读理解数据集;提出了三种神经网络模型作为baseline,以方便后面的研究者进行相关的研究。1 数据构造主要是从新闻网站中抓取新闻作为文章,新闻的摘要去掉一个实体词成为query,被去掉的单词作为答案。为了防止模型对训练数据的过度依赖,于是将文章和问题中的实体进行匿名化和随机替换。具体见官方教程2 三种神经网络...

2018-11-19 20:10:27

【论文笔记08】Dynamic Entity Representation with Max-pooling Improves Machine Reading

本文模型之前的模型都是用一个静态的向量来表示一个entity,与上下文没有关系。而本文最大的贡献在于提出了一种动态表示entity的模型,根据不同的上下文对同样的entity有不同的表示。模型还是采用双向LSTM来构建,这时实体表示由四部分构成,包括两个方向上的隐层状态,,以及该实体所在句子的最后隐层状态,也就是该实体所在的上下文表示。如图所示。问题向量的计算与动态实体计算过程类似,这里需要填...

2018-11-17 21:25:44

【论文笔记07】End-To-End Memory Networks

1 背景(1)在记忆网络中,主要由4个模块组成:I、G、O、R,前面也提到I和G模块其实并没有进行多复杂的操作,只是将原始文本进行向量表示后直接存储在记忆槽中。而主要工作集中在O和R模块,O用来选择与问题相关的记忆,R用来回答,而这两部分都需要监督,也就是需要知道O模块中选择的记忆是否正确,R生成的答案是否正确,这种模型多处需要监督,而且不太容易使用常见的BP算法进行训练,这就限制了模型的推广。...

2018-11-17 20:30:59

【论文笔记06】Memory Network

1 问题和解决办法(1)问题当遇到有若干个句子并且句子之间有联系的时候,RNN和LSTM就不能很好地解决;对于句子间的这种长期依赖,于是需要从记忆中提取信息;(2)解决办法本文提出了实现长期记忆的框架,实现了如何从长期记忆中读取和写入,此外还加入了推理功能;在QA问题中,长期记忆是很重要的,充当知识库的作用,从其中获取长期记忆来回答问题。2 模型框架(1)模型由4个模块...

2018-11-02 16:59:22

查看更多

勋章 我的勋章
  • GitHub
    GitHub
    绑定GitHub第三方账户获取
  • 专栏达人
    专栏达人
    授予成功创建个人博客专栏的用户。专栏中添加五篇以上博文即可点亮!撰写博客专栏浓缩技术精华,专栏达人就是你!
  • 持之以恒
    持之以恒
    授予每个自然月内发布4篇或4篇以上原创或翻译IT博文的用户。不积跬步无以至千里,不积小流无以成江海,程序人生的精彩需要坚持不懈地积累!
  • 勤写标兵Lv2
    勤写标兵Lv2
    授予每个自然周发布4篇到6篇原创IT博文的用户。本勋章将于次周周三上午根据用户上周的博文发布情况由系统自动颁发。