自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+

山不过来,我就过去

个人博客:http://bei.dreamcykj.com 逐渐搬家中。

  • 博客(63)
  • 资源 (13)
  • 收藏
  • 关注

原创 关于使用Notion的board做工作安排这件事

也可以在每项工作中增加具体的工作细节,对增加文档附件这些也很友好,但在实际应用中存在一定的局限性,比如说某项工作,是阶段性的完成或者暂缓,这些工作该怎么处理呢?后面分别把自己建的Board看板和官方给的Tasks List模板转换为表格形式,发现新建的Board看板的属性Status这一列的值也只有三种,不能修改或增加,而模板中属性Status的值是可以增加和修改的,在增加新值后,转化为看板视图时,就会多一列,之前也用过一段时间的Notion,所以就想着再尝试一下Notion里面的Board看板。

2023-05-04 18:22:06 963 1

原创 利用bat批处理命令实现Hexo文章的自动创建和部署

之前每次写文章时都是手动的使用命令创建文件,写好后又通过相应的命令将其部署到github上,然后一直就在想,能不能通过bat命令来实现这些机械性的操作,本文就详细介绍这个过程。1 背景想要利用bat批处理命令实现每次写文章时那些机械性的重复敲命令的过程,然后在网上搜了下,还真有一些大佬用了这种方法来实现,然后就参照他们的代码进行了初步实验。发现真的可行。下面就给出相应的脚步。2 具体实...

2020-04-12 14:11:23 459

原创 我的搬砖工具(科研工具)推荐-附下载链接

论文搜索:semantic scholar or 谷歌学术 or 谷歌学术搜索按钮插件NLP论文list: ACL Anthology第一个国内都可以访问,后面的需要帆樯,如果学校图书馆可以上谷歌学术的话,可以直接使用后两个。做自然语言处理的可以在ACL网站上找最新的论文。文献管理工具:Mendeley之前不习惯用文献管理工具,就把论文分门别类的放在指定的文件夹下,但是找起...

2019-12-20 20:47:26 1491

原创 300行python代码从零开始构建基于知识图谱的电影问答系统5-答案获取

啦啦啦,终于快写完了,虽然我也知道并没有写什么实质性的东西,至少我坚持下来啦,后面再慢慢多拧拧,少一些水分。在上一篇中,主要介绍了如何从接收到的用户问题中抽取关键信息,以及如何识别用户的意图,那么接下来就将介绍在得到了这些信息后,如何在知识图谱中查询答案。我在处理这个问题时,想得很直接,简单来说,每个问题模板就对应了一个用户意图,那么就按照每个意图来写查询语句,这是一种简单粗暴的方法,优点就...

2019-05-08 11:05:48 9641 54

原创 300行python代码从零开始构建基于知识图谱的电影问答系统4-用户问题预处理

今天天气不怎么好,我在五月份穿了三件衣服…这篇主要介绍对用户问题的处理,也就是从获取用户问题到明白用户意图这个过程,主要涉及到命名实体识别(这个任务简单,我就用词性标注来代替了),问题分类,以及填充问题模板这几个部分。介绍的时候,可能会用一些代码来说明,但是下面列出来的代码并不完整,完整的代码请参照github。这些代码只是辅助理解整个过程,这样去看代码的时候才容易理清函数之间的来龙去脉。再...

2019-05-07 10:31:44 13868 31

原创 300行python代码从零开始构建基于知识图谱的电影问答系统3-实验环境和实验数据准备

貌似很久没有写了,这段时间一直在忙着准备复试,就有点耽误了,好吧,今天继续写。你们的魔鬼又来啦 (什么鬼在上一篇中,我对整个系统的业务逻辑啰里啰唆的梳理了一遍,如果你被我绕晕了,那也没关系,因为不用看上面那篇也能继续往下走,当你自己理清楚他的逻辑的时候,你就会有一种踏破铁鞋无觅处,柳暗花明又一村的感觉,好吧下面言归正传。这一篇主要介绍实验的准备工作,也就是为后续工作铺平道路,主要包含实验...

2019-05-06 20:56:39 18108 28

原创 300行python代码从零开始构建基于知识图谱的电影问答系统2-系统业务逻辑介绍

昨天把这个教程的目录给理出来了,然后今天就想趁着这满腔热情(无心搬砖)把剩下的教程也写了。 对于整个系统,不管具体细节是怎么实现的,是逻辑一定要理清楚,于是这一节主要介绍各个模块的逻辑,为什么要这么做。首先我简单的画了一个示意图(这叫啥图我也还给软件工程老师了,肯定不规范,帮老师画了一上午的图,心都累了,将就着看吧)从第一部分的目录和上面的示意图我们我们都可以了解到,实际上要处理的就是那...

2019-04-16 16:38:42 13673

原创 300行python代码从零开始构建基于知识图谱的电影问答系统-目录

平时除了看论文还是看论文,感觉有点无聊,于是嘛就想着搞点东西来玩玩,然后就搞了一个非常简单的基于知识图谱的电影问答系统。系统是用python实现的,大概只花了1天吧,代码也仅有300多行,可以说是很容易上手了。然后在这里也简单的记录下整个搭建过程,给那些像我一样想玩玩的童鞋一些参考,大佬可以忽略。首先给来看看我们要实现的是什么东西,效果图如下:完成这个系统主要涉及到以下一些知识点,其实知...

2019-04-15 19:45:05 32066 64

原创 Beam search 算法的通俗理解

Beam search 算法在文本生成中用得比较多,用于选择较优的结果(可能并不是最优的)。接下来将以seq2seq机器翻译为例来说明这个Beam search的算法思想。在机器翻译中,beam search算法在测试的时候用的,因为在训练过程中,每一个decoder的输出是有与之对应的正确答案做参照,也就不需要beam search去加大输出的准确率。有如下从中文到英语的翻译:中文:我 ...

2019-04-11 21:47:47 18581 10

原创 【论文笔记14】Gated-Attention Readers for Text Comprehension

本文主要介绍GA reader模型的基本思想,由论文《Gated-Attention Readers for Text Comprehension》提出,论文直通车1 论文概述本篇论文的思想其实是很简单的,可以把其看成是AS reader模型的扩展,尽管模型简单,但是也取得了不错的成绩,也证明了乘法操作机制带来的效果显著。值得一提的是,论文中的相关工作部分,对之前的模型进行了分门别类的概述,这...

2019-04-03 14:27:56 468 2

原创 【论文笔记13】Attention-over-Attention Neural Networks for Reading Comprehension

本文主要介绍AoA reader 的模型结构,由论文《Attention-over-Attention Neural Networks for Reading Comprehension》提出,论文直通车1 论文概述该论文针对机器阅读理解任务,提出了AoA reader模型,在CNN/Daily Mail 和CBT数据集上取得了不错的效果。2 模型细节模型的结构图如上图所示,主要包含了以...

2019-04-02 15:56:56 550

原创 【论文笔记12】Iterative Alternating Neural Attention for Machine Reading

1 《Iterative Alternating Neural Attention for Machine Reading》(1)论文创新点这个模型的文章和问题在真正使用时,都是根据前一时刻的隐层状态,动态的表示成一个向量;在更新状态时,使用了gated机制(虽然看起来有点复杂)。(2)论文模型模型的整体结构图如下所示:接下来将对该模型上的组成部分做简单的介绍。bidirect...

2019-03-30 21:42:48 474

原创 pytorch中LSTM输出问题

给出结论便于查询,具体分析过程见聊一聊PyTorch中LSTM的输出格式output保存了最后一层,每个time step的输出h,如果是双向LSTM,每个time step的输出h = [h正向, h逆向](同一个time step的正向和逆向的h连接起来)。h_n保存了每一层,最后一个time step的输出h,如果是双向LSTM,单独保存前向和后向的最后一个time step的输出h...

2019-03-18 19:20:10 4719

原创 visdom无法正常使用、只有蓝屏

如果出现蓝屏情况,说明服务是能够正常启动的,只是前端页面显示有问题,这些前端页面一般要翻墙才能下载,所以只要下载这些文件放进去就可以了。点我下载文件正常运行结果:下载后直接替换static文件即可,static目录下的文件情况如下:css目录下的文件情况如下:fonts目录下文件情况如下:js目录下的文件情况如下:点我下载文件...

2018-12-19 21:32:46 4572 5

原创 【论文笔记11】TRACKING THE WORLD STATE WITH RECURRENT ENTITY NETWORKS

这个模型也就是前面提到的动态记忆,这篇论文来自ICLR2017,论文比笔记还是参考了北邮的两位大佬的博客,后面给出了原博客地址。论文提出了一种新的动态记忆网络,使用固定长度的记忆单元来存储世界上的实体,每个记忆单元对应一个实体,主要存储该实体相关的属性(如一个人拿了什么东西,在哪里,跟谁等等),并且该记忆会随着输入内容实时更新。多个记忆槽之间相互独立,由(key,value)组成。key用来标识...

2018-12-12 17:29:12 468

原创 【论文笔记10】Key-Value Memory Networks for Directly Reading Documents

上个月看了Facebook的记忆网络系列,前面的两篇论文的笔记看完就整理了,后面这几篇就耽误了,最近又看了一遍,于是及时整理,不然又忘了。这篇文章主要参考北邮的两位大佬(北邮张博、知乎-呜呜哈)的文章,这两个大佬是真的厉害Orz,他们的文章我在最后面贴出了链接。为了自己更好的理解,部分地方我进行了细化,也有些地方进行了省略。1 模型结构这是来自ACL2016的论文,它修改基本的端到端结构,使其...

2018-12-12 16:31:15 2726

原创 【论文笔记09】Teaching Machines to Read and Comprehend

本文主要做出了两个大的贡献:给出了阅读理解数据集的构造方法,并开源了两个阅读理解数据集;提出了三种神经网络模型作为baseline,以方便后面的研究者进行相关的研究。1 数据构造主要是从新闻网站中抓取新闻作为文章,新闻的摘要去掉一个实体词成为query,被去掉的单词作为答案。为了防止模型对训练数据的过度依赖,于是将文章和问题中的实体进行匿名化和随机替换。具体见官方教程2 三种神经网络...

2018-11-19 20:10:27 435

原创 【论文笔记08】Dynamic Entity Representation with Max-pooling Improves Machine Reading

本文模型之前的模型都是用一个静态的向量来表示一个entity,与上下文没有关系。而本文最大的贡献在于提出了一种动态表示entity的模型,根据不同的上下文对同样的entity有不同的表示。模型还是采用双向LSTM来构建,这时实体表示由四部分构成,包括两个方向上的隐层状态,,以及该实体所在句子的最后隐层状态,也就是该实体所在的上下文表示。如图所示。问题向量的计算与动态实体计算过程类似,这里需要填...

2018-11-17 21:25:44 368

原创 【论文笔记07】End-To-End Memory Networks

1 背景(1)在记忆网络中,主要由4个模块组成:I、G、O、R,前面也提到I和G模块其实并没有进行多复杂的操作,只是将原始文本进行向量表示后直接存储在记忆槽中。而主要工作集中在O和R模块,O用来选择与问题相关的记忆,R用来回答,而这两部分都需要监督,也就是需要知道O模块中选择的记忆是否正确,R生成的答案是否正确,这种模型多处需要监督,而且不太容易使用常见的BP算法进行训练,这就限制了模型的推广。...

2018-11-17 20:30:59 361

原创 【论文笔记06】Memory Network

1 问题和解决办法(1)问题当遇到有若干个句子并且句子之间有联系的时候,RNN和LSTM就不能很好地解决;对于句子间的这种长期依赖,于是需要从记忆中提取信息;(2)解决办法本文提出了实现长期记忆的框架,实现了如何从长期记忆中读取和写入,此外还加入了推理功能;在QA问题中,长期记忆是很重要的,充当知识库的作用,从其中获取长期记忆来回答问题。2 模型框架(1)模型由4个模块...

2018-11-02 16:59:22 454

原创 【论文笔记05】WORDS OR CHARACTERS? FINE-GRAINED GATING FOR READING COMPREHENSION

1 问题和数据集1.1 问题这是一篇以阅读理解为任务的文章,但在具体处理这个任务时,主要解决数据特征等的表示问题。在提取文本特征时,通常只对单词做词嵌入,而忽略了字符级的特征。1.2 数据集CBTWDWSQuAD2 目前已有方法2.1 单词级表示(1)from a lookup table(2)每个单词用一个向量表示(3) 擅长表示单词的语义2.2 字符级表...

2018-10-22 20:03:33 426

原创 【论文笔记04】TriviaQA_A Large Scale Distantly Supervised Challenge Dataset for Reading Comprehension

1 论文主要内容本文是一篇资源论文,主要发布了用于检索式问答或阅读理解的数据集Trivia QA;对该数据集的质量和数量进行了分析,并创建了baseline,用于具体评估数据集的质量。2 Trivia QA数据集的特点问题比较复杂在问题和相应的答案句子中有大量的句法或词汇变化需要更多的跨句推理来得到答案3 本文的主要贡献发布了一个阅读理解数据集提出了分析量化数据集...

2018-10-22 15:47:35 2694

转载 深度学习中的注意力机制

最近读到论文《Attention Is All You Need》,在网上也查了很多资料,然后又对这篇论文重新理解了下,收获颇多。在这过程中,发现一篇很好的文章,来自张俊林博士的深度学习中的注意力机制(2017版)。强烈推荐,难得的好文。如果要想理解注意力机制的思想,看这篇文章绝对够了。原链接:https://blog.csdn.net/malefactor/article/details/78...

2018-10-18 19:21:59 636

原创 tensorflow中sequence_loss_by_example()函数的计算过程(结合TF的ptb构建语言模型例子)

1 softmax2 交叉熵

2018-10-15 20:18:30 7706 6

转载 一文搞懂交叉熵在机器学习中的使用,透彻理解交叉熵背后的直觉

本文转自:https://blog.csdn.net/tsyccnh/article/details/79163834 原作者:史丹利复合田 关于交叉熵在loss函数中使用的理解交叉熵(cross entropy)是深度学习中常用的一个概念,一般用来求目标与预测值之间的差距。以前做一些分类问题的时候,没有过多的注意,直接调用现成的库,用起来也比较方便...

2018-10-14 15:56:24 317

原创 【论文笔记03】ReasoNet: Learning to Stop Reading in Machine Comprehension

1 问题及数据集1.1 问题本论文主要解决一种面向Cloze-style(填空式)的阅读理解(问答)问题1.2 数据集(1)CNN&Daily Mail(2)SQuAD(3)Graph Reachability datase2 已有方法2.1 单轮推理(1)特点单轮推理模型主要利用注意力机制来强调文档中与问题相关的那些部分,计算问题和文档子单元的相应加权表示之...

2018-10-13 20:27:03 1201 2

原创 【论文笔记02】Text Understanding with the Attention Sum Reader Network

1 问题及数据集1.1 问题给定较长一段话的context和一个较短的问题,以及一些candidate answers,训练出可以准确预测正确答案的模型,本模型主要针对命名实体和常用名词这两种词性的单词进行填空。1.2数据集(1)CNN&Daily Mail(2)CBT2 已有方法(1)Attentive and Impatient Readers(2)Attentive...

2018-10-13 09:37:05 701 2

原创 【论文笔记01】Phrase-Based & Neural Unsupervised Machine Translation

这篇论文来源于EMNLP2018,论文地址,这次采用了思维导图的方式记录笔记,思维导图的缩略图如下:缩略图有些模糊,于是我上传服务器了,可以直接点击查看。导图地址...

2018-10-08 20:05:54 1523

原创 從零開始的 Sequence to Sequence

前段时间研究了下seq2seq,在网上查了写资料,但这些资料大都相同,要么就论文中的几个创新点来谈,要么就keras或者tensorflow提供的seq2seq例子来简单介绍下。很少有文章讲清楚了是怎么训练的,怎么预测的,后来翻到了一位同学的个人博客,他从RNN到LSTM再到seq2seq都讲得非常清楚。具体见链接:從零開始的 Sequence to Sequence...

2018-10-04 16:14:48 343

翻译 【论文翻译&笔记01】How Much Reading Does Reading Comprehension Require?

0 Abstract最近的许多论文都涉及到阅读理解,他们一般都包括(问题,段落,答案)元组。或许,一个模型必须综合问题和段落两者的信息来预测相应的答案。然而,尽管人们对这个话题产生了浓厚的兴趣,数百篇已发表的论文争夺排行榜的主导地位,但关于许多流行基准测试难度的基本问题仍未得到解答。在这篇论文中,我们为bAbI、SQuAD、CBT、CNN和Who-did-What的数据集建立了合理的基线,发现只...

2018-10-01 11:05:32 613

原创 一种最原始的混沌神经元构造过程

title: 一种最原始的混沌神经元构造过程date: 2018年9月25日13:55:30thumbnail: https://raw.githubusercontent.com/xiongzongyang/hexo_photo/master/ch.jpgtags:- 笔记- 混沌神经网络categories: [NOTES,Chaotic]一 混沌神经元的构造(1)一种混沌...

2018-09-25 13:56:21 629

原创 利用sklearn实现多分类demo

title: 利用sklearn实现多分类demo date: 2018-9-3 19:30:38 thumbnail: https://raw.githubusercontent.com/xiongzongyang/hexo_photo/master/iris.png tags: - 自然语言处理 - 文本分类 categories: [NLP,Classi...

2018-09-03 19:37:27 7023

原创 DataFrame的索引选项

经常用到DataFrame的索引切片,而且容易搞混,所以将《利用python进行数据分析》中的相关总结贴出来

2018-08-30 16:44:21 1530

原创 Keras examples-imdb_cnn[利用卷积网络对文本分类]

1 任务描述本实验室利用卷积神经网络对imdb数据进行文本分类2 实验过程(1)引入实验中所涉及到的包数据集包、数据预处理包、网络模型包、网络各层结构所对应的包from __future__ import print_functionfrom keras.preprocessing import sequencefrom keras.models import S...

2018-08-28 17:21:13 1389

原创 Keras中加载预训练的词向量

经常需要加载预训练的词向量,有时候会脑抽忘记,所以记录下。vocab={} # 词汇表为数据预处理后得到的词汇字典# 构建词向量索引字典## 读入词向量文件,文件中的每一行的第一个变量是单词,后面的一串数字对应这个词的词向量glove_dir="./data/zhwiki_2017_03.sg_50d.word2vec"f=open(glove_dir,"r",encoding=&a

2018-08-27 18:25:48 5334 3

原创 利用nltk可视化stanford coreNLP构建的中文句法树

在stanford coreNLP的网页中直接以树的形式可视化了解析结果。但在IDE中,利用python调用coreNLP server后返回的是字符串格式。这是可以利用nltk中的Tree类来可视化解析结果。代码如下:from nltk.tree import Treefrom stanfordcorenlp import StanfordCoreNLPsentence = '我叫小米'...

2018-08-22 21:58:58 7631 3

原创 两种在Python中使用Stanford CoreNLP的方法

这两种方法都需要提前下载CoreNLP最新的压缩包,再下载对应的语言jar包。从CoreNLP下载页面下载。将压缩包解压得到目录,再将语言的jar包放到这个目录下即可。并且要求java -version>=1.8。 接下来就是利用python对该工具的使用进行一个封装,这里主要给出两种常用的python wrapper。1、使用stanfordcorenlp接口见链接:Python...

2018-08-22 11:20:37 15180 17

原创 ROC原理介绍及利用python实现二分类和多分类的ROC曲线

对于分类器,或者说分类算法,评价指标主要有precision,recall,F-score1,以及即将要讨论的ROC和AUC。本文通过对这些指标的原理做一个简单的介绍,然后用python分别实现二分类和多分类的ROC曲线。 1 基本概念一个分类模型(分类器)是一个将某个实例映射到一个特定类的过程.分类器的结果可以是给出该实例所属的类别,也可以给定该实例属于某个类别的概率。 首先来...

2018-08-19 16:48:41 106847 61

原创 Keras examples-imdb_bidirectional_lstm[利用Bi-LSTM实现情感分类]

1 任务描述本实验是训练一个双向LSTM,并在IMDB数据集上完成情感分类任务2 具体实现(1)引入必要的包from __future__ import print_functionimport numpy as npfrom keras.preprocessing import sequencefrom keras.models import Sequential...

2018-08-16 16:24:05 4034

原创 Keras examples-babi_rnn

1 任务描述本实验利用提供的20个种类的数据集,完成KQA的任务。2 具体实现任务整体流程如图所示: (1)引入必要的包from __future__ import print_functionfrom functools import reduceimport reimport tarfile # 处理压缩文件import numpy as npfro...

2018-07-24 21:48:44 770 3

Hulu笔记电子档-百面-机器学习-高清-带书签

个人笔记总结(划掉,近百个机器学习和深度学习知识点总结,面试必备。电子档,带书签,,收录了超过100道机器学习算法工程师的面试题目和解答,

2019-07-22

visdom可视化需要下载的文件

visdom可视化需要下载的完整文件,可以下载下来直接替换visdom目录下的static文件,该资源所需积分是1分(有时候csdn会乱修改积分数),如果积分不够下载不了的话,可以和我邮件联系获取资源。

2018-12-19

便利贴小程序

便利贴小程序

2018-09-05

电子科技大学计算机图形学3Dview

电子科技大学研究生计算机图形学project1-3D VIEW完整代码,可直接运行

2018-09-05

鸢尾花数据

鸢尾花数据集,适合拿来做测试用 txt格式,

2018-08-17

重庆武隆酒店评论数据集

重庆武隆酒店评论数据集重庆武隆酒店评论数据集重庆武隆酒店评论数据集

2018-04-11

测试-谭松波--酒店评论语料

测试-谭松波--酒店评论语料测试-谭松波--酒店评论语料测试-谭松波--酒店评论语料测试-谭松波--酒店评论语料

2018-04-11

机器学习实战datingTestSet2

机器学习实战datingTestSet2数据集,机器学习实战datingTestSet2数据集,机器学习实战datingTestSet2数据集,

2018-04-11

聊天机器人的构建方法:基于模板,检索和深度学习(pdf)

聊天机器人的构建方法:基于模板,检索和深度学习,该文档来自MDCC 2016中国移动开发者大会。刘升平发表了题为“聊天机器人的构建方法:基于模板,检索和深度学习”的主题演讲,欢迎下载!

2018-03-22

聊天机器人的构建方法:基于模板,检索和深度学习

该文档来自MDCC 2016中国移动开发者大会。刘升平发表了题为“聊天机器人的构建方法:基于模板,检索和深度学习”的主题演讲,欢迎下载!

2018-03-22

Git-2.8.1-64-bit.exe

Git-2.8.1-64-bit.exe 免费下载

2017-08-07

作业调度算法源代码

#include #include //定义结构体数据类型 typedef struct jnode{ int index; int a; int b; int tag; }jobtype;

2015-12-07

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除