自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(43)
  • 收藏
  • 关注

原创 【踩坑】RuntimeError: There were no tensor arguments to this function (e.g., you passed an empty list of

RuntimeError: There were no tensor arguments to this function (e.g., you passed an empty list of Tensors), but no fallback function is registered for schema aten::_cat. This usually means that this function requires a non-empty list of Tensors. Available

2021-11-26 16:08:02 3310 6

原创 【备忘录】nohup指定gpu训练

CUDA_VISIBLE_DEVICES=1 nohup python train.py > nohup.log 2>&1 &

2021-11-03 21:28:13 2766 1

原创 【备忘录】python翻译包

from google_trans_new import google_translatortrans_content = []t = google_translator(timeout=10)for cc in data['query'].values: try: translate_text = t.translate(cc, lang_tgt='zh-cn', lang_src='en') trans_content.append(translate_te

2021-06-30 09:38:01 280

原创 【论文阅读】PRGC: Potential Relation and Global Correspondence Based Joint Relational Triple Extraction

https://arxiv.org/pdf/2106.09895先指出TPLinker存在的问题:为了避免曝光偏差,它利用了相当复杂的解码器,导致了稀疏的标签,关系冗余,基于span的提取能力差作者提出新的模型,包括三部分:Potential Relation PredictionRelation-Specific Sequence TaggingGlobal Correspondence对于主客体对齐,设计了一个关系无关的全局对应矩阵,用于确定特定的主客体。给定一个句子,模型先预测一.

2021-06-28 19:46:05 1631

原创 【论文阅读】Document-level Relation Extraction as Semantic Segmentation

创新将Doc RE视为文档级语义分割任务,编码层使用bert编码,鉴于bert最大能到512个词,使用动态窗口对整个文档进行编码。送入bert前,利用<e> </e>标注mention,以便定位实体的位置。使用logsumexp pooling汇集实体,去获得最终的实体embedding计算实体关系矩阵中,实体之间的相关性。计算方法有两种:基于相似度的方法。es与eo的element-wise similarity、es与eo的余弦相似度、es与eo的bil

2021-06-09 14:35:08 931

转载 【踩坑】No module named ‘fused_layer_norm_cuda‘

报错Traceback (most recent call last): self.bertForToken = BertForTokenClassification.from_pretrained(self.opt.bert_model_dir, num_labels=self.opt.tag_nums) File "/home/xxx/anaconda3/lib/python3.7/site-packages/pytorch_pretrained_bert/modeling.py", li

2021-05-31 22:55:21 9572 3

原创 【备忘录】词性标注工具调研

NLTK# NLTK分词words = tokenize.word_tokenize(result, language='portuguese')# NLTK词性标注words_tagger = nltk.pos_tag(words, lang='pt')spacy

2021-05-17 13:50:49 497

原创 【论文阅读】Entity and Evidence Guided Relation Extraction for DocRED

摘要把实体放在文档前面。若一个句子有N个实体,就构造N个这样的序列。例如,H代表头实体,D代表文档:[CLS]+H+[SEP]+D+[SEP]拿到H的embedding后,average后得到实体的embedding hhh。对于尾实体的embedding,定位到他的位置,同样average得到embedding tkt_ktk​拿到头实体的embedding以及所有尾实体的embedding,送入双线性层,接sigmoid激活函数,预测蕴含的关系定义了多标签的交叉熵损失函数.

2021-05-16 15:46:34 314

原创 【论文阅读】句向量总结、文本相似度计算

句向量不定长的句子用定长的向量表示,为NLP下游任务提供服务。对于word embedding,训练完以后每个词对应一个向量,可以直观地判断embedding的好坏。但是,对于sentence embedding,它的评测是没有ground truth的。只能将sentence embedding送入下游任务,根据在下游任务的表现来评测其质量。换句话说,其实不存在单独的sentence embedding算法,只有嵌入在NLP系统中的sentence embedding模块。应用语义搜索:通过

2021-04-28 12:13:07 2544

原创 【备忘录】VSCODE Markdown预览包 Office Viewer

在左侧【扩展】搜 Office Viewer超好用,比起别的Markdown预览包,会连着打开两个readme文件,逼死强迫症。这个只展示preview,而且支持很多格式的文件预览

2021-04-27 14:00:17 2800 3

原创 【踩坑】RuntimeError: Input and parameter tensors are not the same dtype, found input tensor with Double

报错RuntimeError: Input and parameter tensors are not the same dtype, found input tensor with Double and parameter tensor with Floatgithub issue在GRU网络,需要传入Float的tensor,但是我传入的dtype是torch.float32因此需要先转成floatoutput=output.float()...

2021-04-23 17:30:39 5890

原创 【踩坑】RuntimeError: CUDA error: CUBLAS_STATUS_NOT_INITIALIZED when calling `cublasCreate(handle)`

在GPU运行报错RuntimeError: CUDA error: CUBLAS_STATUS_NOT_INITIALIZED when calling `cublasCreate(handle)`在CPU运行报错index out of range in self看了一些回答说batch size太大,或者CUDA版本和torch不匹配,尝试无果。有可能是embedding的问题这个答案对我也没效果最后把网络的各个shape打印出来,发现其实是数据shape不匹配。有问题先去看数据、e

2021-04-23 11:17:13 45869 4

原创 【踩坑】SQL collect_set 判断空值null

已知collect_set会返回去重的数组,如果为空,则返回[]要筛选掉空的值错误示范having my_name is not null正确方式having my_name != ''西湖的水我的泪,我居然在这里卡了这么久。

2021-04-21 10:36:40 3158 1

原创 【备忘录】tf.split torch.chunk

这里写自定义目录标题欢迎使用Markdown编辑器新的改变功能快捷键合理的创建标题,有助于目录的生成如何改变文本的样式插入链接与图片如何插入一段漂亮的代码片生成一个适合你的列表创建一个表格设定内容居中、居左、居右SmartyPants创建一个自定义列表如何创建一个注脚注释也是必不可少的KaTeX数学公式新的甘特图功能,丰富你的文章UML 图表FLowchart流程图导出与导入导出导入欢迎使用Markdown编辑器你好! 这是你第一次使用 Markdown编辑器 所展示的欢迎页。如果你想学习如何使用Mar

2021-03-30 19:54:46 555

原创 【论文阅读】batch normalization与layer normalization 在nlp的比较

文章目录BNBN神经网络学习的过程,本质是为了学习数据的分布。一旦训练数据和测试数据的分布不同,网络的泛化能力就会大大降低。一个batch的训练数据分布不同,网络就需要每次迭代去适应不同的分布,这会大大降低网络的训练速度。有人提出可以用...

2021-03-21 12:25:59 383

原创 【论文阅读】Attention Guided Graph Convolutional Networks for Relation Extraction

把句法依存树当成输入在n元关系抽取,大规模句子级别关系抽取都能充分利用依存树的信息https://github.com/Cartus/AGGCN_TACRED文章目录创新:GCN注意力引导层密连接层线性组合层关系抽取层创新:提出soft pruning策略,把一颗完整的依存树送到全连通边加权图里。这里的权重就通过attention学习得到GCN给定一个图,有n个节点,我们可以用n∗nn*nn∗n的邻接矩阵表达这个图结构。可以把边的方向性扩展到模型中,用来编码依存树每个结点都添加一个.

2021-03-19 19:50:58 499 1

原创 【论文阅读】Entity Structure Within and Throughout: Modeling Mention Dependencies for Document-Level Relat

Entity Structure Within and Throughout: Modeling Mention Dependencies for Document-Level Relation ExtractionAAAI 20211. 实体构造考虑以下两种结构共现结构: 两个词是否在同一个句子中共指结构: 两个提及是否指向同一个实体这两种结构都可以TRUE FALSE来描述对于共现结构,我们将文档分割成句子,并将它们作为显示提及交互的最小单元。我们分别表示它们是内部的和句子间的。.

2021-02-23 12:15:18 1962 9

原创 【论文阅读】Inter-sentence Relation Extraction with Document-level Graph Convolutional Neural Network

ACL 2019没有代码目录1.Input Layer2.Graph Construction2.1 Syntactic dependency edge2.2 Coreference edge2.3 Adjacent sentence edge2.4 Adjacent word edge2.5 Self-node edge3.GCNN Layer4.MIL-based Relation Classification5.总结我们将一个完整的论文摘要和两个目标实体作为输入,并在输入层中提到他们。构.

2021-02-19 16:47:46 436

原创 【论文阅读】Two Training Strategies for Improving Relation Extraction over Universal Graph

https://github.com/baodaiqin/UGDSRE模型分为四部分,KG编码器、句子证据编码器、路径证据编码器、关系分类层。KG Encoder假设有一个KG包含事实三元组O={(e1,r,e2),...}O=\{(e_1,r,e_2),...\}O={(e1​,r,e2​),...}KG编码器将e1,r,e2e_1,r,e_2e1​,r,e2​分别映射到低维向量h,t,rh,t,rh,t,rKG编码器采用TransE对给定的三元组打分。TransE使用公式1对三元组打.

2021-02-16 09:59:20 214 1

原创 【论文阅读】An End-to-end Model for Entity-level Relation Extraction using Multi-instance Learning

EACL 2021https://github.com/lavis-nlp/jerex提出基于参考解析的多任务学习方法,实现端到端联合关系抽取。模型分为四部分:Entity Mention Localization用span的方法抽取文档中的实体,相比于BIO的方法,它更能检测重叠实体。对实体span做max-pooling提及分类器采用下面的式子。把span表示e(s)e(s)e(s)以及span大小的embeddingwk+1sw^s_{k+1}wk+1s​拼接起来,送入两层的前.

2021-02-14 16:45:25 629

原创 【论文阅读】Coarse-to-Fine Entity Representations for Document-level Relation Extraction

它采用从粗到细的策略集成全局上下文信息,同时对目标实体之间的远程交互进行建模,从而获得全面的实体表示。首先,我们使用全连接卷积网络(DCGCN)在粗层次上整合整个图中的全局上下文信息。D表示包含N个句子的文档。图2显示了一个文档级的示例图,对应于一个两句话的文档。该图将文档中的单词视为节点,并通过五类边捕获文档件交互。这些无向边的描述如下。语法依赖边我们使用spaCy2中的依赖解析器来解析每个句子的语法依赖树。然后,我们在所有有依赖关系的节点对之间添加边。相邻词边在相邻单词之间添加.

2021-02-08 13:53:20 479

原创 【论文阅读】Named Entity Recognition in the Style of Object Detection

来自微软作者没有贴代码链接借用了计算机视觉中两阶段目标检测的思想和它们如何构造损失函数的方法。模型架构1. 预测实体区域预测实体的开始和结尾。结构很简单,bert出来一个线性层,预测开始和结尾。使用的交叉熵损失。作者对预测的过长实体直接丢弃,并在论文里对丢弃的实体道歉?2. 实体分类仍然用的bert,这阶段有2个任务:实体损失实体类型分类损失α\alphaα和β\betaβ用于控制边界损失和实体损失的权重只有当start到end这块区域真的匹配实体,才计算LtypeL_.

2021-01-28 16:42:19 154 1

原创 【备忘录】transformers tokenizer.tokenize和tokenizer.encode

from transformers import BertTokenizer, BertModeltokenizer = BertTokenizer.from_pretrained('hfl/chinese-bert-wwm')text = '在此基础上,美国试图挑拨伊朗和伊拉克关系。'tokenizer_out = tokenizer.tokenize(text)print(tokenizer_out)['在', '此', '基', '础', '上', ',', '美', '国', '试',

2021-01-17 10:42:10 2480 1

原创 【论文阅读】Joint Entity and Relation Extraction with Set Prediction Networks

作者提供的代码链接404了,https://github.com/DianboWork/SPN4RE目前在NYT和WebNLG上都是SOTAhttps://paperswithcode.com/task/relation-extraction1.编码器用bert2.三元组非自回归解码器PL代表句子可能包含的三元组个数,论文中统一设置为m个,m大于所有句子包含的三元组个数。代表某个三元组Yi,不仅和给定的句子X有关系,而且与其他某个三元组Yj有关系。使用transformer作为解码.

2021-01-16 14:07:49 2972 5

原创 【论文阅读】Improving Document-level Relation Extraction via Contextualizing Mention Representations and W

ICKG 2020作者提供的源代码Improving Document-level Relation Extraction via Contextualizing Mention Representations and Weighting Mention Pairs1. embedding层每一个单词搞成word embedding,实体类型embedding,共指embedding,这三者的拼接。将对应于同一实体的提及赋值为相同的实体id,并将实体id映射到向量中作为共指embedding.

2021-01-12 14:46:19 246

原创 DocRED数据集解析

github地址国内下载链接训练集、验证集、测试集国内下载docred其他内容{ 'title', 'sents': [ [word in sent 0], [word in sent 1] ] 'vertexSet': [ [ { 'name': mention_name,

2021-01-11 14:13:19 2012 9

原创 【论文阅读】Document-Level Relation Extraction with Adaptive Thresholding and Localized Context Pooling

AAAI 2021源代码创新没有引入图结构,而是把上下文embedding融入到实体embedding提出自适应阈值损失,而非设定死板的全局阈值编码器还是使用基础的bert,但是在扔进bert之前,对文档中的实体提及前后加以 * 标记对于每个实体,因为有好多个提及,把他们编码后的embedding,使用logsumexp pooling,得到实体的embedding表示。获取一对实体的embedding以后,分别送入线性层,tanh再激活一下,二者一起送入全连接层,用sigmoid计.

2021-01-10 20:00:47 1713 2

原创 【论文阅读】Document-Level Relation Extraction with Reconstruction(AAAI2021)

作者提供的代码2021 AAAI提出,没有关系的实体对会影响编码器的attention效果。创新:将更多的注意力放在有关系的实体对上,对路径重构。重构方法最常用在神经机器翻译NMT上,解决翻译不够充分的问题。作者证明了用在DocRE效果也很好。1. 异构图构建假设一个文档有L个句子,每个句子有J个词。使用BILSTM对其进行编码。如上图所示,异构图包含提及结点、实体结点、句子结点。作者在指向相同实体的不同提及之间,还加了Mention-Coreference边。2.编码器使用图注意力网.

2021-01-07 09:26:10 2021 1

原创 【论文阅读】Graph Enhanced Dual Attention Network for Document-Level Relation Extraction

2020年11月Coling引入了从句子到关系S2R和从关系到句子R2S的双向注意力机制。创新:双attention机制正则化处理引入证据支持向量作为注意力权重的监督信号1.编码层使用BILSTM对文档编码,将输入文档转化成1)词embedding 2)实体类型embedding 3)实体在docred首次出现的顺序embedding,得到H (n*2h)使用max-pooling获得每个句子的语义表示对于一个实体,在文档中可能有不同的实体提及。作者对于文档中位于第a到第.

2021-01-02 10:53:28 615 4

原创 SCIERC数据集解析

数据集样例六种实体类型Task, Method, Metric,Material, Other-ScientificTerm and Generic七种关系类型Compare, Part-of, Conjunction, Evaluate-for, Feature-of, Used-for, HyponymOf{ "clusters": [ [ [ 6, 11 ], [ 21,

2020-12-20 19:31:37 2583 7

翻译 【论文翻译】TPLinker: Single-stage Joint Extraction of Entities and Relations Through Token Pair Linking

近年来,从非结构化文本中提取实体和关系引起了越来越多的关注,但仍然具有挑战性,因为识别与共享实体的重叠关系具有内在的困难。以前的研究表明,联合学习可以带来显著的性能提升。然而,它们通常涉及顺序相关的步骤,并遭受暴露偏差的问题。在训练时,它们利用地面的真实条件进行预测,而在推理时则需要从零开始进行提取。这种差异导致误差累积。为了缓解这一问题,本文提出了一种单阶段联合提取模型,即TPLinker,该模型能够发现共享一个或两个实体的重叠关系,同时不受暴露偏差的影响。TPLinker将联合提取归结为标记对连接问题.

2020-12-17 16:21:43 3757 4

翻译 【论文翻译】Denoising Relation Extraction from Document-level Distant Supervision

1. 介绍关系抽取(relationship extraction, RE)的目的是识别文本实体之间的关系事实。最近,神经关系提取(NRE)模型在句子级RE中得到了验证。远程监控(DS) 提供了大规模的远程监控数据,使实例成倍增加,并支持足够的模型训练。句子层次的重新重点是提取句子中实体之间的句子内关系。然而,由于存在大量的句间关系事实隐藏在多个句子中,在实践中其通用性和覆盖面受到极大的限制。对从维基百科文档构建的大规模RE数据集的统计表明,至少40:7%的关系事实只能从多个句子中推断出来。大多数Do

2020-12-17 14:29:55 611

转载 膨胀卷积 Dilated Convolution

与标准的卷积不同,膨胀卷积在核中添加了一些空洞,也就是对卷积核进行0填充,可以看到感受野变大了。通常情况下,卷积之后再pooling以增加感受野,或者使用多个滤波器堆叠也可以增大感受野。但是,pooling操作会造成信息损失,这是不可逆转的。为了避免使用pooling损失信息,引入了膨胀卷积。正常默认dilation=1,设置为2的时候,表示卷积的空洞为1.每隔一个操作,感受野变大了弊端长距离信息有时候并不相关,丢失了信息的连续性。可以不同的卷积核采用不同的dilation,例如最常见的1

2020-12-10 21:01:14 495

原创 【吴恩达深度学习】CNN

valid / same paddingstride三维卷积

2020-12-10 19:13:19 119

原创 【踩坑】GPU已放弃(核心已转储)

查看文件是否完整

2020-11-30 08:42:27 1467 1

原创 【踩坑】python导入本地包错误-两个不同的脚本不能同时互相用from导入对方

已知package组织结构如上。错误代码如下:t1.pyfrom t2 import T2class T1(object): def __init__(self): print('t1')if __name__ == '__main__': t2.T2()t2.pyfrom t1 import T1class T2(object): def __init__(self): print('t2')运行t1.py报错:两个不同的脚本

2020-10-23 15:37:17 217

原创 【踩坑】AttributeError: ‘ProgbarLogger‘ object has no attribute ‘log_values‘

试着跑了一下苏神的基于bert的关系抽取,把自己的train和dev放入正确文件夹,报了这个错。有的博客说样本太少了,把batchsize调小一点有的博客说训练集测试集路径没写对我检查了一下都没有这些错误,print了我的训练集才发现是空的,由于之前转换格式转换一半就ctrl+c了。...

2020-09-25 18:01:02 606

原创 爬取网站新闻

军事新闻爬取光明网军事新闻国防科技信息网光明网军事新闻import jsonimport redisimport timeimport requestssession = requests.session()import logging.handlersimport pickleimport sysimport reimport datetimefrom bs4 import BeautifulSoupimport importlibimport csvimport stri

2020-09-24 13:19:53 2556

原创 《Character-Based LSTM-CRF with Radical-Level Features for Chinese Named Entity Recognition》论文解读

BILSTM+CRF 命名实体识别关键技术调研实现系统的核心思想和算法描述数据集核心思想及算法描述系统主要模型流程表示层读取数据分批次输入数据词嵌入BILSTM层隐藏层CRF层模型评估分析准确率和召回率F1关键技术调研命名实体识别是自然语言处理中的一项基础又关键的技术。命名实体通常指的是文本中具有特别意义的实体,例如人名、地名、组织机构名等等。根据他的定义,可以预见,NER的关键在于,实体边界定义是否准确、实体标签预测是否准确。NER有四种常用的方法,一是基于规则和词典的方法,不需要标注数据,依赖人工规

2020-09-23 22:59:22 1366 1

原创 【踩坑】RuntimeError: index out of range: Tried to access index 30522 out of table with 30521 rows.

使用huggingface下载torch版本的bert-base-chinese预训练模型,格式如上图。indexed_tokens = self.tokenizer.convert_tokens_to_ids(token)在这里把token转成id,但是由于下载的vocab名称是"bert-base-chinese-vocab.txt",默认读取的vocab名称是“vocab.txt”。应当将其改名为vocab.txt踩坑下载的模型自带英文的vocab.txt,我不知道要改名,或者把他的删.

2020-09-21 20:17:14 3351

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除