自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(7)
  • 资源 (1)
  • 收藏
  • 关注

原创 北大叉院计算机考研经验贴(408)

一点牢骚从食品转到计算机,已经过了三年。在大一转来计算机时,我就面临了是否要保研的选择。我的本科就读于吉林大学,只有年级前几名才有可能保研清北,至于转专业学生,能去复交已是大幸。今年计算机专业普通班363人中,只有一人去了清北(清华深圳研究院)。须知少时凌云志,曾许人间第一流。遂放弃保研。本科课程的考试纯期末突击,把大多数的精力用于科研上。当看着竞赛的同学拿到了成绩,保研的同学有了去处时,我的文章还在一审,考研初试更是刚开始模拟,成绩惨淡。好在这些年的耕耘,今天终于看到了成果。学硕招9人,进复试14人

2022-02-27 16:41:14 3584 8

原创 pytorch关系抽取框架OpenNRE源码解读与实践:PCNN ATT

OpenNRE是清华大学推出的开源关系抽取框架,针对命名实体识别,句子级别的关系抽取,远程监督(包级别的关系抽取),文档级别的关系抽取以及 few-shot 任务均有实现。其模块化的设计可以大幅度减少不必要的代码重写。本文将对OpenNRE整体架构进行介绍,并重点解读OpenNRE中针对远程监督任务的模型 PCNN + ATT :《Neural Relation Extraction with Selective Attention over Instances》。

2020-05-20 16:33:00 5530

原创 关系抽取远程监督PCNN:Distant Supervision for Relation Extraction via Piecewise Convolutional Neural Networks

Distant Supervision for Relation Extraction via Piecewise Convolutional Neural Networks0 前言1 模型架构2 多示例学习3 结语4 参考资料0 前言远程监督利用知识图谱的实体以及对应的关系对未标注文本进行回标,如果未标注文本中包含了一个知识图谱中具有某种关系的实体对,那么就假定这个文本也描述了相同的关系。通过这种标注策略虽然可以获得大量数据,但同时也会因为假设性太强而一如很多噪声数据(因为包含一个实体对的文本不一定描

2020-05-16 18:01:01 2555 1

原创 bert关系抽取论文源码之BERTem: Matching the Blanks: Distributional Similarity for Relation Learning

Matching the Blanks: Distributional Similarity for Relation Learning前言模型架构预训练策略结语参考资料前言BERTem模型是一个基于bert的预训练语言模型,BERTem模型本身并没有什么特别新奇之处,但通过本篇论文通过设计了一个新颖的预训练任务,在SemEval 2010 Task 8, KBP37, TACRED以及Few...

2020-05-07 21:25:30 2273 2

原创 bert关系抽取论文源码之SpERT:Span-based Joint Entity and Relation Extraction with Transformer Pre-training

目录前言模型架构Span Classification & Span Filtering实体选择以及负采样实体表示及分类Relation Classification关系构造以及负采样文本特征与关系分类结语参考资料前言SpERT是一个以bert的预训练语言模型为基础,进行联合实体识别和关系抽取的模型。文章设计了一个联合实体识别和关系抽取模型架构,并使用基于跨度的负采样形式,在ADE、C...

2020-04-27 23:37:40 7022 18

原创 bert关系抽取论文源码之REDN:Downstream Model Design of Pre-trained Language Model for Relation Extraction Task

bert关系抽取论文源码之REDN:Downstream Model Design of Pre-trained Language Model for Relation Extraction Task前言模型架构1.Encoder2.Relation Computing Layer前言REDN是一个使用bert预训练模型进行关系抽取的衍生模型,该模型设计了一种具有新型损失函数的网络结构,并且仅...

2020-04-24 12:08:17 2700 8

原创 bert关系抽取之R-BERT:Enriching Pre-trained Language Model with Entity Information

bert关系抽取之R-BERT学习笔记:Enriching Pre-trained Language Model with Entity Information for Relation Classification总体介绍数据处理模型架构第一部分:BertModel第二部分:FCLayer第三部分:label_classifier实验对比消融实验模型复现参考资料总体介绍R-BERT模型是be...

2020-04-22 14:49:08 5695 6

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除