自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(6)
  • 资源 (1)
  • 收藏
  • 关注

原创 【笔记】Neural Architectures for Named Entity Recognition

Neural Architectures for Named Entity Recognition 这是本人读论文的笔记,其余论文部分在网上都有,本人仅对自己未知的知识进行记录! 全文翻译:https://blog.csdn.net/qq_28385535/article/details/85061404 近/规约解析( shift-reduce) Shift Reduce解析器尝试以类似......

2020-01-13 17:34:15 557

原创 【Machine Learning】性能度量与评估方法

机器学习中的性能度量 一个机器学习模型需要一些性能度量指标来判断它的好坏,了解各种评估的方法优点和缺点,在实际应用中选择正确的评估方法是十分重要的。 1.准确率(Accuracy) 准确率(Accuracy)是最常见也是最基本的评估标准,它表示被分对的样本数在所有样本数中的占比,它准确的公式定义是:ACC=TP+TNP+N ACC = \frac{TP+TN}{P+N}ACC=P+NTP+TN​...

2020-02-03 14:19:37 339

原创 【笔记】Distributed Representations of Words and Phrases and their Compositionality

Abstract 最近引入的连续Skip-gram模型是学习高质量distributed vector representations(分布向量表示)的有效方法,distributed vector representations可以捕获大量精确的句法和语义关系。在本文中,我们提出了几个扩展,提高了向量的质量和训练速度。通过对frequent words进行二次抽样,我们获得了显着的加速,同时还...

2020-01-19 18:42:50 385

原创 【笔记】Attention Is All You Need

Introduction 本文是谷歌发表的文章,针对nlp里的机器翻译问题,提出了一种被称为”Transformer”的网络结构,基于注意力机制。文章提出,以往nlp里大量使用RNN结构和encoder-decoder结构,RNN及其衍生网络的缺点就是慢,问题在于前后隐藏状态的依赖性,无法实现并行,而文章提出的”Transformer”完全摒弃了递归结构,依赖注意力机制,挖掘输入和输出之间的关系,...

2020-01-16 16:48:19 223

原创 【笔记】BERT: Pre-training of Deep Bidirectional Transformers for Language Understanding

预备知识: Transformer :https://zhuanlan.zhihu.com/p/98650532?utm_source=wechat_session&utm_medium=social&utm_oi=849546926243340288 attentionisallyourneed:https://arxiv.org/pdf/1706.03762.pdf...

2020-01-15 18:13:42 172

原创 [Python基础] Logging模块的使用

tf.logging模块 tf.logging.set_verbosity(logging.INFO) 在tensorflow中函数可以直接log打印 tensorflow使用5个不同级别的日志消息。按照上升的顺序,他们是debug,info,warn,error和fatal。在任何级别配置日志记录时,tf将输出与该级别相对用的所有日志信息。在跟踪模型训练时,将级别调整为info,将提供适合操作...

2020-01-15 10:03:06 178

BP神经网络基本原理教程

BP(Back Propagation)网络是1986年由Rumelhart和McCelland为首的科学家小组提出,是一种按误差逆传播算法训练的多层前馈网络。是目前应用最广泛的神经网络模型之一。BP网络能学习和存贮大量的输入-输出模式映射关系,而无需事前揭示描述这种映射关系的数学方程。

2018-07-13

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除