自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(5)
  • 收藏
  • 关注

原创 Seq2seq模型以及Attention机制

RNN和LSTM1.RNN

2021-05-26 17:27:41 761

原创 让你一文轻松搞懂HMM

HMM 隐马尔可夫模型1. 基本概念:隐马尔科夫模型是关于时序的概率模型,描述由一个隐藏的马尔科夫链随机生成不可观测的随机状态序列,再由各个状态生成一个观测从而产生观测随机序列的过程。隐藏的马尔科夫链随机生成的状态序列,称为状态序列(state sequence);每个状态生成一个观测,而由此产生的观测的随机序列,称为观测序列(observation sequence)。序列的每一个位置又可以看做是一个时刻。如上图所示,用 t = 1, 2, … ,n 来表示时间序列,用Z来表示所有所有可能的状态值

2021-05-24 18:15:32 1155

原创 浅谈BERT

浅谈BERT本文将主要介绍BERT模型以及BERT相关的一些东西。过去在NLP的领域通常是一个任务对应一个model,但是今年来已经发展到可以让机器先了解人类的语言再来解决各式各样的NLP任务。可以通过给机器大量的文字,让机器读懂,这个过程叫预训练(pre-train),然后再根据特定的任务给机器特定的有限的有关数据对pre-train的model进行微调(fine-tune)。这种pre-train的做法类似于人类学习一门语言的过程,比如评价一个人的英语水平往往可以通过考托福,雅思等,做一些列的口语

2021-05-21 16:45:30 533 1

原创 从self-attention到transformer之transformer

从self-attention到transformer之transformer1. Seq2Seq模型:今天来介绍transformer模型,也跟后来产生的BERT有着紧密的联系,transformer也是Seq2Seq中的一个。Seq2Seq模型一般都有Encoder和Decoder两个结构,由Encoder来处理input sequence然后交给Decoder来决定要什么样的output sequence。如下图所示:2. Encoder:首先来介绍Encoder的部分,Encoder要做的

2021-05-11 10:42:17 700 1

原创 从self-attention到Transformer之self-attention

从self-attention到Transformer之self-attention本文内容是本人学习李宏毅老师课程的笔记。在这里附上李宏毅老师的主页:https://speech.ee.ntu.edu.tw/~hylee/index.html1. self-attention想要解决一个Seq2Seq的问题,根据经验我们完全可以把整个序列的每一个向量都丢到一个fully-connected neural network中然后根据不同任务输出对应的输出,就像下图一样:但是很明显这种结构显然有很大的

2021-05-09 22:45:02 484

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除