2 淇时

尚未进行身份认证

纸上得来终觉浅,绝知此事要躬行。

等级
TA的排名 45w+

支持向量机 Support Vector Machine SVM

支持向量机(SVM)原理/计算过程/软间隔/核函数数学基础拉格朗日乘子法KKT条件∑αigi(x)=0,αi≥0\sum\alpha_ig_i(x)=0,\alpha_i\ge0∑αi​gi​(x)=0,αi​≥0线性可分分类学习最基本的思想就是积与训练集D在样本空间中找到一个划分超平面(决策边界),将不同类别的样本分开。超平面一般表示为: wTx+b=0w^Tx+b=0wT...

2019-03-05 22:51:23

机器阅读理解-笔记

机器阅读理解-笔记当前的机器阅读理解(MachineReadingComprehension)任务,基本上是以基于文本问答的方式实现的。由于深度学习及大规模数据集的出现,使得机器阅读理解蓬勃发展。本文主要讨论机器阅读理解任务典型的数据集和模型、亟待解决的问题以及未来的发展趋势。机器阅读理解任务可以分为:完形填空(ClozeTest)、跨度选取(SpanExtraction)、...

2019-11-11 10:33:25

Bidirectional Attention Flow for Machine Comprehension

Bidirectional Attention Flow for Machine Comprehension论文及代码 代码1 pytorch 实现模型结构模型主要包含六层结构,如下图所示:Character Embedding Layer使用字符级的卷积神经网络 (character-level CNN),将词汇映射到高维的向量空间,该网络由Kim在2014年提出。假设文本段落...

2019-10-24 12:58:12

Transformer 模型

Transformer 模型论文:Attention Is All You Need代码:Tensor2Tensor 哈佛 Pytorch Transformer 代码 torch.nn.TransformerTransformer 模型也是一种 seq2seq 模型结构,由 Encoder 和 Decoder 组成,输入是一个序列,输出也是一个序列,可用于文本生成等。其中 Enco...

2019-10-12 12:56:20

Seq2Seq Attention模型

Seq2Seq Attention模型Seq2Seq 模型是一个 Encoder-Decoder 结构的序列模型,输入是一个序列,输出也是一个序列。这种结构最重要的地方在于输入序列和输出序列的长度是可变的。Encoder 将一个可变长度的输入序列变为固定长度的向量,在自然语言处理中称为中间语义,Decoder 将这个固定长度的向量解码成可变长度的输出序列。假设,输入序列为: x=x1,x2,...

2019-10-11 22:44:24

循环神经网络 RNN

循环神经网络标准的神经网络无法很好处理序列类型的数据,例如:输入和输出数据在不同的样本中的长度不同;标准的神经网络不能共享从文本不同位置所学习到的特征。常见的序列数据有:文本、语音(音乐)。循环神经网络 Recurrent Neural Networks (RNN) 是一种序列模型。对自然语言处理和其他序列任务非常有效,它引⼊状态变量来存储过去的信息,并用其与当前的输⼊共同决定当前的输出。...

2019-10-10 19:45:54

卷积神经网络

title: 卷积神经网络mathjax: true卷积神经网络卷积神经⽹络(convolutional neural network)是含有卷积层(convolutional layer)的神经⽹络,主要包含:卷积层、池化层。卷积层(Convolution:Conv)卷积运算虽然卷积层得名于卷积(convolution)运算,但在卷积层中使用的互相(crosscorrelation...

2019-10-09 14:59:06
勋章 我的勋章
  • 签到新秀
    签到新秀
    累计签到获取,不积跬步,无以至千里,继续坚持!
  • 持之以恒
    持之以恒
    授予每个自然月内发布4篇或4篇以上原创或翻译IT博文的用户。不积跬步无以至千里,不积小流无以成江海,程序人生的精彩需要坚持不懈地积累!
  • 1024勋章
    1024勋章
    #1024程序员节#活动勋章,当日发布原创博客即可获得
  • 勤写标兵Lv2
    勤写标兵Lv2
    授予每个自然周发布4篇到6篇原创IT博文的用户。本勋章将于次周周三上午根据用户上周的博文发布情况由系统自动颁发。