3 Bread Sir

尚未进行身份认证

我要认证

记录算法之路

等级
TA的排名 1w+

NLP-CS224n学习讲义PART 4——Dependency Parsing

1 依存语法和依存结构NLP中的解析树与编译器中的解析树类似,用于分析句子的句法结构。主要有两个类型的结构——成分结构和依存结构。成分语法结构使用短语结构语法将单词组织成嵌套的成分。而我们主要关注的是依存结构解析。句子的依存结构主要分析的是哪些词依赖于其他哪些词。这些单词之间的二元非对称关系称为依存关系,并被描述为从首领(或上级)到附属(或修饰词、下级)的指向关系。通常这些依存关系形成一个树结构。它们通常与语法关系的名称(主语、介词宾语、同位语等)一起输入。下图是一个依存树的例子。Bills on

2020-06-12 10:48:05

NLP-CS224n学习讲义PART 3——Neural Networks, Backpropagation

1 神经网络基础从下面一张图我们可以知道为什么我们需要使用神经网络进行分类:这张图显示了线性回归分类的局限性,也就是大部分的数据都不是线性可分的,所以我们需要非线性的分类器。而神经网络是一类具有非线性决策边界的分类器,如下图所示:所以我们可以接下来主要学习神经网络的一些基础知识,很简单,但需要掌握。1.1 一个神经元一个神经元在神经网络中就是一个输入n个inputs并输出单个output的计算单元,不同的权重会输出不同的output。其中最常选择的神经元之一便是"sigmoid"或者称为"二元

2020-05-30 17:59:38

NLP-CS224n学习讲义PART 2——Word Vector 2: GloVe, Evaluation and Training

NLP-CS224n学习讲义PART 2——Word Vector 2: GloVe, Evaluation and Training1 Global Vectors for Word Representation(GloVe)1.1 方法间的比较我们之前提到两种查找词汇嵌入的方式。第一种就是基于计数且依赖于矩阵分解的方式,这种方式可以有效地利用了全局统计信息,但是它们未能很好捕捉单词相似性。第二种基于window方式,即skip-gram和CBOW的方式,这种方式能够很好的捕获单词之间的相关性,但是

2020-05-30 17:54:24

NLP-CS224n学习讲义PART 1——Word Vector 1: Introduction, SVD and Word2vec

1 介绍NLP1.1 NLP有什么特别之处?人类的语言是一个专门用来传达意思的系统,而不是由任何一种物质表现所产生的。在这方面,它与视觉或其他任何机器学习任务有很大区别。大多数单词只是语言外实体的符号,而语言符号可以被编码成多种形式,比如声音、手势、文字等连续的信号。1.2 NLP任务举例从语音处理到语义解释和语篇处理,自然语言处理任务的level是不同的。不同level如下:简单:...

2020-05-06 17:33:15

周志华《机器学习》(西瓜书)学习笔记——第八章集成学习

2019-12-31 15:23:46

周志华《机器学习》(西瓜书)学习笔记——第七章贝叶斯分类器

2019-12-31 15:21:31

周志华《机器学习》(西瓜书)学习笔记——第十章降维与度量学习

2019-12-31 15:20:27

周志华《机器学习》(西瓜书)学习笔记——第九章聚类

2019-12-31 15:19:12

周志华《机器学习》(西瓜书)学习笔记——第六章支持向量机

2019-12-31 15:17:45

Git学习笔记(五)标签管理

1 创建标签我们可以在git上打标签。首先切换到需要打标签的分支上,然后使用命令 git tag <name> 即可打标签,并可用 git tag 查看所有标签:默认标签是打在最新提交的commit上的,若想在过去的提交上打标签则需要找到历史提交的commit id,然后打上标签即可。比如我想在add test.txt这个commit上打个标签,就可以这样:tag v0.9...

2019-12-24 20:58:31

Git学习笔记(四)分支管理

分支管理创建与合并分支我们知道Git把每次的提交都串成一条线性的时间线,这个时间线就是一个分支,我们当前的分支是 主分支即 master 分支,而 HEAD 指向的便是 master,即指向的是当前分支。一开始,master分支是一条线,Git用master指向最新的提交,再用HEAD指向master,就能确定当前分支,以及当前分支的提交位置。而每次提交,master分支都会向前移动一步,...

2019-12-18 21:47:42

Git学习笔记(三)远程仓库

远程仓库添加远程库我们首先在github上添加我们电脑的SSH Key,这样才能在本地将仓库push到github上。然后我们在github上创建一个仓库,名字设为learngit,接着在本地learngit仓库下运行:即将本地仓库与github上的仓库进行关联,最后,在push上去:把本地库的内容推送到远程,用 git push 命令,实际上是把当前分支 master 推送到...

2019-12-18 21:47:05

Git学习笔记(二)修改版本与回退

修改版本与回退Git修改我们修改一下readme.txt文件:然后我们使用git status查看一下仓库的状态。因为这个readme.txt受Git所管理,所以一旦修改之后,查看git仓库的状态就能显示出来修改记录(上图标红处),然后通过git diff来查看修改前后的差异:从上面可以看到修改是多加了个"distributed"。接着,我们再add一下修改后的readme.t...

2019-12-18 21:46:15

Git学习笔记(一)介绍Git、创建版本库

本次Git系统学习主要来自廖雪峰的官方网站

2019-12-14 16:20:12

NYOJ—水池数目(DFS)

描述: 校园里有一些小河和一些湖泊,现在,我们把它们通一看成水池,假设有一张我们学校的某处的地图,这个地图上仅标识了此处是否是水池,现在,你的任务来了,请用计算机算出该地图中共有几个水池。 输入: 第一行输入一个整数N,表示共有N组测试数据 每一组数据都是先输入该地图的行数m(0 < m < 100)与列数n(0 < n < 100),然后,输入接下来的m行每行输入n个数,表示此处有水还是没

2017-04-07 10:19:37

深度学习基础知识之正则化

背景知识1 训练误差与泛化误差训练误差,顾名思义,就是在训练集上表现出的误差,而后者是通过训练得到的模型在任意一个测试集上表现出的误差的期望,但通常直接通过测试集上的误差即(测试误差)来近似。假设学习到的模型是 Y=f^(X)Y = \hat{f}(X)Y=f^​(X),则训练误差 是模型关于训练数据集的平均损失:Remp(f^)=1N∑i=1NL(yi,f^(xi)),N为训练样本容量...

2019-11-21 10:56:44

Machine Learning——聚类(基本概念)

1、聚类任务我们知道在无监督学习中,训练样本的标签是未知的,所以为了能够通过这些无标签的训练样本来探究数据的内在性质及其规律,便产生了许多无监督学习算法。其中,我们若想要通过数据的内在性质来分类数据,那么出现了一种叫 “聚类” 的方法。【 定义 】聚类针对给定的样本,依据它们特征的相似度或距离,将其归并到若干个 “类” 或 “簇” 的数据分析问题。而这些类或簇通常是不相交的子集。而聚类过程...

2019-11-16 16:49:25

Pytorch【60天修炼计划】之第二阶段——进阶:量化

以下内容主要来自于Pytorch官网Pytorch量化,特此记录学习过程。(其实更像直接翻译了一下,逃~Quantization 量化1、什么是量化?量化是一种近来深度学习加速中快速发展的技术,它指的是以比浮点精度更低的比特宽度来执行计算并存储 Tensors 的技术。一个量化的模型便采用的是 整数 来对 Tensors 执行部分或全部操作。2、量化的意义?因为量化精度低,则它使得在许...

2019-11-15 10:37:57

Flush Python

1. 内置序列类型概览容器序列:list, tuple, collections.deque扁平序列:str, bytes, bytearray, memoryview, array.array容器序列存放的是它们所包含的任意类型的对象的引用,而扁平序列里存放的是值而不是引用也可以按照序列类型能否被修改来分类可变序列:list, bytearray, array.array, co...

2019-09-22 12:49:41

Pytorch【60天修炼计划】之第二阶段——进阶:卷积神经网络之AlexNet

接着我们上一个经典的卷积神经网络LeNet,我们这一篇主要记录一下深度卷积神经网络中经典模型 AlexNet,从论文中可以找到其架构:input[ 3, 224 × 224 ] ( channels, weight * height)Conv2d[ 1, 96, 11 × 11, 4, 0 ] (in_channels, out_channels, kernel_size, stride,...

2019-11-13 19:50:21

查看更多

勋章 我的勋章
  • 持之以恒
    持之以恒
    授予每个自然月内发布4篇或4篇以上原创或翻译IT博文的用户。不积跬步无以至千里,不积小流无以成江海,程序人生的精彩需要坚持不懈地积累!
  • 1024勋章
    1024勋章
    #1024程序员节#活动勋章,当日发布原创博客即可获得
  • 勤写标兵Lv2
    勤写标兵Lv2
    授予每个自然周发布4篇到6篇原创IT博文的用户。本勋章将于次周周三上午根据用户上周的博文发布情况由系统自动颁发。