4 Flying_sfeng

尚未进行身份认证

我要认证

暂无相关简介

等级
TA的排名 1w+

高考填志愿—利用大数据填报

距高考放榜的日子越来越近了,填报志愿的问题着实让很多父母和孩子头疼。可能大家也会遇到下述类似的情况,我大概讲述下:微微姐,见信佳。我是小欣,转眼间我已经高三毕业了,我对未来充满了期待,可现在我却在填志愿的问题上,跟我妈意见不一样,有些心烦。我来自某一线城市,两年前父母离了婚,我跟着妈妈生活。我妈是个要强的女人,那会为了我们娘俩的生活,开始在农贸市场做蔬菜批发。市场竞争激烈,我妈刚开始入行那会,搞到的摊位又偏,是真的辛苦。但她人机灵,找到了个不错的进货商,蔬菜新鲜,价格又还较便宜。再加上她嘴甜肯吆喝,这两

2020-07-23 09:32:28

【paper reading】基于重编辑机制的文本生成算法

今天分享一篇基于重编辑机制的文本生成论文paper:Paper Abstract Writing through Editing Mechanism(发表于ACL2018)code:源码概述:这篇论文解决的问题是使用paper的title来生成abstract。论文使用了一种重编辑机制(参考人类写论文的过程:先写一个草稿出来,再不断的修改),是一个信息量由少到多的过程。本次分享希望能让你:了解重编辑机制的工作原理;学会编写主体框架。1. 模型总体框架1.1 encode-decode框架

2020-05-26 20:47:56

vscode采坑指南

因为版权问题,最近IDE从pycharm改为了vscode(为了连接远程服务器进行debug),在熟悉vscode的过程中,出现了各种问题,因此记录下来。1.如果关掉终端正在运行的代码如上图,点击垃圾箱那里就行。2. 如何进行debug先选中一个要进行debug的py文件,然后按以下3步进行即可进行debug.3. 如何在子目录下进行run/debug首先,要明确一点,vscode在执行Python脚本的时候都是以调用脚本的工作目录为准的,因此,当你在子目录下run/debug时,经常会报

2020-05-18 18:24:04

【CS224n】Lecture 12: Information from parts of words: Subword Models

1. Character-Level Modelsword embeddings可以由character embeddings组成,有以下好处:生成未知词的embeddings;相似的单词拼写可以共享相似的embeddings;能够解决OOV问题(OOV=out of vocabulary,感觉第三点跟第一点有点像)1.1. Purely character-level models针对句子分类任务的纯字符粒度的模型的应用案例是:使用深度卷积网络来进行文本分类;当然也可以用字符粒度的模型应

2020-05-17 22:29:30

服务器之间的数据传输(scp&rsync)

1. 本地终端与服务器互传数据(都在本地终端操作)1.1 从本地终端上传数据到服务器:scp -P 具体端口号 -r 本地终端数据路径 用户名@服务器地址:服务器数据保存路径其中,-P表示指定端口号(注意P为大写),-r表示递归传输,下同。1.2 从服务器下载数据到本地:scp -P 具体端口号 -r 用户名@服务器地址:服务器数据保存路径 本地终端数据路径其实上面并不是本文的重点,本文重点是如何不覆盖传输,即针对已存在的数据,直接跳过。2. 不覆盖传输rsync -avzu -e '

2020-05-15 18:48:08

【CS224n】Neural Networks, Backpropagation

1. Neural Networks: Foundations1.1 A Neuron(单个神经元)[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-3AJ830bE-1589083782343)(evernotecid://331CA178-4507-4573-914C-34BF843F1D8C/appyinxiangcom/26093810/ENResource/p53)]1.2 A Single Layer of Neurons(多个神经元的单层网络)[外链图片转

2020-05-10 14:23:18

【CS224n】ConvNets for NLP

1. CNNs (Convolutional Neural Networks)1.1 Why CNNs?为什么要再文本中使用卷积神经网络(CNN)呢?CNN通过卷积的方法,并使用不同大小的卷积核,可以捕捉到句子中不同长度短语的语义信息。1.2 What is Convolution?卷积操作大家应该都比较熟悉了,如下图,大矩阵为原始二维矩阵(如原始图片信息),红色的小矩阵为卷积核(图中为3×33\times 33×3矩阵);卷积操作:卷积核与原矩阵的相同大小的矩阵,对应点分别相乘,然后累加的过程。

2020-05-10 12:00:32

paper解读:Bi-Directional Attention Flow For Machine Comprehension

基于双向注意力的阅读理解(ICLR2017,引用800多,入门阅读理解可以看这篇)paper: https://arxiv.org/abs/1611.01603code: https://github.com/allenai/bi-att-flow模型框架模型主要框架如下图所示:包括六个部分:Character Embedding Layer:使用character-level CN...

2020-05-05 18:28:57

【CS224n】Neural Machine Translation with Seq2Seq

1 Neural Machine Translation with Seq2Seq1.1 Brief Note on Historical Approaches传统的翻译系统是基于概率模型的,包括翻译模型和语言模型,并由此建立起基于词或短语的翻译系统。朴素的基于词的翻译系统没办法捕捉词的顺序关系;基于短语的翻译系统可以考虑输入和输出的短语序列,并且可以处理比基于单词的系统更复杂的语法,但仍然没...

2020-04-19 22:50:22

决策树原理及Python代码实现

决策树其实就是按节点分类数据集的一种方法。在本文中,我将讨论数学上如何使用信息论划分数据集,并编写代码构建决策树。创建决策树进行分类的流程如下:(1)创建数据集(2)计算数据集的信息熵(3)遍历所有特征,选择信息熵最小的特征,即为最好的分类特征(4)根据上一步得到的分类特征分割数据集,并将该特征从列表中移除(5)执行递归函数,返回第三

2017-03-16 15:31:47

【CS224n】Language Models, RNN, GRU and LSTM

1. Language Models1.1 Introduction语言模型表示句子中的词共现的概率:1.2 n-gram Language Models原始的语言模型计算量非常大,因此有了n-gram语言模型,下图分别表示bigram和trigram模型:n-gram语言模型存在两个问题:稀疏性和存储空间大。for example,公式3的分子要求三个词同时出现,但更多情况情况...

2020-04-04 17:14:33

【CS224n】Neural-Dependency-Parsing

写在前面:最近在学习CS224n,系统的学习NLP理论。后面会把相关的学习笔记和代码公开,欢迎大家和我一起讨论。这是第三课,前面两课已经学完,后续有时间会把相关笔记代码整理发布出来。#############################可爱的分割线###################################1.1 Dependency Parsing依存句法分析就是表示句子中...

2020-03-29 22:07:51

ROUGE安装配置

ROUGE是做文本生成(eg文本摘要)的一个评价指标。ROUGE的安装真的是一个巨坑,找了各种教程都不行。。实在搞不定只能按最复杂的教程搞了,最后居然成功了。。首先,按照以下的方案配置:Ubuntu安装配置ROUGEpip install pyrouge(Python环境下调用rouge)修改路径为ROUGE1.5.5的路径:pyrouge_set_rouge_path yourPat...

2020-02-13 17:59:25

解决nvcc --version显示command not found问题

首先,查看cuda的bin目录下是否有nvcc:cd /usr/local/cuda/bin如果存在,直接将cuda路径加入系统路径即可:vim ~/.bashrc进入配置文件;添加以下两行:export PATH=/usr/local/cuda/bin:$PATHexport LD_LIBRARY_PATH=/usr/local/cuda/lib64:$LD_LIBRARY_PAT...

2019-12-02 10:07:13

NVIDIA apex安装

一开始直接pip install apex。然后import apex的时候报错:TypeError: Class advice impossible in Python3. Use the @implementer class decorator instead.然后卸载pip uninstall apex,重新安装。安装步骤如下:git clone https://www.githu...

2019-11-29 17:22:34

paper解读:Decomposable Neural Paraphrase Generation

今天分享的paper是刘群老师发表在ACL2019的一篇文章,同样是一篇介绍复述生成的论文,叫Decomposable Neural Paraphrase Generation(DNPG,网络可分解的复述生成)。论文的动机:作者发现一个句子的复述通常有多个不同粒度的模式组成,从单词粒度到短语粒度到句子粒度等,如下图:蓝色部分为句子粒度,绿色部分为短语粒度。在这篇论文中,作者取了这两个粒...

2019-09-19 20:35:55

transformer中的positional encoding(位置编码)

transformer模型是当前大红大热的语言模型,今天要讲解的是transformer中的positional encoding(位置编码).我们知道,transformer模型的attention机制并没有包含位置信息,即一句话中词语在不同的位置时在transformer中是没有区别的,这当然是不符合实际的。因此,在transformer中引入位置信息相比CNN, RNN等模型有更加重要的作...

2019-09-18 20:16:03

paper解读:Dictionary-Guided Editing Networks for Paraphrase Generation

突发奇想,突然想把自己阅读后的paper整理下来,整理自己思路的同时也可以方便有需要的读者阅读,感觉这应该是个好习惯hhh…今天要讲解的是谷歌在17年发表的关于复述生成的一篇论文:Dictionary-Guided Editing Networks for Paraphrase Generation什么是复述生成呢?简单来说就是一个句子经过复述后,跟原来的句子在表达形式上有所区别,但是表达的...

2019-09-10 20:26:41

python-impala安装教程

环境:Mac 10.14.3, python 3.6使用pip install,安装步骤如下:(1) pip install six(2) pip install bit_array(3) pip install thriftpy(4) pip install thrift_sasl == 0.2.1(5) pip install impyla其中,在安装第四步的时候报错如下:wa...

2019-08-16 10:35:02

普硕的秋招算法岗之路(2019届)

现在是2019.3.3,金三银四,刚好是春招黄金时刻,我把18年秋招的经历以流水账的形式写下来,反馈给我的粉丝吧(虽然也没多少粉丝),希望对各位准备找工作找实习的同学有所帮助。这篇面经主要针对算法岗,欢迎大家关注我的博客,有算法相关的问题都可以与我交流。首先,交代下背景,本人四非(非985非双一流)一本普通硕士(渣硕这个词太敏感就不说了哈哈),没论文,有比赛但不是top 3,有实习经历。先说下秋...

2019-03-03 14:44:23

查看更多

勋章 我的勋章
  • 专栏达人
    专栏达人
    授予成功创建个人博客专栏的用户。专栏中添加五篇以上博文即可点亮!撰写博客专栏浓缩技术精华,专栏达人就是你!
  • 持之以恒
    持之以恒
    授予每个自然月内发布4篇或4篇以上原创或翻译IT博文的用户。不积跬步无以至千里,不积小流无以成江海,程序人生的精彩需要坚持不懈地积累!
  • 勤写标兵Lv1
    勤写标兵Lv1
    授予每个自然周发布1篇到3篇原创IT博文的用户。本勋章将于次周周三上午根据用户上周的博文发布情况由系统自动颁发。