4 MirrorN

尚未进行身份认证

我要认证

半缘修道半缘君

等级
TA的排名 1w+

ImportError: libcudnn.so.7: cannot open shared object file错误以及非root用户安装cudnn

关于ImportError: libcudnn.so.7: cannot open shared object file错误以及非root用户安装cudnn使用 Tensorflow 的时候出现了错误Tensorflow:ImportError: libcudnn.so.7: cannot open shared object file: No such file or directory从报错信息上来看,就是libcudnn.so.7文件没有找到。首先检查是否是cuda的链接出现了错误,Import

2020-07-07 14:24:29

TIP-LAS 藏语分词工具使用

最近处理藏语语料的时候找到了李亚超老师的TIP-LAS,详细介绍可见论文: TIP-LAS:一个开源的藏文分词词性标注系统这个工具可以对藏语进行分词、词性标注处理。只是使用时遇到了一些问题,在此记录。1.安装论文中给出的github项目地址已经失效,现在的下载地址可见:TIP-LAS: An open source toolkit for Tibetan word segmentation and part of speech tagging。安装方法已经在文档中详细写出,我是在Linux环境下使用

2020-06-02 18:27:22

LaTex初次使用资料汇总

LaTex 使用最近由于课程需要,要使用LaTex,初次使用,找错误找到崩溃。。。不过LaTex的输出确实是好看啊,在这里要吐槽一些博客,点开一看,只有一个网址,然后打开,又是一个网址???应该向所有博主推一条 “严禁套娃”的消息才对嘛。。。言归正传,说一下最直观的感受,如果出现了不明白原因的错误,例如明明感觉语法格式没有问题,但是却报错了,首先要尝试的方法就是…删除生成的文件重新生成一遍,虽...

2020-04-25 21:43:47

关于torch.bmm()函数计算过程

很多框架中提供的矩阵乘法都是出于简化计算的考虑,很多情况下在进行计算时候都会牵扯到 batch size 这一个维度,这就使得很多矩阵的计算是三维的,Pytorch中的bmm()函数就可以很方便的实现三维数组的乘法,而不用拆成二维数组使用for循环解决。在查资料的时候发现有些博客写的有些小地方不太对,而且有很多提问都是关于 bmm()函数具体是如何计算的,因此记录。文章目录1.torch.bmm...

2020-03-28 09:54:46

RNN 、LSTM、 GRU、Bi-LSTM 等常见循环网络结构以及其Pytorch实现

这篇文章主要是对之前一段时间里接触到的 循环神经网络 的相关知识进行一些总结,包括个人觉得初学难理解或者需要注意的问题和如何使用Pytorch的相关函数。由于这些经典结构网上资料很多,所以一些通识不再陈述,偏重代码部分。文章目录1.RNN2.LSTM3. GRU4. Multi-Layers-LSTM4. Bi-LSTM5.参考1.RNN很多问题都归结于序列信息的处理,例如 speech r...

2020-03-19 00:18:47

关于 Numpy 以及 Pytorch 的数组shape的一点总结

文章目录1.数组中数据存储的结构2.数组的坐标问题3.对于Pytorch 的shape相关问题4. Pytorch 中几个常见的有关维度的函数4.1 squeeze() 和 unsqueeze()4.2 permute() 函数不知道大家有没有类似的问题,处理数据的时候很多时候会被各种数组的 shape 的变化搞晕,但是这方面的资料又不太好找,这里记录一点我遇到的这方面的知识点。1.数组中数据...

2020-03-09 21:45:24

论文笔记:Recurrent Neural Network Grammars

1.简介“Recurrent Neural Network Grammars” 发表与NAACL 2016,这篇论文中提出了 RNNG 模型,在之后也有很多工作基于此,像URNNG(Unsupervised RNNG)和融合RNNG的NMT等。论文中首先介绍了RNNG的判别模型,然后进行了改动,定义了生成模型,然后又介绍了RNNG作为语言模型的效果。2.定义基础RNNG来源于统计自然语言处...

2020-01-06 21:02:10

论文笔记:Tree-LSTM结构的三篇论文总结

对于序列数据而言,从最早的 RNN 结构单元,后来衍生出了 LSTM 以及 GRU 等等变种,这些变种单元的功能更好,并且有效解决了RNN的梯度消失/爆炸问题。对于树结构信息来说也是如此,2015年,三篇论文同时期提出了 Tree-LSTM 的结构,分别是:Compositional Distributional Semantics with Long Short Term Memory(Ph...

2020-01-06 17:08:16

论文笔记:Recursive Deep Models for Semantic Compositionality Over a Sentiment Treebank 递归神经网络总结

“Recursive Deep Models for Semantic Compositionality Over Sentiment Treebank”这篇论文发表于 EMNLP 2013,主要作者是 Richard Socher,非常响当当的人物,在NLP方向的论文中,经常可以看到这个名字, Socher的在2010-2015年间的很多工作都与递归神经网络有关,Recursive Neura...

2020-01-05 23:23:54

Matplotlib饼图、环图绘制代码

不只是饼状图,Matplotlb的官网上Example页面下有各种图表的例子(Matplotlib-Examples),因此,如果想要绘制图表,建议先到官网上看一看,挑选合适的图表,如果不懂的话,再找其他资料学习。最近需要绘制饼状图(其实是环状图),其实简单绘制的话是很简单的,但是对参数进行一些调整的话会使图表变得很好看,这里重点记录一下pie()函数的一些重要参数,同时记录一下这份代码作为De...

2019-11-25 19:01:44

MSTParser工具使用

前言最近做实验用到一个句法分析工具 MSTParser,关于句法分析的工具,目前使用比较多的是 Stanford 的工具,资料也容易找,但是这个MSTParser,资料是真的难找啊。我的任务是用这个工具测试对一些藏语数据建立句法树,由于资料比较少,所以也只是参考了官网README文件和一些远古时期的博客,在这里记录一下使用的过程(Windows环境下),方便日后查阅。1.安装1.1 官网 &...

2019-11-14 17:00:53

论文笔记:Reasoning about Entailment with Neural Attention

写在前面Attention mechanism 作为一种模型效果提升的方法,再很多领域都有应用,这篇论文也算是学习 Attention mechanism的经典论文之一,文中提出了一种 Attention based 的神经网络模型,用于文本蕴含推理,并取得state-of-art 的结果(当时)。文中最主要的模型是建立 word-by-word Attention 模型,与之做对比的还有几...

2019-11-03 14:01:23

论文笔记:Neural Machine Translation by Jointly Language Learning to Align and Translate

写在前面Attention 机制在许多领域中都有应用,这些模型都被称为 Attention Based Model,而这篇论文则是将注意力机制应用在神经网络机器翻译中,论文的思路很清楚,首先介绍了传统NMT系统的缺陷,然后针对这一缺陷提出改进,最后实验证明,并进行定量以及定性分析。首先我们要了解经典的Seq2Seq模型是如何进行翻译的:整体模型使用了一个 Encoder 和一个 Decoder...

2019-11-01 21:05:24

论文笔记:Learning Phrase Representations using RNN Encoder-Decoder for Statistical Machine Translation

论文学习:Learning Phrase Representations using RNN Encoder-Decoder for Statistical Machine Translation这篇论文算是 Seq2Seq(Sequenc to Sequence) 的经典论文了。文中提出了一种新的RNN模型结构用于机器翻译等工作,此外,作为LSTM单元的变种和简化版本 GRU 单元也是在文章中...

2019-10-10 21:33:09

Git使用

本篇主要记录Git使用过程中的一些常用操作以及命令。如果想要更详细地学习,可以参考这几个网站:廖雪峰 Git 教程Git 教程 菜鸟教程另外推荐一个好玩地学习Git地网站,可以玩玩。Oh Shit, Git !?!文章目录1. Git使用的整个流程2.本地创建仓库3. 提交相关的命令4. 查看日志、版本回退、撤销相关5.配置个人信息相关6.查看文件信息7.关于文件删除8.从Github...

2019-10-05 19:40:58

TensorFlow记录(二)

文章目录1.tf.contrib.learn.VocabulayrProcessor()函数1.tf.contrib.learn.VocabulayrProcessor()函数这个函数输入文本数据,以及指定句子包含单词长度,可以将文本数据转化为索引形式,但是目前来看,好像不能按照词频大小进行排列,只是单纯地按照单词出现的顺序创建词典,按照词典将句子处理成索引形式。注意对象内置的几个属性,可以...

2019-10-03 21:49:04

TensorFlow的报错信息

学习TensorFlow的过程中最不缺的就是各种报错。痛定思痛,记录一下学习中遇到的错误~文章目录1. UnicodeDecodeError:'gbk' codec can't decode byte 0xa3 in position 29: illegal multibyte sequence2.TypeError: Failed to convert object of type 1. Un...

2019-10-03 21:34:25

论文笔记:Convolutional Nerual Network for Sentence Classification

Convolutional Nerual Network for Sentence Classification论文链接:Convolutional Neural Network for Sentence Classification文中建立了一个一层卷积层和一层全连接层组成的网络,实现文本分类任务。Introduction在 Introduction 部分中,开始介绍了一些深度深度神经网...

2019-09-20 11:18:55

Python a = a + b 与 a+= b 问题

今天又遇到了这个问题,关于变量在函数内外定义以及修改的问题,在这里简要总结一下:可变与不可变对象首先这个问题归根结底是Python变量机制中的可变与不可变对象,Python中万物皆对象,简单来说,不可变对象有这几种:int float str bool tuple而可变对象有(一般自定义的类也是可变对象):list set dict所谓可变与不可变,也就是创建对象之后,...

2019-09-14 17:39:30

sklearn中TF-IDF值的计算方式

关于TF-IDF值,首先简单地提一下:TF(Term Frequency),也就是词频,这个定义很直观,也就是某个词语地频数除以整个文档的总词数:TF=某个词语出现次数文档总词语数TF=\frac{某个词语出现次数}{文档总词语数}TF=文档总词语数某个词语出现次数​对于IDF(Inverse Document Frequency)也就是“逆文本频率”,这个值主要是用来限制单纯使用TF值...

2019-09-08 22:04:05

查看更多

勋章 我的勋章
  • 新人勋章
    新人勋章
    用户发布第一条blink获赞超过3个即可获得
  • 持之以恒
    持之以恒
    授予每个自然月内发布4篇或4篇以上原创或翻译IT博文的用户。不积跬步无以至千里,不积小流无以成江海,程序人生的精彩需要坚持不懈地积累!
  • 勤写标兵Lv1
    勤写标兵Lv1
    授予每个自然周发布1篇到3篇原创IT博文的用户。本勋章将于次周周三上午根据用户上周的博文发布情况由系统自动颁发。