6 蜗牛蜗牛慢慢爬

尚未进行身份认证

我要认证

北航在读研究生~

等级
TA的排名 1k+

python魔术方法

文章目录1.构造和初始化2.属性访问控制3.描述器对象4.构造自定义容器(Container)5.上下文管理6.对象的序列化7.运算符相关的魔术方法7.1比较运算符7.2.一元运算符和函数7.3.算术运算符7.4.反算术运算符7.5.增量赋值7.6.类型转化8.其他魔术方法9.Python3中的差异看到一篇很不错的文章,之前自己也想整理一下来着,转载该文在Python中,所有以__双下划线包起来的方法,都统称为"魔术方法"。比如我们接触最多的__init__.有些魔术方法,我们可能以后一辈子都不会

2020-07-19 23:04:23

c++ tensorflow调用与BERT实战

先贴几个站点,有时间再归纳一下,关于bert的实战,后面也会整理出来reference使用C++调用TensorFlow模型简单说明C++运行TensorFlow模型tensorflow/tensorflow

2020-04-14 14:34:37

Envy(最大值前后缀 +双指针 + 二分)

Envy时间限制:1 Sec内存限制:128 MB提交:312解决:63[提交][状态][讨论版]题目描述今年的 ACM 比赛推出了一个赛后的娱乐活动,所有参赛选手排成一排玩击鼓传花,关于击鼓传花的玩法是这样的:数人或几十人围成圆圈坐下,其中一人拿花(或一小物件);另有一人背着大家或蒙眼击鼓(桌子、黑板或其他能发出声音的物体),鼓响时众人开始依次传花,...

2017-05-03 10:51:00

docker常用集锦

1.关于dockerdocker是什么?为什么要使用docker?docker的基本原理又是什么?常用命令又有哪些?这些相关概念已经很多大佬整理出来了,具体参见:Docker 入门教程 概念+特点+常用命令这可能是最为详细的Docker入门总结 原理2.常用命令Notice :下面介绍到的命令中containerID如果不特殊说明,一般都可以用containeName来代替...

2019-12-22 10:24:27

NLP之句子相似度之入门篇

文章目录1.基于统计的方法1.1.编辑距离计算1.2.杰卡德系数计算1.3.TF 计算1.4.TFIDF 计算1.5.BM252.基于深度学习的方法2.1.Word2Vec 计算6.参考文献如下在师兄的博文基础上修改:静觅 » 自然语言处理中句子相似度计算的几种方法1.基于统计的方法1.1.编辑距离计算编辑距离,英文叫做 Edit Distance,又称 Levenshtein 距离,是指...

2019-05-10 17:26:46

pycharm 基础配置

pycharm是一个相当不错的IDE,但是每次安装新环境之后就比较难受,各种设置需要重新查一遍,这里就不定时整理一点相关设置,也是根据自己的需求整理的,以免下次浪费时间文章目录1.import 红线错误2.设置字体大小1.import 红线错误在用pycharm打开一个项目的时候,很多时候会出现一些红色波浪线,提示错误,但是其实运行是没有问题的,只不过pycharm在检测import的路...

2019-05-10 17:25:31

capsules系列Investigating Capsule Networks with Dynamic Routing for Text Classification

文章目录1.背景介绍2.模型特色3.模型结构4.小结参考1.背景介绍早期对文本建模的成果,已经在文本分类方面取得了一些成功,使用简单的词袋子分类器(Joachims,1998;McCallum等,1998),意味着理解独立单词或N-gram词组的含义是研究复杂模型的必要步骤。因此,这也不奇怪出现了分布式的词语表示法,也就是词嵌入/词向量,已经得到NLP社区的高度关注,解决了在基本层面上应该对什...

2019-04-08 21:29:11

优化器算法optimizer

文章目录1.相关背景1.1.指数加权移动平均(Exponential Weighted Moving Average)1.1.1.演化与概述1.1.2.公式理解1.1.3.EMA 偏差修正1.1.4.EMA 在 Momentum 优化算法中应用的理解2.递归下降算法2.1.BGD MBGD SGD2.2.Momentum2.3.Nesterov Accelerated Gradient2.4 Ad...

2019-03-27 16:02:04

r-net:machine reading comprehension with self-matching networks

我觉得这篇文章的文笔真的有点不敢恭维,首先向量矩阵的维度不说清楚还能脑补,但是这边前后不同层之间用一样的变量名是什么意思啊(这么说出来会不会被MSRA鄙视,以后的简历都过不了了,ORZ),本文中尽量避免这种情况。嗯嗯,文章还是不错的^@^文章下载地址:这里先总结下几个特点:同时使用了char-embedding和word-embedding,不同的是char-embedding是通过将...

2019-03-01 12:40:00

capsule系列之Dynamic Routing Between Capsules

文章目录1.背景2.什么是capsule3.capsule原理和结构4.CapsNet模型介绍5.源码解析6.实验结果7.capsule相关论文参考文献capsule在出现之后就除了Hinton老爷子的两个版本之外,还有例如Investigating Capsule Networks with Dynamic Routing for Text Classification这样的新作,可见cap...

2019-02-26 22:38:23

QANet: Combining Local Convolution With Global Self-Attention For Reading Comprehension

文章目录1.概述2.模型结构2.1.Input embedding layer2.2 Embedding Encoder Layer2.3.Context-Query Attention Layer2.4.Model Encoder Layer2.5 Output layer3.数据增强4.源码及训练参考文献博主标记版paper下载地址:zsweet github关于paper,在进入正题之...

2019-02-25 16:15:32

paper:Hierarchical Attention Networks for Document Classification

又是一篇很久之前用到的模型,今天回来整理,发现分类的模型都好简单啊,然后看到模型基于GRU,总觉得有点不想看,因为带时间序列的训练起来太慢了,最进没怎么关注分类的新模型,不过我觉得CNN和transformer结构(self attention)的搭配应该是分类问题的趋势,不过这篇文章后面的attention效果可视化还是不错的~文章目录1.模型概述2.模型详情2.1.Word Encode...

2019-02-24 15:17:27

Reading Comprehension必读paper汇总

文章目录Must-read papers on Machine Reading Comprehension.Model ArchitectureUtilizing Extenal KnolwedgeExplorationOpen Domain Question AnsweringDatasets文章转自thunlp/RCPapersMust-read papers on Machine R...

2019-02-22 11:32:17

Bi-Direction attention flow for machine reading(原理篇)

首先,我们的关注层不用于将上下文段落总结为固定大小的向量。而是针对每个时间步计算注意力,并且每个时间步的注意向量以及来自前一层的表示都被允许流向后续建模层。这减少了由早期汇总造成的信息损失。 其次,我们使用无记忆的注意机制。也就是说,虽然我们像Bahdanauet al一样迭代计算时间的注意力。 (2015),每个时间步的注意力只是当前时间步的查询和上下文段的函数,并不直接取决于前一时间步的注意...

2019-02-21 15:37:53

Highway Networks

文章目录1.前言2.highway network实验结果对比resnet参考资料1.前言目前的神经网络普遍采用反向传播(BP算法)方法来计算梯度并更新w和b参数(其实就是导数的链式法则,就是有很多乘法会连接在一起),由于深层网络中层数很多,如果每层都使用类似sigmoid这样的函数,它们的导数都小于1,这样在反向传播中可能会导致最初几层的w和b参数更新的幅度非常小或者几乎不更新,也就是我们...

2019-02-20 11:10:44

machine comprehension using match-lstm and answer pointer

又是一篇之前读的paper,最近把之前读的paper整理整理…文章目录前言1.模型概述2.LSTM preprocessing Layer3.match-LSTM4.Answer Pointer Layer4.1.Sequence Model今天的主角又是在斯坦福的SQuAD的基础上,虽然是一篇比较早的文章,但是该文章是第一个在SQuAD上实现的端到端的神经网络(end-end),对于入门...

2019-02-18 18:46:27

tensorflow之dropout

参考文章深度学习中Dropout原理解析 墙裂推荐理解dropout深度学习(二十二)Dropout浅层理解与实现tensorflow1.6 的实现代码:def dropout(x, keep_prob, noise_shape=None, seed=None, name=None): # pylint: disable=invalid-name ""&a

2019-02-13 15:30:47

tensorflow之debug和可视化

文章目录1.实用小技巧之InteractiveSession2.logging日志3.tensorboard(summary)3.1.tensorboard 概述3.2.graph3.3.scalar用法2.3.distributions & histogram2.3.1.distributions2.3.2.HISTOGRAMS2.3.2.示例代码2.4.tensorboard 小结参...

2019-02-12 21:08:47

tensorflow 填坑笔记(持续更新~)

global_step全局stepglobal_step在滑动平均、优化器、指数衰减学习率等方面都有用到,这个变量的实际意义非常好理解:代表全局步数,比如在多少步该进行什么操作,现在神经网络训练到多少轮等等,类似于一个钟表。global_step经常在滑动平均,学习速率变化的时候需要用到,这个参数在tf.train.GradientDescentOptimizer(learning_rate)...

2019-02-11 12:28:21

深度模型之激活函数以及Initializer

文章目录1.为什么要激活函数2.常见激活函数2.1.sigmoid激活函数2.2.tanh激活函数2.3.Relu激活函数2.4.PRelu2.4.1.RRelu2.4.2.Leaky ReLU2.5.elu激活函数2.6.Gelu激活函数2.7.Maxout 激活函数1.为什么要激活函数举个例子,首先我们有这个需求,就是二分类问题,如我要将下面的三角形和圆形点进行正确的分类,如下图:利用我...

2019-01-25 22:21:40

查看更多

CSDN身份
  • 博客专家
勋章 我的勋章
  • GitHub
    GitHub
    绑定GitHub第三方账户获取
  • 专栏达人
    专栏达人
    授予成功创建个人博客专栏的用户。专栏中添加五篇以上博文即可点亮!撰写博客专栏浓缩技术精华,专栏达人就是你!
  • 持之以恒
    持之以恒
    授予每个自然月内发布4篇或4篇以上原创或翻译IT博文的用户。不积跬步无以至千里,不积小流无以成江海,程序人生的精彩需要坚持不懈地积累!
  • 1024勋章
    1024勋章
    #1024程序员节#活动勋章,当日发布原创博客即可获得
  • 勤写标兵Lv1
    勤写标兵Lv1
    授予每个自然周发布1篇到3篇原创IT博文的用户。本勋章将于次周周三上午根据用户上周的博文发布情况由系统自动颁发。