自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(10)
  • 问答 (1)
  • 收藏
  • 关注

原创 v-if 与 v-show 的区别以及分别会触发什么生命周期

v-if指令状态变化会会使得组件的dom发生变化,组件将会更新视图,所以会触发父组件的beforeUpdate和updated钩子函数。v-if和v-show指令可以控制普通元素的隐藏和显示,也可能是用于控制子组件的隐藏和显示。同时,将show变量的值 从true改变为false时,会触发更更新钩子,却不能控制子组件的隐藏;解决该问题的办法说是可以添加跟标签或者通过emits属性声明自定义事件,则可以解决该问题。描述过,是说子组件一定要有根标签,不然v-show是无法控制组件的隐藏和显示的;

2023-08-14 16:32:35 772

原创 Vue Vant Cascader级联选择 异步加载地区数据 实现省市区街道...

此处需要着重说明的是,点击广东省的时候(tabIndex=0),触发的是onChange 事件,但是后续选择会触发onChange 事件和onFinish事件,本身我以为下图事件说明的意思是点击不同的省、市、区、街道…但是事实结果不是这样,除了第一层点击没有问题之外,点击第二层以及往后的每一层,级联选择器会关闭了,再次点击打开,数据还保存在上一次点击的状态,很明显,这触发了onFinish事件,关闭了级联选择器。选择第二层:触发onChange 事件和onFinish事件。

2023-07-25 17:35:17 1776 3

原创 TF-IDF和BM25算法原理及python实现

目录前言一、TF-IDFTF定义:逆文本频率指数(Inverse Document Frequency,IDF)TF-IDF(Term Frequency-inverse Document Frequency)二、BM251.BM25中的TF前言搜索引擎是如何计算关键字和内容的相关性呢?这里介绍2种重要的权重度量方法:TF-IDF和BM25。在进入理论探讨之前,我们先举个例子。假如,我们想找和“Lucence”相关的文章。可以想一下,那些内容里只出现过一次“Lucence”的文章,有可能是在讲某种技

2021-04-28 09:57:39 1448

原创 文本相似性计算之编辑距离详解

文本相似性计算之编辑距离详解概述:编辑距离(Edit Distance):是一个度量两个字符序列之间差异的字符串度量标准,两个单词之间的编辑距离是将一个单词转换为另一个单词所需的单字符编辑(插入、删除或替换)的最小数量。一般来说,编辑距离越小,两个串的相似度越大。编辑距离是1965年由苏联数学家Vladimir Levenshtein发明的。Levenshtein Distance也被称为编辑距离(Edit Distance)。一、Levenshtein.distance(str1, str2);

2021-04-26 21:37:23 5219

原创 Transformer的原理解析、理解

引言自然语言处理中的Transformer模型真正改变了我们处理文本数据的方式。Transformer是最近自然语言处理发展的幕后推手,包括Google的BERT(Bidirectional Encoder Representations from Transformers),来自Transformer的双向编码器表示。Transformer是为了解决序列传导问题或神经网络机器翻译而设计的,意味着任何需要将输入序列转换为输出序列的任务都可以用,包括语音识别和文本到语音转换等。序列传导。绿色表示输入,

2020-08-01 09:52:57 5246

原创 大规模数据的词义消歧的混合词义分类方法——阅读整理总结

介绍:尽管最近的研究证明了神经语言模型的优越性,但是WSD研究的范围仍然是几个单词的意义只能在几个领域中确定。因此,有必要朝着开发一个高度可扩展的过程的方向发展,这个过程可以处理在不同领域中出现的词义(当WSD数据集中的单词数量增加时,必须创建一个新的WSD分类器)。论文的主要贡献:介绍了一个新的大数据集,它是由牛津词典自动构建的,被广泛用作词义的标准来源;大部分的WSD数据集:部分含义;论文的WSD数据集:所有已知含义;没有构建成本;数据质量有保障;所有领域可用。提出了一个新的词义消歧模型,

2020-07-29 02:00:51 878

原创 Efficient Estimation of Word Representations in Vector Space——论文阅读

**摘要**论文提出了两种新的模型架构——CBOW, skip-gram,用于从非常大的数据集中计算单词的连续向量表示。在单词相似性任务中测量这些表征的质量,并且将结果与先前表现最佳的基于不同类型的神经网络技术进行比较。我们观察到,在低得多的计算成本下,准确度有了很大的提高。而且,这些向量为测试集提供了最好的性能,用于测量句法和语义词的相似性。**1. 简介:**当前很多自然语言处理系统和技术将单词视为原子单位——单词之间没有相似性的概念,因为它们在词汇表中都被表示为索引。这样做有几个很好的原

2020-07-26 15:03:35 1210

原创 ELMo:深度上下文化的单词表示——论文阅读

简介2018年3月份,ELMo出世,该paper是NAACL18 Best Paper。在之前2013年的word2vec及2014年的GloVe的工作中,每个词对应一个vector,对于多义词无能为力。ELMo的工作对于此,提出了一个较好的解决方案。不同于以往的一个词对应一个向量,是固定的。在ELMo世界里,预训练好的模型不再只是向量对应关系,而是一个训练好的模型。使用时,将一句话或一段话输入模型,模型会根据上线文来推断每个词对应的词向量。这样做之后明显的好处之一就是对于多义词,可以结合前后语境对多义词

2020-07-20 20:29:20 901

原创 词和短语的分布式表示及其组合性——论文阅读

简介这篇文章是Word2Vec的作者,主要工作:1. 提出skip-gram模型的扩展。如通过对高频词的二次取样(Subsampling)以提高高频词词向量的训练速度(2-10倍)和较低频词的词向量表示的质量;skip-gram模型:学习高质量分布式向量表示的有效方法,可以捕获大量准确的句法和语义关系。2. 提出了简化的噪声对比估计变体(simplified variant of Noise Contrastive Estimation,NCE)——分层softmax(Hierarchical so

2020-07-15 21:00:03 556

原创 注意力机制(Attention Mechanism)

今天看关于命名实体识别的论文的时候,关于其中运用到的模型、方法技术,大多只能大致的了解,还有模型方法的名字有个熟悉。吃完饭后对论文中出现的“注意力机制”实在是不知道是个什么意思,就自己查了资料看了看,然后自己对自己理解的部分进行了收藏整理,便于以后自己的学习和日后找出自己理解存在的问题,若有什么问题请大家指正。注意力机制(Attention Mechanism)是机器学习中的一种数据处理方法,广...

2019-12-08 21:08:10 5556

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除