2 Juanly Jack

尚未进行身份认证

此人很懒。

等级
TA的排名 7w+

国际GPS(IGS)工作组

1、简介  IGS电离层工作组(Iono WG)于1998年6月开始工作。工作组的主要任务是定期提供具有2小时时间分辨率和每日GPS卫星和接收机硬件差分编码偏差(DCB)值的电离层TEC图。  这些TEC图和DCB集的计算是基于GPS双频跟踪数据的常规评估,这些双频跟踪数据用全球IGS跟踪网络记录。  目前,五个IGS电离层关联分析中心 (IAACs)将其电离层产品用于电离层工作组活动。 ...

2018-12-06 11:07:46

电离层TEC格网主要计算方法

1、TEC格网主要计算方法  利用GNSS伪距和载波相位反演视线方向上电离层TEC通常是一组离散的数据,计算全球电离层TEC格网(GIM)时必须通过一定的数学方法将其拓展至全球并生成固定格网点垂直方向上的电离层TEC.  向IGS正式提交的产品的电离层分析中心包括:欧洲定轨中心(CenterforOrbitDeterminationinEurope,CODE)、美国喷气推进实验室(...

2018-12-04 22:36:01

Hanlp 汉字转拼音如何通过python调用

0、hanlpHanLP是一系列模型与算法组成的NLP工具包,由大快搜索主导并完全开源,目标是普及自然语言处理在生产环境中的应用。HanLP具备功能完善、性能高效、架构清晰、语料时新、可自定义的特点。开源网址:HanLP: Han Language Processing但由于hanlp是用java来实现的,要在python中使用hanlp,只能通过调用pyhanlp这个包来。但是pyhan...

2018-11-30 10:41:40

Wordpiece Model --学习笔记

0、SegmentationApproaches神经机器翻译模型通常使用固定的词汇,即使翻译从根本上来说是一个开放的词汇问题(名称、数字、日期等)。有两大类方法可以解决词汇表外词汇(OOV,即词汇表未登录的词)的翻译问题。一种方法是简单地将罕见字从源复制到目标(如最罕见的字是名称或数字正确的翻译只是一个副本),要么基于注意力模型,使用外部对齐模型,甚至使用一个更复杂的专用指向网络。另一个大...

2018-11-27 11:49:03

zipfile读取zip文件以及txt编码问题 --pyhton

0、源文件格式如下把以上文件进行zip压缩,文件后缀为zip。1、用zipfile包中的ZipFile进行解压import tensorflow as tfimport zipfilewith zipfile.ZipFile('./testzip.zip') as z: read = tf.compat.as_str(z.read(z.namelist()[0])).spl...

2018-11-23 15:17:02

Markdown公式编辑LaTeX

LaTeX编辑辅助网站网址:https://www.numberempire.com/latexequationeditor.php要在博客中插入公式还要在markdown代码两边加“$”符号。

2018-11-16 18:00:56

All you need is attention(Tranformer) --学习笔记

1、回顾传统的序列到序列的机器翻译大都利用RNN或CNN来作为encoder-decoder的模型基础。实际上传统机器翻译基于RNN和CNN进行构建模型时,最关键一步就是如何编码这些句子的序列。往往第一步是先将句子进行分词,然后每个词转化为对应的词向量,那么每个句子都可以由这些词向量来构造对应的句子的序列表示向量。(1)RNN递归进行:yt=f(yt−1,xt)不管是LSTM、GRU还是S...

2018-11-16 17:13:43

Fine-tuning Approaches -- OpenAI GPT 学习笔记

1、Fine-tuning Approaches从语言模型转移学习的一个趋势是,在监督的下游任务中相同模型的微调之前,一个语言模型目标上预训练一些模型体系结构。这些方法的优点是几乎没有什么参数需要从头学习。至少部分由于这一优势,OpenAI GPT在GLUE benchmark的许多句子级别任务上取得了以前最先进的结果。微调是必须非常精确地调整模型参数以适应某些观察的过程。在没有已知机制来解释...

2018-11-15 18:17:23

Ubuntu18.04 添加下载源

1、下载并安装vim在终端输入一下命令安装vim:sudo apt-get install vim-gtk备注:可通过以下途径修改vim的界面:1)用vim打开vimrcsudo vim /etc/vim/vimrc2)将文件里面的 syntax on 取消注释。3)在文件最后一行添加以下代码:set nu // 在左侧行号...

2018-11-14 11:46:20

Ubuntu18.04安装Anaconda3.5.2记录

1、下载Anaconda点该网址进入下载页面选择下载“Anaconda3-5.2.0-Linux-x86_64.sh”。下载完成后可以返回该页面选择添加清华下载源。备注:Ubuntu18.04自带的python3.6,比Ubuntu14.04友好多了。2、安装1)按着Ctrl + Alt + T 打开终端2)在终端输入以下命令追踪到该安装包下载路径。(xxx表示的是你的用户名)cd /...

2018-11-14 10:54:40

RINEX 2.11 观测值文件格式说明

0、前言RINEX版本2格式的第一个文档是由W.Gurtner和G.Mader在1990年9/10月的CSTGGPS公报中。RINEX2.11版本修改:2004年10月。修改的主要原因是通过RINEX格式对反欺骗数据进行了新的处理。在原论文表A3中,“PGM/RUNBY/DATE”导航头文件记录缺失。1、RINEX2.10Version2.10Modifica...

2018-11-12 12:29:17

GRU(门控循环单元)--学习笔记

0、门控循环单元门控循环神经网络可以更好地捕捉时间序列中时间步距离较大的依赖关系,通过引入了门的概念,修改循环神经网络中隐藏状态的计算方式,它包括重置门、更新门、候选隐藏状态和隐藏状态。重置门有助于捕捉时间序列里短期的依赖关系。更新门有助于捕捉时间序列里长期的依赖关系。1、重置门和更新门门控循环单元中的重置门(resetgate)和更新门(updategate)的输入均为当前时间步输入...

2018-11-11 17:08:39

Attention mechanism --学习笔记

学习自:(1)注意力机制(2)什么是自注意力机制?0、注意力机制在seq2seq的模型里面,解码器在各个时间步都依赖相同的背景变量/向量来获取输入序列信息,当编码器为循环神经网络时,背景变量来着它最终时间步的隐藏状态。但显然,举个例子,若要对不同语言进行翻译,我们在解码器生成输出序列中的每个词可能仅需要利用输入序列中的某一部分信息,也就是应该对每个时间步的编码信息分配不同的注意力。回忆...

2018-11-11 15:34:26

ELMo(Embeddings from Language Models) --学习笔记

学习参考自:(1)、ELMo最好用的词向量《DeepContextualizedWordRepresentations》(2)、吾爱NLP(5)—词向量技术-从word2vec到ELMo(3)文本嵌入的经典模型与最新进展1、ELMo简介基于大量文本,ELMo模型从深层的双向语言模型(deepbidirectionallanguagemodel)中的内部状态(internal...

2018-11-09 23:20:28

seq2seq编码器与解码器 --学习笔记

0、网络图结构从上图可以看出,编码是一个RNN网络,当然可以是一个单向RNN也可以是一个双向RNN,C是一个context为背景变量,将输入信息进行编码汇总得到一个信息。接着由这个背景变量作为解码的输入,加上隐藏变量和输出变量,得到结果在进行映射,依次得到序列的每个预测结果。以上x1,x2,x3分别表示时间步输入,h1,h2等分别表示时间步隐藏状态,y1,y2分别表示时间步输出,s1,s2...

2018-11-08 20:09:07

fastText --学习笔记

学习自此处致谢李沐大神!0、子词嵌入(fastText)在法语、西班牙语、英语等语言中,一个词可能有多种内部结构和形成方式(实际上这是语言学中构词学的研究内容),为了解决这些问题,可以将单词进行结构拆分,以此来研究单词的词向量。在 word2vec 中,没有直接利用构词学中的信息,无论是在skip-gram模型还是CBOW模型中,将形态不同的单词用不同的向量来表示。例如,“dog”和“do...

2018-11-07 17:25:29

Word2Vec --学习总结笔记

0、Word2vec它将每个词表示成一个定长的向量,并使得这些向量能较好地表达不同词之间的相似和类比关系。Word2vec 工具包含了两个模型:跳字模型(skip-gram)和连续词袋模型(continuous bag of words,简称 CBOW),此外还有两种训练方法,分别为负采样和层次softmax。1、skip-gram跳字模型假设基于某个词来生成它在文本序列周围的词。举个例子,...

2018-11-07 14:54:23

全局向量GloVe --学习笔记

2018-11-06 23:10:52

基于 LSTM 电影评论情感分析

0、前言RNN网络因为使用了单词的序列信息,所以准确率要比前向传递神经网络要高。网络结构:首先,将单词传入embedding层,之所以使用嵌入层,是因为单词数量太多,使用嵌入式词向量来表示单词更有效率。在这里我们使用word2vec方式来实现,而且特别神奇的是,我们只需要加入嵌入层即可,网络会自主学习嵌入矩阵。通过embedding层,新的单词表示传入LSTMcells。这将是...

2018-11-04 13:47:02

NER --关系抽取总结

1、关系抽取概述2、关系抽取分类3、常用关系抽取方法关系抽取面临的挑战:(1)基于规则的关系抽取命名实体标签:人工规则优缺点:(2)有监督关系抽取常用特征工程:词汇特征:句法特征和其他特征:**基于Boostrapping的关系抽取**关系抽取可能存在以下问题(大部分情况适用):1)没有足够标注数据2)可能有一些种子实体对3)可能有一些非常...

2018-11-02 17:14:20

查看更多

勋章 我的勋章
  • 持之以恒
    持之以恒
    授予每个自然月内发布4篇或4篇以上原创或翻译IT博文的用户。不积跬步无以至千里,不积小流无以成江海,程序人生的精彩需要坚持不懈地积累!
  • 1024勋章
    1024勋章
    #1024程序员节#活动勋章,当日发布原创博客即可获得