9 listwebit

尚未进行身份认证

我要认证

暂无相关简介

等级
TA的排名 1w+

Tensorflow 命令行参数定义tf.flags和tf.app.flags

一、版本[tensorflow1.10 到 tensorflow1.13] 中都有tf.flags和tf.app.flags[tensorflow1.14 到 tensorflow1.15] 以及 tensorflow2.0不在有了二、作用Tensorflow 采用tf.app.flags 来进行命令行参数传递.如 - flags_test.pyimport tensorflow as tf flags = tf.app.flagsFLAGS = flags.FLAGS# Setti

2020-07-31 14:56:05

用户画像理解

一、用户画像几大模块结合业务设定指标体系,从常用的用户属性、行为、消费、风险控制这4个维度设定指标体系。用户画像的存储:标签相关数据的存储,包括Hive存储、MySQL存储、HBase存储和Elasticsearch存储。不同的存储方式适用于不同的场景和业务需要。标签数据及相关脚本的开发是用户画像构建工作的重点:常见的统计类、规则类、挖掘类、流式计算类标签以及用户特征库等与用户相关的数据的开发,还进一步介绍了如何计算人群数据、打通数据到服务层通路的开发。通过GraphX图计算用户2度关系熟

2020-07-02 16:48:13

centos7 安装cuda和cudnn

https://www.dazhuanlan.com/2019/09/27/5d8e20af422d2/

2020-06-29 14:13:05

centos7 An NVIDIA kernel module nvidia-uvm appears to alreain

centos An NVIDIA kernel module ‘nvidia-uvm’ appears to already be loaded in your kernel.解决办法:注意:在安装显卡驱动的时候如果报错ERROR: An NVIDIA kernel module ‘nvidia-uvm’ appears to already be loaded in your kernel. This may be because it is in use (for example, by th

2020-06-29 13:27:45

bert面试

总结一下bert面试相关问题1.bert基本原理是什么作者:Adherer要加油呀~链接:https://www.nowcoder.com/discuss/351902来源:牛客网BERT是“Bidirectional Encoder Representations from Transformers”的首字母缩写,整体是一个自编码语言模型(Autoencoder LM),并且其设计了两个任务来预训练该模型。第一个任务是采用MaskLM的方式来训练语言模型,通俗地说就是在输入一句话的时候,随机地选

2020-06-28 13:47:53

bert原理

bert可以分为两个阶段,预训练和微调一、预训练二、微调

2020-06-27 22:34:05

bert 源码解读

一、目录结构||—create_pretraining_data.py||—run_pretraining.py 预训练文件||—modeling.py 模型文件||—extract_features.py||—optimization.py||—run_classifiter.py||—run_squad.py||—tokenization.py

2020-06-19 18:41:28

transformer源码详解

参考文献:1.https://zhuanlan.zhihu.com/p/110800071

2020-06-11 18:31:28

transformer翻译

https://www.yiyibooks.cn/yiyibooks/Attention_Is_All_You_Need/index.html

2020-06-01 18:09:13

GPT论文梳理

简单来说,GPT的底层架构是transformer,是由pre-training和fine-tuning两部分构成的。之前有人(好像是张俊林大佬)就说过,如果GPT做成双向的,那就没Bert什么事了(不过Bert的Masked LM和Next Sentence Prediction的思想也是功不可没哒)。之所以这么说,是因为Bert底层架构也是transformer,也是由pre-training和fine-tuning两部分构成的,只不过在transformer那采用的是双向而已...

2020-05-27 18:03:46

NLP发展历程-bert详解

ERT优点Transformer Encoder因为有Self-attention机制,因此BERT自带双向功能因为双向功能以及多层Self-attention机制的影响,使得BERT必须使用Cloze版的语言模型Masked-LM来完成token级别的预训练为了获取比词更高级别的句子级别的语义表征,BERT加入了Next Sentence Prediction来和Masked-...

2020-04-26 17:58:44

2020最优秀的NLP模型

一直在关注nlp的语言模型,一般看目前最新效果最好的NLP模型,可以看榜单:https://gluebenchmark.com/leaderboard但是这里面有个问题就是,有的模型并没有放出来,或者放出来了,并没有中文预训练模型,导致无法应用到实际的项目中,目前总结一下最新可用的中文语言模型。一、ERNIE2.0目前最好的中文模型算是百度的艾尼2.0,可用在github上找到官网,但是有个...

2020-04-21 14:11:06

pycharm 用虚拟环境

一、创建项目时候选择虚拟环境二、存在项目时候替换虚拟环境1.选择项目解析器PyCharm>preferences>Project: >Project interpreter>然后选择可以用的项目解析器(虚拟环境)如果选择的没有,需要自己创建虚拟环境,右边可以add2.添加项目解析器add这个时候有多种虚拟环境可以选择,其实是多个项目依赖包管理工具。con...

2020-03-25 18:56:28

git 操作指南

一、git拉代码git 拉取代码通过两种方式git clone https://github.com/project/repo.gitgit clone git@github.com:project/repo.git区别就是所用的协议不同:https用443端口,可以对repo根据权限进行读写,只要有账号密码就可进行操作。ssh则用的是22端口,也可以对repo根据权限进行读写,但...

2020-03-23 13:25:06

Python编程:使用sys、argparse、click、fire实现命令行参数解析

python实现脚本命令行的库有:内置库sys内置库argparse第三方库click第三方库fire内置库sys一、syssys.argv 包含命令行参数列表,第一个参数是文件名sys_demo.pyimport sysdef add(a, b): return a + bif __name__ == '__main__': ret = add(sys...

2020-03-17 11:59:35

conda默认安装位置

/var/root/miniconda3/condabin/conda[yes] >>> no change /var/root/miniconda3/condabin/condano change /var/root/miniconda3/bin/condano change /var/root/miniconda3/bin/conda-envn...

2020-03-04 17:44:01

随机森林算法详解

机器学习算法–集成方法一、背景集成方法通常分为两种:1.平均方法该方法的原理是构建多个独立的估计器,然后取它们的预测结果的平均。一般来说组合之后的估计器是会比单个估计器要好的,因为它的方差减小了。示例: Bagging 方法 , 随机森林2.boosting 方法基估计器是依次构建的,并且每一个基估计器都尝试去减少组合估计器的偏差。这种方法主要目的是为了结合多个弱模型,使集成的模型更...

2020-01-16 18:33:47

linux之/usr/local/bin和/usr/bin区别

一、区别1./usr/bin下面的都是系统预装的可执行程序,会随着系统升级而改变。2./usr/local/bin目录是给用户放置自己的可执行程序的地方,推荐放在这里,不会被系统升级而覆盖同名文件。如果两个目录下有相同的可执行程序,谁优先执行受到PATH环境变量的影响,比如我的一台服务器的PATH变量为。echo $PATH/usr/local/bin:/usr/bin:/bin:/us...

2020-01-15 00:33:59

linux源码安装总结

一、安装方法1.下载源码一般从官网下载 xx.tar.gz 的文件例如:wget http://ftp.gnu.org/gnu/gcc/gcc-9.1.0/gcc-9.1.0.tar.gz2.加压源码tar -xzvf gcc-9.1.0.tar.gz3.进入解压目录进入解压缩后目录–>cd gcc-9.1.04.下载依赖运行download_prerequisites脚...

2020-01-15 00:10:10

bert多GPU训练

一、所需要的软件1.tensorflow=1.14.02.nccl

2020-01-14 13:38:18

查看更多

勋章 我的勋章
  • 持之以恒
    持之以恒
    授予每个自然月内发布4篇或4篇以上原创或翻译IT博文的用户。不积跬步无以至千里,不积小流无以成江海,程序人生的精彩需要坚持不懈地积累!
  • 勤写标兵Lv1
    勤写标兵Lv1
    授予每个自然周发布1篇到3篇原创IT博文的用户。本勋章将于次周周三上午根据用户上周的博文发布情况由系统自动颁发。