自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(116)
  • 资源 (1)
  • 收藏
  • 关注

原创 redis 压缩存储 json

压缩存储,可以将 redis 的 kv 对大小缩小大约 10 倍,加快存储、读取速度。

2023-04-14 16:36:05 374

原创 python hash 不一致踩坑总结

python hash 不一致问题

2023-03-01 14:38:02 758

原创 pytorch Embedding 层的使用

【代码】pytorch Embedding 层的使用。

2022-11-15 16:44:33 810

原创 jupyter 代码补全问题解决

jupyter 问题解决

2022-10-28 11:58:58 733

原创 TENER: Adapting Transformer Encoder for Named Entity Recognition 论文详解

https://arxiv.org/pdf/1911.04474.pdfNER 是一个根据输入的句子,预测出其标注序列(实体的序列)的过程对于模型来说,一般来说有这么几个组成部分:在此之前,双向长短时记忆网络 (BiLSTMs) 被广泛用于命名实体识别 (NER) 任务的编码器(以及其他各种 NLP 任务的编码器 decoder)。近年来,全连接自注意架构 (Transformer) 因其并行性和对长距离上下文建模的优势被广泛应用于各种自然语言处理 ( NLP ) 任务,且大都取得了比 RNNs 结构更优

2022-06-10 15:35:14 691

原创 NER 原理及 TENER 模型搭建

参考:论文地址:https://arxiv.org/pdf/1911.04474.pdf参考 Github 代码实现:https://github.com/fastnlp/TENER用到的 fastNLP Github:https://github.com/fastnlp/fastNLPfastNLP 模型 save:https://fastnlp.readthedocs.io/zh/latest/fastNLP.io.model_io.html需要保存 Vocabulary:https://fa

2022-05-11 16:35:54 1581

原创 智能营销增益模型(Uplift Modeling)实践整理

一、uplift 思想(因果推断)常用的点击率预测模型,称为响应模型(response model),即预测用户看到商品(Treatment)后点击(购买)的概率。但在营销的发放优惠券这种场景下,很自然会想到,用户是本来就有购买的意愿还是因为发放了优惠券诱使用户购买?对有发放优惠券这种有成本的营销活动,我们希望模型触达的是营销敏感的用户,即发放的优惠券促使用户购买,而对优惠券不敏感的用户——无论是否发券都会购买——最好不要发券,节省成本。营销活动中,对用户进行干预称为treatment,例如发放优惠券是

2022-04-12 16:24:31 5830 2

原创 TextCNN keras 实现

参考:https://zhuanlan.zhihu.com/p/77634533from IPython.core.interactiveshell import InteractiveShellInteractiveShell.ast_node_interactivity = "all"import numpy as npfrom sklearn import metricsimport kerasfrom keras.preprocessing import sequencefrom ke

2022-04-11 21:03:30 464

原创 TextRCNN keras 实现

import numpy as npimport gensimfrom sklearn import metricsimport kerasfrom keras.preprocessing import sequencefrom keras.models import Sequential, Modelfrom keras.layers import Dense, Dropout, Activation, concatenatefrom keras.layers import Embeddin

2022-04-11 20:58:32 372

原创 Deep Neural Networks for YouTube Recommendations 踩坑指南

特征预处理:分析特征 和 label 的关系,如果是线性单调的(特征值越大,label 为正的比例越大)或均匀分布的(无论特征值是多少,label 分布都一样),可以直接作为连续值使用,需要进行 max - min 归一化假如一些连续型特征,比如年龄特征是个正态分布,则需要分桶,保证每个桶和 label 是单调的其他的枚举值特征都需要离散化,或者 embedding 化,简单枚举值可以尝试用 01 代替特征 fillna 使用所有样本在当前特征下的 mean 值,不要用 -1(树模型一般使用 -1

2022-04-07 16:10:25 2614

原创 numpy.ndarray 转 pytorch Tensor

特征 ndarray 转 tensor torch.Tensor(train_examples[0][0])报错:TypeError: new(): data must be a sequence (got numpy.float64)需要改成:torch.Tensor(train_examples[0][0].reshape(1, n_feature))

2022-02-25 11:15:13 2434

原创 NDCG 计算

参考https://zhuanlan.zhihu.com/p/136199536http://zhaoxi-sight.com/artificial-intelligence/%E6%90%9C%E7%B4%A2%E7%B3%BB%E7%BB%9F%E4%B9%8B%E8%AF%84%E4%BB%B7%E6%8C%87%E6%A0%87ndcg/含义高相关性的文档在搜索引擎结果列表越早出现越好。即高相关性的文档出现的位置越靠前,指标会越高。NDCG 同样可以用来计算推荐系统中,召回、排序的平均点

2022-01-27 20:11:50 4012 1

原创 Deep Neural Networks for YouTube Recommendations 论文解读

介绍YouTube的推荐系统的主要挑战有三:规模:有一些算法在小规模的问题上表现很好,但是难以应用于较大规模的问题,高度专业化的分布式学习算法和高效的服务系统是处理的关键。新鲜性(冷启动):Youtube 网站上随时都有新鲜内容产生,怎么把这些新鲜内容推荐出去是需要考虑的。噪声:用户不会对观看的内容有显性的满意度评价,我们只能模拟有噪声的隐式反馈信号(用户观看时长、是否完成观看等),同时视频不是结构性的内容,需要提取到对应的特征,以让模型具有鲁棒性系统结构包括召回阶段 & 排序阶段

2022-01-27 15:58:39 1444

原创 milvus 2 使用

一些有用的官方参考术语表:https://milvus.io/cn/docs/v2.0.0/glossary.md布尔表达式语法规则:https://milvus.io/cn/docs/v2.0.0/boolean.mdField Schema (数据)支持类型:https://milvus.io/cn/docs/v2.0.0/field_schema.mdBuild an Index (索引)支持类型 No_1:https://milvus.io/cn/docs/v2.0.0/build_ind

2022-01-14 18:35:17 1754

原创 milvus 2.0安装

milvus 2.0 官方安装教程:https://milvus.io/cn/docs/v2.0.0/install_cluster-docker.md查看远程镜像版本:sudo docker search milvus拉取 milvus 镜像:sudo docker pull milvusdb/milvus安装 pymilvus:sudo python -m pip install pymilvus==2.0.0rc9下载配置文件:sudo wget https://github.com/mi

2022-01-14 18:19:47 3105 2

原创 python requirements.txt 文件

pip freeze > requirements.txtpip install -i https://pypi.tuna.tsinghua.edu.cn/simple -r requirements.txt

2022-01-12 11:17:57 236

原创 DSSM 召回整理

谷歌论文:https://www.microsoft.com/en-us/research/wp-content/uploads/2016/02/cikm2013_DSSM_fullversion.pdf这个论文主要是用来解决NLP领域语义相似度任务的。word hashing 直接把文本映射成了远低于 vocab size的向量中,然后输入DNN,输出得到一个128维的低维语义向量。Query和document的语义相似度就可以用这两个向量的cosine相似度来表示,进一步我们可以通过softmax

2021-12-28 18:01:17 677

原创 docker 安装教程

编写:docker_intall.sh,并执行:/bin/sh docker_intall.sh(其中 -y 参数表示自动选 yes)sudo yum remove docker docker-client docker-client-latest docker-common docker-latest docker-latest-logrotate docker-logrotate docker-enginesudo yum update -ysudo yum install -y yum-util

2021-12-21 14:51:14 93

原创 使用 Docker部署 Tensorflow Serving 模型服务

准备工作拉取 tensorflow servering 的 docker 镜像:sudo docker pull tensorflow/serving,一般是已经有的进入到一个测试目录:cd /home/q/test_dir/然后下载官方Demo目录:git clone https://github.com/tensorflow/serving如果无法下载,去网站 down 下来(附件),然后 deploy 上传到 linux 实体机中部署启动sudo docker run -t --rm

2021-12-20 16:49:05 2786 1

原创 在 docker 中部署 python 工程

安装 docker已经按照:docker 命令 教程,安装完成 docker,并创建了包含完整 requirement 的镜像:py_container_1工程上传首先将本地(线上)工程目录 zip 压缩,并上传到 linux 实体机,后解压缩,进入到工程目录:cd /home/q/www/python_project_1Dockerfile 文件创建在同级目录下创建 Dockerfile 文件(无扩展名): Dockerfile 的指令详解参考:http://www.ityouknow.com/

2021-12-20 16:11:58 1813

原创 docker 使用

镜像:sudo docker image pull python:3.6:拉取 python3.6 镜像sudo docker images 查看已经拉取的 python 镜像创建容器:查看容器:sudo docker ps -a创建一个临时的容器:sudo docker run -it python:3.6 /bin/bash创建后台运行的容器:sudo docker run -it -d --name=purchase_1 -v /xx/xx_dir:/home/xx_dir python

2021-12-15 19:48:00 2709

原创 tensorflow2 Dataset 相关常用函数

1. tf.constant'''Creates a constant tensor from a tensor-like object.'''features = tf.constant([[1, 3], [2, 1], [3, 3]])features<tf.Tensor: shape=(3, 2), dtype=int32, numpy=array([[1, 3], [2, 1], [3, 3]], dtype=int32)>'''If `sha

2021-11-17 15:57:34 459

原创 向量欧氏距离 &点积 & 余弦相似度 & 余弦距离

向量 A = (x1, y1),向量 B = (x2, y2)向量欧式距离:向量点积:向量的模:向量归一化:向量除以模长,也就是 A / |A|向量余弦相似度:也相当于向量归一化后的点积 A*B / |A| * |B| == A / |A| * B / |B|向量余弦距离:用1减去余弦相似度 1 - cos(A, B)。余弦距离的取值范围为[0,2]归一化后的向量的余弦距离和欧氏距离是等价的,参考:https://blog.csdn.net/liuweiyuxiang/article/d

2021-11-04 16:36:42 2946

原创 神经网络训练输入特征处理

1. 特征预处理参考:https://www.codenong.com/cs109471668/https://www.zhihu.com/question/20455227样本维度:删除重复数据删除占比过多的用户样本(采样)删除异常样本(业务判断)样本顺序要打乱:因为使用 mini-batch 学习方法,防止一个批次的样本有顺序关系,消除收敛波动特征维度:缺失值处理:填充 -1,或者平均值填充等离散、异常特征处理:去除异常特征对应的样本,按照分位截断填充某一固定值相关特征处

2021-10-27 16:44:13 2146

原创 keras 实现多任务学习

def deep_multi_model(feature_dim, cvr_label_dim, profit_label_dim): inputs = Input(shape=(feature_dim,)) dense_1 = Dense(512, activation='relu')(inputs) dense_2 = Dense(384, activation='relu')(dense_1) dense_3 = Dense(256, activation='relu'

2021-09-29 10:52:34 1119 1

原创 spark内存溢出解决方案

背景使用 pyspark 跑数据的时候,如果 dt 分区过多数据量过大,或者公司集群有内存、时长限制,会导致 job 提前结束解决方案先定义 spark 脚本#!/usr/bin/python# -*-coding:utf-8 -*-import datetimefrom pyspark.sql import SparkSessionimport sysspark = SparkSession \ .builder \ .enableHiveSupport() \

2021-09-28 17:30:35 613

原创 Flink checkpoint failed 问题解决

参考链接https://www.shuzhiduo.com/A/QW5Yv6P3dm/https://blog.csdn.net/lxhandlbb/article/details/90668040https://blog.csdn.net/zc19921215/article/details/107051883问题发现:通过 Flink UI 查看,checkpoint 总是失败Flink UI 里的每一项具体含义见:https://ci.apache.org/projects/flink/f

2021-08-18 18:00:23 5244

原创 查找 tcp 大量 ESTABLISHED 的进程

sudo netstat -antlpcd /proc/PIDcd pid(对应的pid进程号)找到对应的程序

2021-08-02 11:39:08 454

原创 hive 删除分区

alter table database.tabel drop partition (dt='20210722')

2021-07-23 11:35:20 5770

原创 实体机配置全流程

新申请的实体机:先配置 hadoop 环境然后在 home/q 下安装 anaconda 包 wget https://mirrors.tuna.tsinghua.edu.cn/anaconda/archive/Anaconda3-5.2.0-Linux-x86_64.sh sudo chmod u+x Anaconda3-5.2.0-Linux-x86_64.sh sudo ./Anaconda3-5.2.0-Linux-x86_64.sh -b -p /home/q/ana.

2021-07-02 16:38:59 150

原创 AdaBoost -> GBDT -> XGBOOST 的区别

一、参考链接https://www.zhihu.com/question/41354392二、区别传统 GBDT 以 CART (采用 gini 指数计算增益的回归树)作为基分类器,xgboost还支持线性分类器,这个时候xgboost相当于带L1和L2正则化项的逻辑斯蒂回归(分类问题)或者线性回归(回归问题)。传统 GBDT 在优化时只用到一阶导数信息,xgboost则对代价函数进行了二阶泰勒展开,同时用到了一阶和二阶导数。顺便提一下,xgboost工具支持自定义代价函数,只要函数可一阶和二阶求

2021-07-01 15:08:08 1715

原创 深度学习整理

一、模型出现过拟合现象的原因训练数据不足,有限的训练数据训练模型过度导致模型非常复杂(迭代轮次过多)样本里的噪音数据干扰过大参数太多、模型复杂度高 (网络层过多,神经元个数过多,树身过深,叶子结点过多等)二、问题解决训练集越多,过拟合的概率越小,数据增强等进行增加训练数据调低模型复杂度:减少层数、减少树深等机器学习中,增加正则约束,深度学习中,增加 Dropout 层减少训练轮次,earlystop,更加细致的数据清理(脏数据、空值数据等)...

2021-06-18 19:20:30 2422

原创 uplift 模型开源包(causalml)尝试

参考:https://github.com/uber/causalml依赖:https://github.com/uber/causalml/blob/master/requirements.txt安装:sudo pip install causalml报错:ImportError: cannot import name ‘factorial’问题解决:sudo pip install statsmodels --upgrade...

2021-06-16 17:43:02 1464 2

原创 Linux 释放 swap

sudo swapoff -a 等待一段时间,等空间释放swapon -afree -m 查看 swap 情况

2021-06-10 15:38:45 100

原创 python 批量读取 csv

import ospath_list = []for diff_day in range(60): today = datetime.datetime.strftime((datetime.date(2021, 5, 15) - datetime.timedelta(diff_day)), "%Y%m%d") each_path = "./data/xx_data_{}.csv".format(today) if os.path.exists(each_path):

2021-05-26 17:40:21 624

原创 搭建 rasa 框架流程

先初始化一个空工程,添加 compents、pre_models 路径在 config.yml 中增加 pipeline:定义 tokenizer 和 featurizer 和 classifier 等language: enpipeline: - name: WhitespaceTokenizer intent_tokenization_flag: True - name: LanguageModelFeaturizer - name: RegexFeaturizer .

2021-05-13 15:12:10 954

原创 rasa windows 安装问题解决

pip install rasa --extra-index-url https://pypi.rasa.com/simple(https://rasachatbot.com/1_Installation/)遇到问题:AssertionError: cryptography<4.0.0,>=3.3.1; extra == “crypto” .dist-info directory not found安装对应版本的 cryptography,但是:C:\Program Files (x86).

2021-05-11 17:55:52 468

原创 hive 指定位置增加一列

-- 选择数据库use db;-- 增加一列alter table xxx add columns (user_name string);-- 将增加的列放到某一列后面alter table xxx change column user_name user_name string after user_id;-- 将增加的列放到第一列位置alter table xxx change column user_name user_name string first;...

2021-04-20 16:21:40 3375

原创 spark 高级语法总结

# pandas 和 pyspark dataframe 互换# pandas 里的每一列里的所有元素必须是同一种 type 类型才可转换spark_df = spark.createDataFrame(pandas_df)pandas_df = spark_df.toPandas()# 保存分区表(覆盖 & 追加)df.write.saveAsTable("db.table", mode="overwrite", partitionBy=['dt'])df.write.saveAs.

2021-03-29 11:04:53 741

原创 pyspark orderBy drop_uplicates 保留第一条数据

# 这样无法保留第一个数据user_df = user_df.orderBy("dt", ascending=False).drop_duplicates(subset=["username"])# 需要这样使用,dt 倒排,只保存第一个rank_window = Window.partitionBy("username").orderBy(F.col("dt").desc())user_df = user_df.withColumn('rank', F.rank().over(rank_wind

2021-03-02 17:58:35 544

英文维基百科词向量训练语料

enwiki-latest-pages-articles1.xml-p10p30302.bz2,维基百科用来训练英文word2vec词向量的语料

2018-11-22

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除