自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(104)
  • 收藏
  • 关注

原创 Alpha-go论文分享

alpha-go

2022-06-12 17:58:07 1711 1

原创 Top-K Off-Policy Correction for a REINFORCE Recommender System

policy-gradient应用到推荐领域:主要有3个创新点:1. 校正off-policy与on-policy之间的偏差2. top-k推荐而不是只推荐一个3. 加入探索方式

2022-06-07 11:23:54 488

原创 Reinforcement Learning for Solving the Vehicle Routing Problem

Reinforcement Learning for Solving the Vehicle Routing Problem再这个工作中,开发了一个使用强化学习来解决大规模组合优化问题的框架,并将其应用到VRP问题中。为了这个目的,考虑使用Markov Decision Process来建模问题,最优解可以看做序列决策,这就可以使用通过RL来增加decode 期望序列的概率来产生次优解。一个天然的想法是通过考虑每个样本独立的来找到一个特定于问题的解。此外,所学习的策略不适用于除训练中使用的实例以外的实例;

2020-12-30 15:00:21 1557

原创 Efficiently Solving the Practical Vehicle Routing Problem: A Novel Joint Learning Approach(GCN-NPEC)

Efficiently Solving the Practical Vehicle Routing Problem: A Novel Joint Learning Approach(GCN-NPEC)KDD2020使用GCN + 强化学习解决VRP问题1.1.1 目标函数:每辆车的花费 + 行驶距离最终生成π\piπ 为每个车辆的行驶路径1.2 Graph Convolutional Networks with Node Sequential Prediction and Edge C

2020-12-25 21:10:04 1601 1

原创 xgboost使用one-hot编码方式是否合理

one-hot编码方式离散特征为什么要是用one-hot编码方式:类别编码默认特征是有序的,不适用于离散特征特征之间的距离计算方式更加合理编码后每一维的特征都是独立的,可以看做是连续特征无法考虑特征之间的相互关系决策树与类别编码在树模型中,当类别特征为数很高时,one-hot编码并不合适:使用one-hot coding的话,意味着每一个决策节点上只能用one-vs-rest的切分方式,当特征维度高时,每个类别的数据都会比较少,产生的切分不平衡,切分增益也会很小会影响决策数的学习,会

2020-10-17 22:33:01 3257

原创 Hadoop分布式文件系统

但数据集的大小超过一台独立物理计算机的存储能力时,就有必要对它进行分区并存储到若干台单独的计算机上。管理网络上跨多台计算机存储的文件系统称为分布式文件系统。Hadoop有一个称为HDFS的分布式系统,全称为Hadoop Distributed FileSystem。HDFSHDFS以流式数据访问模式来存储超大文件流式数据访问:HDFS的构建思路是这样的:一次写入,多次读取是最高效的访问模...

2020-07-19 00:55:24 8389 7

原创 git原理与命令介绍

1. 分支简介1.1 git分支创建在进行提交操作时,git会保存一个提交对象,该对象包含一个指向暂存内容的指针,还包括作者信息,提交时输入的信息以及指向它的父对象的指针。git的分支其实本质上仅仅是指向提交对象的可变指针,git的默认分支是master,git init命令默认创建它,master分支会在每次提交时自动向前移动。git分支创建其实是创建了一个可以移动的新指针$ git branch testing //创建testing分支这会在当前所在的提交对象上创建一个指针当前

2020-07-11 21:29:15 204

原创 Boosting算法与假设间隔

Boosting算法与假设间隔间隔概念AdaBoost算法AdaBoost 平均间隔参考资料间隔概念间隔是一种几何度量,能够用于度量分类器预测的可信程度。间隔的两种定义:1. 样本间隔: 被预测样本与决策面间的距离。支持向量机( support vector machine,SVM) 算法采用了样本间隔概念; ②假设间隔: 要求对分类器之间的距离进行度量,表示在不改变分类结果的前提下分类器可...

2020-04-01 20:10:12 520

原创 FM算法

FM算法存在的问题基于的思想具体方法时间复杂度优点参考资料存在的问题稀疏数据下的特征组合问题类别特征经过one-hot编码转换后会导致样本特征的稀疏性,并且会得到千万级别甚至上亿级别的特征空间,导致特征空间爆炸多项式模型:可以看出,组合的特征的参数一共有 n(n−1)2\frac{n(n-1)}{2}2n(n−1)​个,并且它们都是相互独立的,而且在数据稀疏普遍存在的实际应用场景中...

2019-12-12 22:16:08 1027

原创 leetcode排列组合集合

46. PermutationsGiven a collection of distinct integers, return all possible permutations.Example:Input: [1,2,3]Output:[[1,2,3],[1,3,2],[2,1,3],[2,3,1],[3,1,2],[3,2,1]]class Solution {pu...

2019-11-30 13:25:48 272

原创 DFS深度优先搜索(leetcode题目)

题目链接leetcode 494. Target Sumdp(暴力搜索)class Solution {public: int ways; int findTargetSumWays(vector<int>& nums, int S) { ways=0; findTargetSum(nums, 0, 0, S); ...

2019-10-20 17:02:32 746

原创 Adapting Markov Decision Process for Search Result Diversification

多样化排名的MDP形式多样化排序模型可以被看作是在每一个排序位置学习MDP模型的参数。其中MDP的states,actions,rewards,transitions和policy。State S:st=[Zt,Xt,ht]s_t=[Z_t, X_t,h_t]st​=[Zt​,Xt​,ht​]其中hth_tht​是编码了用户从之前的文档ZtZ_tZt​接收到的untility,还有基于q需...

2019-07-03 20:20:12 355

原创 Diverse Ranking with Policy-Value Networks

文章目录Abstract:Introduction相关工作2.1搜索结果多样性2.2 强化学习for IR3. MDP and MCTS3.1 Markov decision process3.2 Monte Carlo tree search4.使用policy-value networks进行多样化排序4.1 MDP formulation of diverse ranking4.2 Stre.................................

2019-06-23 17:14:18 647 3

原创 样本不权衡&easy和hard样本:Focal loss和Gradient Harmonizing Mechanism

本文主要介绍两个在目标检测中解决正负样本和easy,hard样本不平衡问题的方法,分别是发表在ICCV 2017上的Focal Loss for Dense Object Detection和AAAI 2019上的Gradient Harmonized Single-stage Detector。这两种方法都是通过调整每个样本的loss来解决不平衡问题。这两种方法都是针对目标检测任务提出的,首先...

2019-06-15 17:30:35 1834

原创 交叉熵与KL散度和交叉熵之间的关系

熵的本质是香农信息量log1plog\frac{1}{p}logp1​现有关于样本即的2个概率分布p和q,其中p为真是分布,q为非真实分布。按照真实分布p来衡量识别一个样本所需要的编码长度的期望(即平均编码长度)为:H(p)=−∑ip(i)logp(i)H(p)=-\sum_i p(i)log p(i)H(p)=−i∑​p(i)logp(i)如果使用错误分布q来表示来自真是分布p的平均编码长度...

2019-05-30 22:02:31 9520 4

原创 优化方法总结以及Adam存在的问题(SGD, Momentum, AdaDelta, Adam, AdamW,LazyAdam)

文章目录优化方法概述整体框架SGDMomentum理解指数加权平均偏差修正AdaGradAdaDelta/RMSPropAdam(Adaptive Moment Estimation)Adam+L2 regularizationL2 regularization与Weight decay学习率衰减局部最优优化方法概述模型优化方法的选择直接关系到最终模型的性能。有时候效果不好,未必是特征的问题或...

2019-05-29 01:07:50 32214 10

原创 DeepFM理论

文章目录CTR预估其他方法的缺点该方法解决的问题具体方法实现FM ComponentDeep Componentembedding层该方法的优点CTR预估CTR预估数据的特征:输入数据包括类别型和连续型数据,类别型数据在经过one-hot编码之后维度非常的高,而且非常稀疏。CTR预估的重点在于学习组合特征(二阶,三阶甚至高阶的),高阶和低阶的组合特征都非常重要。关键问题是:如何高效的提取这些...

2019-05-20 19:17:52 507

原创 NFM(Neural Factorization Machines for Sparse Predictive Analytics)

普遍问题在预测任务中,特征向量是高度稀疏的,学习特征交互是重要的为什么提出该方法,其他方法的缺点人工设计特征组合需要领域知识,很难泛化到新问题或者新领域,没有办法捕获到没有出现在训练数据中的组合特征;embedding的方式:FM:以线性的方式学习二阶特征交互,对于捕获现实数据非线性和复杂的内在结构表达力不够;深度网络:例如Wide&Deep 和DeepCross,简...

2019-05-19 22:00:51 816

原创 决策树完整总结(ID3,C4.5,CART)

文章目录1.介绍1.1 定义1.2 决策树与条件概率分布1.3 决策树的构建1.3.1 划分准则1.3.2 停止条件:2. 决策树的构建过程2.1 ID3算法2.2 C4.5算法3. 决策树的剪枝算法3.1:树的剪枝算法:3.1 基尼指数5.2 CART剪枝4. 优点1.介绍1.1 定义决策树学习的目标是根据给定的训练数据集合构建一个决策树模型,使它能够对实例进行正确的分类。决策树学习的本质...

2019-04-29 23:19:19 2848

原创 奇异值分解

奇异值分解理论描述新的改变功能快捷键合理的创建标题,有助于目录的生成如何改变文本的样式插入链接与图片如何插入一段漂亮的代码片生成一个适合你的列表创建一个表格设定内容居中、居左、居右SmartyPants创建一个自定义列表如何创建一个注脚注释也是必不可少的KaTeX数学公式新的甘特图功能,丰富你的文章UML 图表FLowchart流程图导出与导入导出导入理论描述奇异值分解(singular va...

2019-04-26 16:20:24 574

原创 朴素贝叶斯分类器及python实现

一.贝叶斯公式概率论的一些基本知识: 条件概率:P(A|B)P(A|B) 联合概率:P(AB)=P(B)∗P(A|B)=P(A)∗P(B|A)P(AB)=P(B)*P(A|B)=P(A)*P(B|A) 从而导出贝叶斯式:P(A|B)=P(AB)|P(B)=P(A)∗P(B|A)/P(B)P(A|B)=P(AB)|P(B)=P(A)*P(B|A)/P(B) 条件概率的链式法则: P(A1,A

2019-04-24 18:41:57 9719 4

原创 最小生成树与并查集(leetcode684,685, 721)

文章目录最小生成树Kruskal算法Prime算法并查集三个操作具体题目path compression和union by rank参考资料最小生成树说道并查集,不得不提的是最小生成树,因为并查集的最经典的应用就是解决最小生成树的Kruskal算法。有两个经典的算法可以用来解决最小生成树问题:Kruskal算法和Prim算法。其中Kruskal算法中便应用了并查集这种数据结构。Kruska...

2019-04-23 12:29:02 4968 1

转载 Bert模型-自然语言处理中的预训练技术发展史

为什么Bert最近很火?其实Bert并没有重大的理论或者模型创新,创新并不算大。主要原因是效果太好了,刷新了很多NLP任务的最好性能,有些任务还被刷爆了。另外一点是Bert具备广泛的通用性,绝大部分的NLP任务都可以采用类似的两阶段模式直接去提升效果。NLP中的预训练过程发展历史要将NLP中的预训练,首先要从图像领域的预训练说起。预训练过程是图像或者视频领域的一种比较常规的做法,这种做法很有...

2019-04-18 22:13:02 2544

原创 2019字节跳动笔试题

测试用例:N组数据每组数组输入n个人,n个人的分数输入:221 241 2 3 3输出38第四题:有N根绳子,第i根绳子长...

2019-03-16 12:50:31 3756 1

原创 用快排解决Leetcode 169. Majority Element(c++实现)

快速排序快速排序的基本思想:通过一趟排序将待排记录分隔成独立的两部分,其中一部分记录的关键字均比另一部分的关键字小,则可分别对这两部分记录继续进行排序,以达到整个序列有序。算法描述快速排序使用分治法来把一个串(list)分为两个子串(sub-lists)。具体算法描述如下:从数列中挑出一个元素,称为 “基准”(pivot);重新排序数列,所有元素比基准值小的摆放在基准前面,所有元素比基...

2019-01-06 09:34:27 327

原创 leetcode148归并排序 (递归与非递归c++实现)

归并排序:是一种非线性时间比较类排序,采用分治的策略,通过比较来决定元素间的相对次序.时间复杂度不受数据本身影响.c++递归实现:#include&amp;lt;cstdlib&amp;gt;using namespace std;void MergeSort(int* A, int* L, int lenOfL, int* R, int lenOfR){ int i=0, j=0...

2019-01-05 17:20:16 1525 2

原创 推荐系统:Content-based & Collaborative Filtering

X = set of 顾客S = set of 商品Utility function: X ×\times× S = RR = 打分的集合本文将主要针对以下关键问题进行阐述:(1) 收集矩阵中已知的打分:怎么收集utility matrix中的数据(2) 根据已知的打分推断未知的得分:我们主要关心的是未知的高分项,因为我们只想知道客户喜欢什么而不关心客户不喜欢什么(3) 评估推断方...

2019-01-03 19:45:55 5566

原创 c++中set与map用法详解

关于STLc++ STL之所以得到广泛赞誉,也被很多人使用,不只是提供了向vector,string,list等方便的容器,更重要的是STL封装了许多复杂的数据结构算法和常用的数据结构操作。vector封装了数组,list封装了链表,map和set封装了二叉树等。在封装这些数据结构的时候,STL按照程序员的使用习惯,以成员函数方式提供了常用操作,如:插入,排序,删除,查找等。1.set和map...

2019-01-03 10:18:17 6644

原创 训练-测试数据类别不平衡和交叉熵(Quora question pair challenge中的类别不平衡问题)

介绍假设我们想要在一个二分类问题上训练一个机器学习模型, 一个标准的度量模型性能的方法叫做log-loss或binary cross-entropy. 这意味着对于给定的预测标签y的任务, 我们想要得到概率y^\hat{y}y^​,而不是仅仅输出一个0/1的预测类别.模型的cross entropy 分数定义为:∑i−yilogyi^−(1−yi)log(1−yi^)\sum_i -y_i l...

2018-12-24 19:33:22 2878

原创 cross entropy 与 square error(square error在神经网络中的梯度消失问题)

在训练神经网时,应该使用哪一个呢?如果是回归问题,用均方误差(MSE).如果是分类问题,一般用交叉熵损失(CE).因为MSE容易发生梯度消失问题,而CE则不会.以分类问题为例,假设我们的类别数量为T,最后一层使用softmax.对一条样本(x,c)而言,其label为c.在神经网络softmax之前的那一层,共有T个神经元:不管是用MSE还是CE,我们都是希望ycy_cyc​越大越好,其...

2018-12-15 17:01:50 1920

原创 多标签分类算法 MK-KNN: A Lazy Learning approach to Multi-Label Learning

1. 多标签学习多标签学习起源于文本分类问题中遇到的概念歧义的困难,每个文本可能同时属于多个主题。再多标签学习中,训练集由样本同时与多个标签相关,我们的任务是通过分析已知标签集的训练样本来预测未观测样本的标签集。我将在这里介绍一个多标签lazy学习方法–ML-KNN,它是由传统的K-Nearest Neighbor(K最近邻算法)衍生而来。首先,与KNN一样,对于每个未观测样本,找出其训练集中的...

2018-11-29 20:08:49 3211

原创 c++ priority_queue优先级队列

优先级队列当需要获取到最大最小元素值,而又不想用最大最小堆的原生实现,STL提供了更简单的库,就是priority_queue,其时间复杂度也只有O(nlogn)O(nlogn)O(nlogn)priority_queue的本质是一个堆,其相对于queue的不同之处在于:优先队列实现了内部自动排序,可根据自己的需要自定义排序规则,可以自己编写函数或者仿函数用于内部优先级的确定。头文件为#in...

2018-11-28 23:37:45 1441

原创 c++ 中的字符串操作

c风格字符串char st[100]字符串长度strlen(st)字符串比较strcmp(st1, st2);strncmp(st1, st2, n);把两个字符串的前n个进行比较;附加strcat(st1, st2)strncat(st1, st2, n); n表示连接上st2的前n个给st1替换strcpy(st1, st2)strncpy(st1, st2, n)...

2018-11-16 10:41:49 377 1

原创 维度归约

1.为什么要把降维作为一个单独的预处理步骤?复杂度依赖于输入的维度d和数据样本的规模N,为了减少存储量和计算时间。较简单的模型在小数据集上更为鲁棒,较简单的模型具有较小的方差。当数据能够用较少特征解释时,就能够更好地理解解释数据的过程,使得能够提取知识。当数据能够用少数维表示而不丢失信息时,我们可以对数据绘图,并且可视化地分析它的结构和离群点。降维的主要方法有两个:特征选择和特征提取...

2018-11-01 20:42:20 1441

原创 动态规划

动态规划动态规划解题的基本思路新的改变功能快捷键合理的创建标题,有助于目录的生成如何改变文本的样式插入链接与图片如何插入一段漂亮的代码片生成一个适合你的列表创建一个表格设定内容居中、居左、居右SmartyPants创建一个自定义列表如何创建一个注脚注释也是必不可少的KaTeX数学公式新的甘特图功能,丰富你的文章UML 图表FLowchart流程图导出与导入导出导入动态规划解题的基本思路1.如果...

2018-09-24 16:43:17 209

原创 多标签分类问题的评价指标

多标签分类的评价指标多标签学习系统中的性能评估与经典的单标签学习问题中不同,在单标签问题中使用的经典度量标准包括准确率,Precision,Recall 和 F-measure.在多标签学习中,评估会更加复杂,对于一个测试集S={(x1,Y1),(x2,Y2),...,(xp,Yp)}S={(x1,Y1),(x2,Y2),...,(xp,Yp)}S=\{(x_{1},Y_1),(x_2,Y_2...

2018-09-09 09:39:04 17552 5

原创 逻辑回归与最大似然估计推导

目录逻辑回归(对数几率回归)1.广义线性模型2.逻辑回归的假设3. 逻辑回归的代价函数为什么LR中使用交叉熵损失函数而不使用MSE损失函数?3. 极大似然估计4. 利用梯度下降法求解参数w4.1 三种梯度下降方法的选择5.逻辑回归优缺点:参考资料:逻辑回归(对数几率回归)逻辑回归是一种分类算法,不是回归算法,因为它用了和回归类似的思想来解决了分类问题...

2018-08-01 16:42:31 31583 7

原创 ROC及AUC计算方法及原理

1.非均衡分类问题在大多数情况下不同类别的分类代价并不相等,即将样本分类为正例或反例的代价是不能相提并论的。例如在垃圾邮件过滤中,我们希望重要的邮件永远不要被误判为垃圾邮件,还有在癌症检测中,宁愿误判也不漏判。在这种情况下,仅仅使用分类错误率来度量是不充分的,这样的度量错误掩盖了样例如何被错分的事实。所以,在分类中,当某个类别的重要性高于其他类别时,可以使用Precison和Recall多个比...

2018-07-30 20:20:31 84689 14

原创 支持向量机

支持向量机是一种二类分类模型,它的基本模型是定义在特征空间上的间隔最大的线性分类器。支持向量机可以形式化为一个求解凸二次规划的问题,也等价于正则化的合页损失函数的最小化问题,支持向量机的学习算法是求解凸二次规划的最优化算法。支持向量机包括构建由简至繁的模型:1.线性可分支持向量机:当训练数据是线性可分时,通过硬间隔最大化学习一个线性分类器;2.线性支持向量机:当训练数据近似线性可分时,...

2018-07-27 23:11:51 10593

原创 拉格朗日乘子与KKT条件

 拉格朗日乘子法和KKT(Karush-Kuhn-Tucker)条件是求解约束优化问题的重要方法,再有等式约束时使用拉格朗日乘子法,在有不等式约束时使用KKT条件。前提是,只有当目标函数为凸函数时,使用这两种方法才能保证求得的是最优解。拉格朗日乘子法:设,是定义在上的连续可微函数,考虑约束最优化问题:将这个问题转换为:其中,称为拉格朗日乘子。下面依据wikipedi...

2018-07-25 23:07:57 998

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除