11 kingzone_2008

尚未进行身份认证

对于Java、数据库、数据挖掘相关技术有浓厚兴趣

等级
TA的排名 1k+

学习SVM(四) 理解SVM中的支持向量(Support Vector)

学习SVM(四)理解SVM中的支持向量(SupportVector)版权声明:本文为博主原创文章,转载请注明出处。https://blog.csdn.net/chaipp0607/article/details/73716226学习SVM(一)SVM模型训练与分类的OpenCV实现 学习SVM(二)如何理解支持向量机的最大分类间隔 学习SVM(三)理解SVM中的对偶问题 学习SV...

2018-12-08 22:59:32

谷歌开源TF-Ranking可扩展库,支持多种排序学习

铜灵发自凹非寺 量子位出品|公众号QbitAI最近,谷歌新开源了可扩展的TensorFlow库TF-Ranking,可用于学习排序。所谓学习排序,也就是对项目列表进行排序,从而将整个功能最大化的过程。 TF-Ranking中有一套完整的学习排序的算法,包含成对或列表损失函数、多项目评分、排名度量优化和无偏见的学习排名。谷歌在官方博客表示,TF-Ranking在创...

2018-12-07 13:50:28

从ctr预估问题看看f(x)设计—DNN篇

从ctr预估问题看看f(x)设计—DNN篇lambdaJihowtomodelanything已关注吴海波等 223人赞了该文章上接机器学习模型设计五要素,这一篇接着讲模型结构设计从ctr预估问题看看f(x)设计—LR篇提到ctr预估的f(x)可以分 大规模离散LR,TreesModel,DNN&Embedding,以及Reinforcement-...

2018-11-13 11:20:38

【论文阅读笔记】Deep Learning based Recommender System: A Survey and New Perspectives

【论文阅读笔记】DeepLearningbasedRecommenderSystem:ASurveyandNewPerspectives2017年12月04日17:44:15 cskywit 阅读数:1116更多个人分类: 机器学习版权声明:本文为博主原创文章,未经博主允许不得转载。https://blog.csdn.net/cskywit/article/det...

2018-11-09 12:00:13

N-gram语言模型 & Perplexity & 平滑

N-gram语言模型&Perplexity&平滑2018年04月03日18:16:20 qjf42 阅读数:646版权声明:本文为博主原创文章,欢迎交流分享,未经博主允许不得转载。https://blog.csdn.net/qjf42/article/details/79761786 文章目录1.N-gram语言模型 2.Perplexity(...

2018-11-07 12:16:19

炼丹术的终结——神经网络结构搜索之一

炼丹术的终结——神经网络结构搜索之一2018年04月10日00:23:14 张雨石 阅读数:2820 标签: 强化学习深度学习网络结构搜索RLNAS 更多个人分类: 论文笔记版权声明:本文为博主原创文章,未经博主允许不得转载。https://blog.csdn.net/xinzhangyanxiang/article/details/79875007深度学习在2010年燃起来以...

2018-11-07 12:15:13

机器学习(二):线性回归、梯度下降、正规方程组

线性回归(LinearRegression)1最小二乘法(LeastMeanSquares)梯度下降(GradientDescent)2正规方程组(NormalEquations)3极大似然法4Locallyweightedlinearregression(LWR) ...

2018-10-12 23:05:38

sklearn与Keras的verbose相关源码

  GridSearchCV的verbose参数 grid_search.py813行838行555行ifself.verbose>0:ifisinstance(parameter_iterable,Sized):n_candidates=len(parameter_iterable)print("Fitting{0}foldsfor...

2018-10-12 23:02:32

不均衡学习的抽样方法

通常情况下,在不均衡学习应用中使用抽样方法的目的就是为了通过一些机制改善不均衡数据集,以期获得一个均衡的数据分布。研究表明,对于一些基分类器来说,与不均衡的数据集相比一个均衡的数据集可以提高全局的分类性能。数据层面的处理方法是处理不均衡数据分类问题的重要途径之一,它的实现方法主要分为对多数类样本的欠抽样和对少数类样本的过抽样学习两种。其主要思想是通过合理的删减或者增加一些样本来实现数据均衡的目...

2018-08-23 21:57:17

在分类中如何处理训练集中不平衡问题

原文地址:一只鸟的天空,http://blog.csdn.net/heyongluoyao8/article/details/49408131在分类中如何处理训练集中不平衡问题  在很多机器学习任务中,训练集中可能会存在某个或某些类别下的样本数远大于另一些类别下的样本数目。即类别不平衡,为了使得学习达到更好的效果,因此需要解决该类别不平衡问题。JasonBrownlee的回答:原...

2018-08-23 21:50:56

在分类中如何处理训练集中不平衡问题

原文地址:一只鸟的天空,http://blog.csdn.net/heyongluoyao8/article/details/49408131在分类中如何处理训练集中不平衡问题  在很多机器学习任务中,训练集中可能会存在某个或某些类别下的样本数远大于另一些类别下的样本数目。即类别不平衡,为了使得学习达到更好的效果,因此需要解决该类别不平衡问题。JasonBrownlee的回答:原...

2018-08-23 21:50:56

Python机器学习Numpy, Scipy, Pandas, Scikit-learn, Matplotlib, Keras, NN速查手册

Python机器学习Numpy,Scipy,Pandas,Scikit-learn,Matplotlib,Keras,NN速查手册 NumpySciPyScikit-LearnPandasKerasMatplotlibNeuralNetworkZoo 图片来源http://www.asimovinstitute...

2018-08-19 15:21:52

【更新于12.29】深度学习论文汇总

本博客用于记录自己平时收集的一些不错的深度学习论文,近9成的文章都是引用量3位数以上的论文,剩下少部分来自个人喜好,本博客将伴随着我的研究生涯长期更新,如有错误或者推荐文章烦请私信。深度学习书籍和入门资源LeCunY,BengioY,HintonG.Deeplearning[J].Nature,2015,521(7553):436-444. [PDF](深度学习最权威...

2018-08-08 10:43:38

玩转Fasttext

转自:http://albertxiebnu.github.io/fasttext/ Fasttext是FacebookAIResearch最近推出的文本分类和词训练工具,其源码已经托管在Github上。Fasttext最大的特点是模型简单,只有一层的隐层以及输出层,因此训练速度非常快,在普通的CPU上可以实现分钟级别的训练,比深度模型的训练要快几个数量级。同时,在多个标准的测试数据集...

2018-08-05 11:37:09

NLP︱高级词向量表达(二)——FastText(简述、学习笔记)

FastText是Facebook开发的一款快速文本分类器,提供简单而高效的文本分类和表征学习的方法,不过这个项目其实是有两部分组成的,一部分是这篇文章介绍的 fastText文本分类(paper:A.Joulin,E.Grave,P.Bojanowski,T.Mikolov, BagofTricksforEfficientText Classification(...

2018-08-05 11:11:28

Learning to Rank 简介

去年实习时,因为项目需要,接触了一下LearningtoRank(以下简称L2R),感觉很有意思,也有很大的应用价值。L2R将机器学习的技术很好的应用到了排序中,并提出了一些新的理论和算法,不仅有效地解决了排序的问题,其中一些算法(比如LambdaRank)的思想非常新颖,可以在其他领域中进行借鉴。鉴于排序在许多领域中的核心地位,L2R可以被广泛的应用在信息(文档)检索,协同过滤等领域。 ...

2018-08-03 13:55:52

keras参数调优

原文:https://machinelearningmastery.com/grid-search-hyperparameters-deep-learning-models-python-keras/本文主要想为大家介绍如何使用scikit-learn网格搜索功能,并给出一套代码实例。你可以将代码复制粘贴到自己的项目中,作为项目起始。下文所涉及的议题列表:如何在scikit-learn...

2018-07-30 21:59:26

十、如何选择神经网络的超参数

本博客主要内容为图书《神经网络与深度学习》和NationalTaiwanUniversity(NTU)林轩田老师的《MachineLearning》的学习笔记,因此在全文中对它们多次引用。初出茅庐,学艺不精,有不足之处还望大家不吝赐教。  在之前的部分,采用梯度下降或者随机梯度下降等方法优化神经网络时,其中许多的超参数都已经给定了某一个值,在这一节中将讨论如何选择神经网络的超参数。...

2018-07-30 21:46:36

神经网络结构设计指导原则

下面这个神经网络结构设计指导原则是AndrewNG在coursera的ML课程中提到的:输入层:神经元个数=feature维度 输出层:神经元个数=分类类别数 隐层:  默认只用一个隐层 如果用多个隐层,则每个隐层的神经元数目都一样 隐层神经元个数越多,分类效果越好,但计算量会增大 版权声明:本文为博主原创文章,未经博主允许不得转载。https://blog.csdn.n...

2018-07-30 21:23:21

神经网络中隐层数和隐层节点数问题的讨论

神经网络中隐层数和隐层节点数问题的讨论一 隐层数      一般认为,增加隐层数可以降低网络误差(也有文献认为不一定能有效降低),提高精度,但也使网络复杂化,从而增加了网络的训练时间和出现“过拟合”的倾向。一般来讲应设计神经网络应优先考虑3层网络(即有1个隐层)。一般地,靠增加隐层节点数来获得较低的误差,其训练效果要比增加隐层数更容易实现。对于没有隐层的神经网络模型,实际上就是一个线性或...

2018-07-30 20:24:45

查看更多

勋章 我的勋章
    暂无奖章