3 Wind_know

尚未进行身份认证

我要认证

暂无相关简介

等级
TA的排名 17w+

推荐系统简介

目录推荐系统概念及产生背景推荐系统定义:信息过载 & 用户需求不明确推荐系统 V.S. 搜索引擎推荐系统的工作原理及作用推荐系统的工作原理推荐系统和Web项目的区别推荐系统设计1 推荐系统要素2 推荐系统架构大数据Lambda架构Lambda架构介绍推荐系统概念及产生背景个性化推荐(推荐系统)经历了多年的发展,已经成为互联网产品的标配,也是AI成功落地的分支之一,在电商(淘宝/京东)、资讯(今日头条/微博)、音乐(网易云音乐/QQ音乐...

2020-07-15 21:43:56

TensorFlow线性回归

目录代码实现MNIST数据集神经网络构建Softmax函数数据简单分类代码实现#导包import tensorflow as tfimport numpy as npimport matplotlib.pyplot as plt#使用numpy 生成200个随机点 x_data=np.linspace(-0.5,0.5,200)[:,np.newaxis]#newaxis加维度noise=np.random.normal(0,0.02,x_data.shape

2020-07-14 19:26:08

TensorFlow的使用

Tensorflow基本概念使用图(graphs)来表示计算任务 在被称之为会话(Session)的上下文(context)中执行图 使用tensor表示数据 通过变量(Variable)维护状态 使用feed和fetch可以为任意的操作赋值或者从其中获取数据Tensorflow是一个编程系统,使用图(graphs)来表示计算任务,图(graphs)中的节点称之为op(operation),一个op获得0个或多个Tensor,执行计算,产生0个或多个Tensor。Tensor 看作是一个 n

2020-07-13 23:11:37

传统神经网络

1. 神经网络起源:线性回归线性回归:线性关系来描述输入到输出的映射关系应用场景一个线性回归问题目标方程:y=ax1+bx2+cx3+d 参数:m=[a,b,c,d],数据:[(x1,1,x2,1,x3,1), (x1,2,x2,2,x3,2), …(x1,n,x2,n,x3,n)][y1,y2…..yn]预测:ŷt=ax1,t+bx2,t+cx3,t+d目标: minimize (ŷt -yt),使得预测的y值和真实y值越小越好。优化方法(优化目标)模型参数:当

2020-07-11 21:54:17

深度学习总体介绍

知识结构传统到现在推动因素深度学习应用无人驾驶无人超市自动翻译个人助手深度学习应用特点优点:学习能力强,覆盖范围广,适应性好,可移植性好。缺点:计算量大,便携性差,硬件要求高,模型设计复杂,有可能被hack,长于计算,弱于算计。深度学习框架比较 框架 语言 语言 文档 资料 CNN 兼容 RNN ..

2020-07-10 23:16:55

回归人脸自动补全

导包import numpy as npimport matplotlib.pyplot as plt%matplotlib inline# 构建方程from sklearn.linear_model import LinearRegression,Ridge,Lasso# 构建方程???from sklearn.neighbors import KNeighborsRegressorfrom sklearn.tree import DecisionTreeRegressor

2020-07-08 09:44:18

逻辑斯蒂回归原理及其概率计算

逻辑斯蒂回归利用Logistics回归进行分类的主要思想是:根据现有数据对分类边界建立回归公式(f(x1,x2....))=w1x1+w2x2+.......),以此分类。这里的“回归”一词源于最佳拟合,表示要找到最佳拟合参数集。Logistic Regression和Linear Regression的原理(函数:二乘法(y-wx)^2,最小)是相似的,可以简单的描述这样的过程。原理过程预测函数原理代码实现import numpy as npX = ..

2020-07-03 22:45:45

线性回归,岭回归,套索回归等等

目录岭回归原理缩减系数来“理解”数据优点总结小结应用场景代码实现导包样本小于特征,无数个解打乱索引矩阵乘法比较三种算法计算斜率岭回归alpha最优化导包设X矩阵设y岭回归拟合画图表示 alpha和coefs的关系岭回归原理缩减系数来“理解”数据优点缩减方法可以去掉不重要的参数,因此能更好地理解数据。此外,与简单的线性回归相比,缩减法能取得更好的预测效果岭回归是加了二阶正则项的最小二乘,主要适.

2020-07-02 20:23:51

其他线性回归,岭回归等

普通最小二乘法范数范数(norm)是数学中的一种基本概念。在泛函分析中,它定义在赋范线性空间中,并满足一定的条件,即①非负性;②齐次性;③三角不等式。它常常被用来度量某个向量空间(或矩阵)中的每个向量的长度或大小。将数视为向量。当p取1,2,无穷的时候分别是以下几种最简单的情形:1-范数:║x║1=│x1│+│x2│+…+│xn│2-范数:║x║2=(│x1│2+│x2│2+…+│xn│2)1/2∞-范数:║x║∞=max(│x1│,│x2│,…,│xn│)其中2-.

2020-06-30 22:30:20

手写线性回归

目录导包创建数据使用已有的线性回归拟合函数自己实现线性回归使用自己实现的线性回归拟合函数导包import numpy as npimport matplotlib.pyplot as plt%matplotlib inlinefrom sklearn.linear_model import LinearRegression#导入算法创建数据X = np.linspace(2,10,20).reshape(-1,1)# f(x) = wx + by.

2020-06-28 21:54:35

线性回归原理及应用

基础知识几种常见函数的导数:① C'=0(C为常数);② (x^n)'=nx^(n-1) (n∈Q);③ (sinx)'=cosx;④ (cosx)'=-sinx;⑤ (e^x)'=e^x;⑥ (a^x)'=a^xIna (ln为自然对数)⑦ loga(x)'=(1/x)loga(e)导数的四则运算:①(u±v)'=u'±v'②(uv)'=u'v+uv'③(u/v)'=(u'v-uv')/ v^2④[u(v)]'=[u'(v)]*v' (u(v)为复合函数...

2020-06-27 11:06:39

AdaBoost原理

Bagging套袋法随机森林就采用的套袋法,在Bagging中,通过对训练样本重新采样的方法得到不同的训练样本集,在这些新的训练样本集上分别训练学习器,学习器之间是独立的,最终合并每一个学习器的结果,作为最终的学习结果,Bagging方法的具体过程如下图所示:在Bagging方法中,b个学习器之间彼此是相互独立的,这样的特点使得Bagging方法更容易并行。每个学习器权重都为1/b。Bossting提升树梯度提升树就采用的Boosting算法,与Bagging方法不同,在Boost.

2020-06-26 20:39:44

pandas批量处理体育成绩

目录导包读取数据取前45行图表中存在不规范数据,去掉该类数据缺失数据填充查看是否有空数据处理数字评分,还要读取评分表将列属性时间数据转化为浮点数据两张表索引不太对应,改变一下增加字段先转化数据计算成绩同理处理体前屈,引体,肺活量。调整顺序BMI指数统计分析画图Pandas在处理千万行级别的数据中有非常高的实用价值,pandas 本质上是对表格数据的封装,而表格数据处理必然需要遍历数据。然而,在实际使用 pandas 过程中,一般都不

2020-06-24 17:01:57

梯度分类原理

算法流程xi = np.arange(1,11)yi = np.array([0,0,0,1,1]*2)display(xi,yi)改变形状#一个参数为-1时,那么reshape函数会根据另一个参数的维度计算出数组的另外一个shape属性值。xi.reshape(-1,1)算法gbdt = GradientBoostingClassifier(n_estimators=3,max_depth=1)gbdt.fit(xi.reshape(-1,1),yi)第

2020-06-22 17:11:53

梯度下降与梯度上升

目录梯度导包方程画图对f求导求解导数令导数=0求解最小值梯度下降求解最小值用lambda表示求导后的方程设置学习率梯度下降找最优值梯度上升找最大值函数二,有最大值更新规则将每一步怎么走的过程画出来 ,加入result[]画图梯度梯度的本意是一个向量(矢量),表示某一函数在该点处的方向导数沿着该方向取得最大值,即函数在该点处沿着该方向(此梯度的方向)变化最快,变化率最大(为该梯度的模)。导包import numpy as np.

2020-06-21 22:12:09

梯度提升树

目录导包梯度提升树也是建在决策树的基础上的。树分10份,每份中是3棵树,每棵树都是多分类问题梯度提升树原理导包导入数据声明树使用回归研究其原理第二棵决策树以下数据为残差第二颗树,根据梯度提升,减小残差(残差越小,结果越好,越准确)导包概念:导数求导后还是自身import numpy as np# f(x) = 3*x**2# 梯度=导数from sklearn.ensemble import GradientBoostingClassi.

2020-06-20 22:08:11

极限森林

目录极限森林与决策树区别加载数据使用决策树使用极限森林数据质量极限森林与决策树区别决策树,进行裂分时候,根据信息增益最大进行裂分,刻板,情深不寿,慧极必伤。极限森林: 1、样本随机 2、分裂条件随机(不是最好的裂分条件)像在随机森林中一样,使用候选特征的随机子集,但不是寻找最有区别的阈值,而是为每个候选特征随机绘制阈值,并选择这些随机生成的阈值中的最佳阈值作为划分规则。加载数据X,y = datasets.load_wine(True)使用决...

2020-06-20 12:53:01

随机森林

目录导包导入数据随机森林训练相同数据用决策树算法训练导包import numpy as npimport matplotlib.pyplot as plt%matplotlib inlinefrom sklearn.ensemble import RandomForestClassifier,ExtraTreesClassifierfrom sklearn import datasetsimport pandas as pdfrom sklearn.model

2020-06-19 23:03:00

决策树使用与原理

导包import numpy as npfrom sklearn.tree import DecisionTreeClassifierfrom sklearn import datasetsimport matplotlib.pyplot as plt%matplotlib inlinefrom sklearn import treefrom sklearn.model_selection import train_test_split声明决策树clf = Decisi

2020-06-19 22:16:51

决策树中的熵原理

目录决策树ID3算法划分原则:熵:判断账号是否真实决策树决策树分类的思想类似于找对象。现想象一个女孩的母亲要给这个女孩介绍男朋友,于是有了下面的对话:决策树用的是信息论的知识,构建树其实就是给树进行排序,将无序的数据结构化。ID3算法划分原则:将无序的数据变得更加有序。熵:用熵来度量数据有序还是无序。熵这个概念最早起源于物理学,在物理学中是用来度量一个热力学系统的无序程度。而在信息学里面,熵是对不确定性的度量。在1948年,香农引入了信息...

2020-06-18 22:21:57

查看更多

勋章 我的勋章
  • 阅读者勋章Lv1
    阅读者勋章Lv1
    授予在CSDN APP累计阅读博文达到3天的你,是你的坚持与努力,使你超越了昨天的自己。
  • 持之以恒
    持之以恒
    授予每个自然月内发布4篇或4篇以上原创或翻译IT博文的用户。不积跬步无以至千里,不积小流无以成江海,程序人生的精彩需要坚持不懈地积累!
  • 勤写标兵Lv3
    勤写标兵Lv3
    授予每个自然周发布7篇到8篇原创IT博文的用户。本勋章将于次周周三上午根据用户上周的博文发布情况由系统自动颁发。