2 〆bird in the pool✘✘

尚未进行身份认证

我要认证

暂无相关简介

等级
TA的排名 13w+

HTML 前导知识

在html页面中,带有“<>”符号的元素被称为HTML标签,例如, 等都是标签html中标签又分为双标签和单标签双标签<标签名>内容</标签名>形如,,等的往往是成对出现的标签叫做双标签<标签名>一般被称为开始标签(start tag),</标签名>表示给标签的作用结束一般被称为结束标签(end tag)单标签<标签...

2019-11-07 20:28:01

响应式Web开发简介

1.什么是响应式Web开发响应式Web设计(Responsive Web design)的理念是:页面的设计与开发应当根据用户行为以及设备环境(系统平台、屏幕尺寸、屏幕定向等)进行相应的响应和调整。具体的实践方式由多方面组成,包括弹性网格和布局、图片、CSS media query的使用等。无论用户正在使用手机、笔记本还是iPad,我们的页面都应该能够自动切换分辨率、图片尺寸及相关脚本功能等,以...

2019-11-07 19:51:43

数据结构-----线性表概述

线性表是数据结构中最基本的线性结构之一,是我们学习数据结构绕不开的一环在学习之前我们首先提出几个问题通过回答问题的方式来学习,并将他融会贯通。问题如下:1.线性表概述2.什么是线性表?3.线性表有什么特性?4.如何实现线性表?5.如何使用c++语言实现线性表?6.如何使用python实现线性表?7.线性表常见问题(考研总结)一,线性表概述  在学习一...

2019-10-22 20:07:03

分类,聚类,回归

所谓聚类,即根据相似性原则,将具有较高相似度的数据对象划分至同一类簇,将具有较高相异度的数据对象划分至不同类簇。聚类与分类最大的区别在于,聚类过程为无监督过程,即待处理数据对象没有任何先验知识,而分类过程为有监督过程,即存在有先验知识的训练数据集。...

2019-08-01 16:38:07

K—means(K-均值聚类算法)

K-means算法简介 K-means是一种无监督的聚类算法,其中的k代表类簇个数,means代表类簇内数据对象的均值(这种均值是一种队类簇中心的描述。K-means算法以距离作为数据对象间相似度的衡量标准,即数据对象间的距离越小,则它们的相似性越高,即它们越有可能在同一个类簇。k-means算法基本原理kmeans算法又名k均值算法。其算法思想大致为:先从样本集中随机...

2019-08-01 15:40:03

机器学习之梯度下降与线性回归问题

梯度下降(Gradient Descent)梯度下降是机器学习最基础的一个算法,在我们初次涉及机器学习时,我们学习的第一个基本算法可以肯定的说就是梯度下降,而梯度下降更是机器学习的支柱。接下来我将总结梯度下降的基本原理并给出相应的代码实现。往下看梯度下降法 梯度下降法又称最快下降法。1847年由数学家柯西提出。函数在某点的梯度▽是一个方向,...

2019-08-01 08:37:49

贝叶斯个性化排序(BPR)

前言排序推荐算法历史很悠久,早在做信息检索的各种产品中就已经在使用了,排序推荐算法大体上可以分为三类 第一类排序算法类别是点对方法(Pointwise Approach),这类算法将排序问题被转化为分类、回归之类的问题,并使用现有分类、回归等方法进行实现 第二类排序算法是成对方法(Pairwise Approach),在序列方法中,排序被转化为对序列分类或对序列回归。所谓的pair就是成...

2019-07-31 16:15:47

先验 后验概率 与 极大 最大似然估计 的异同

先验概率      先验概率(prior probability)是指根据以往经验和分...

2019-07-31 09:29:06

基于物品的协同过滤推荐系统(itemCF: ItemCollaborationFilter)

概念:  基于物品的协同过滤,是通过用户对不同物品的评分来预测物品之间的相似度,然后基于物品之间的相似度给用户做出推荐。  temCF算法的额核心思想是,给用户推荐那些和他们之前喜欢的物品相似的物品而UserCF的算法核心是向用户推荐和他们有相同兴趣爱好的用户喜欢的用品  我们这里暂时只介绍基于物品的协同过滤首先我们举一个简单的例子,如果用户A曾经购买过物品a,itemCF算法会向用户A...

2019-07-28 23:33:26

基于用户的协同过滤推荐算法(User_CF)

前言协同过滤推荐算法是诞生最早,并且较为著名的推荐算法。主要的功能是预测和推荐。协同过滤推荐系统在我们的日常生活之中无处不在,例如,在电子商城购物,系统会根据用户的记录或者其他的信息来推荐相应的产品给客户。协同过滤算法通过对用户历史行为数据的挖掘发现用户的偏好,基于不同的偏好对用户进行群组划分并推荐品味相似的商品。协同过滤推荐算法分为两类,分别是基于用户的协同过滤算法(user-b...

2019-07-27 19:49:24

协同过滤相似度计算方法--欧几里德相似度,皮尔逊相似度,余弦相似度

一,欧几里德相似度(Euclidean Distance)欧几里德距离假设想,x,y是n维空间的两点,他们之间欧几里德的距离公式如下:d(x,y)=(xi−yi)2 d(x,y) = \sqrt{(x_i-y_i)^2} d(x,y)=(xi​−yi​)2​我们可以看出当n = 2时,欧几里德距离就是平面上两点之间的距离欧几里德相似度计算公式如下:11+d(x,y) {\frac {\...

2019-07-25 10:45:25

CNN卷积神经网络(学习更新中)

卷积神经网络(Convolutional Neural Network,CNN)卷积神经网络是一种前馈神经网络,它的人工神经元可以响应一部分覆盖范围内的周围单元,对于大型图像处理有出色表现。目前, CNN 已经成为众多科学领域的研究热点之一, 特别是在模式分类领域, 由于该网络避免了对图像的复杂前期预处理, 可以直接输入原始图像, 因而得到了更为广泛的应用. 可应用于图像分类, 目标识别,...

2019-07-22 20:00:40

loss(损失函数)在训练集(train loss)和测试集(test loss)上出现的问题总结

在机器学习的过程中,我们在模型建立时,在实际测试集和训练集上误差函数可能会出现变化不一致情况。下面我简单的总结一下在程序运行过程中当trainloss不断下降,testloss也不断下降:网络仍在学习,让他继续学;trainloss不断下降,testloss趋于不变:说明网络过拟合;trainloss趋于不变,testloss不断下降:不用想数据集250%有问题;...

2019-07-22 16:43:09

监督学习,无监督学习和半监督学习

最近在学习的过程中,我常常会遇到监督学习和非监督学习,因此对这两个概念进行了一下总结,另外又补充了一下半监督学习的概念机器学习的常用方法,主要分为有监督学习(supervised learning)和无监督学习(unsupervised learning)。监督学习,就是我们常说的分类,通过已有的训练样本(即已知数据以及其对应的输出)去训练得到一个最优模型,再利用这个最优模型将所有的输入映射...

2019-07-22 15:27:20

局部最优问题

什么是局部最优百科解释:局部最优,是指对于一个问题的解在一定范围或区域内最优,或者说解决问题或达成目标的手段在一定范围或限制内最优。我们先举一个简单的例子假如我们用梯度下降找上图中的最小值,实际解应该是d点,但由于图像波动幅度很大,在程序运行结束以后,我没呢求得的值是a,b,c中的一个,虽然a,b,c是也是图像的峰值,但并不是我们想要的最小值,这就是局部最优。相关链接https:/...

2019-07-20 11:55:06

BP神经网络-神经网络前向传播和反向(BP)传播及其python实现

前言BP神经网络,可以理解为使用“BP算法进行训练”的“多层感知器模型”多层感知器(MLP)就是指得结构上多层的感知器模型递接连成的前向型网络。BP就是指得反向传播算法MLP这个术语属于历史遗留的产物,现在我们一般就说神经网络,而感知感知器是生物神经细胞的简单抽象,我们可以理解为神经网络中的一个神经元BP神经网络(BackPropagation Neuron NetWok...

2019-07-20 11:05:33

常用激活函数sigmoid,Tanh,ReLU

什么是激励函数激励函数一般用于神经网络的层与层之间,上一层的输出通过激励函数的转换之后输入到下一层中。神经网络模型非线性的,如果没有激励函数,那么每一层实际上就相等于矩阵乘法。而将过非线性的激励函数的作用,可以使神经网络拥有更过的表现力。下面我们具体的描述这一问题如下,加入x1,x2是神经网络输入层节点,net01是隐含层的一个节点,可以知道的是neto1 = x1*w1+x2*w...

2019-07-19 19:47:29

推荐系统之矩阵分解(MF)没废话,有代码

前言本文章,适合零基础学习MF(个人认为)数据集很小,只是简单但详细的讲解了矩阵分解,并给出了一个简单的代码推荐系统中最为主流与经典的技术之一是协同过滤技术(Collaborative Filtering),它是基于这样的假设:用户如果在过去对某些项目产生过兴趣,那么将来他很可能依然对其保持热忱。其中协同过滤技术又可根据是否采用了机器学习思想建模的不同划分为基于内存的协同过滤(Memo...

2019-07-18 22:34:23

L1正则化和L2正则化

前言在机器学习中存在过拟合的现象,而防止过拟合目前最常用的方法是正则化,即在cost Function中添加正则项下面是p-范数的表达式:首先,从正则化的目的角度:正则化是为了防止过拟合过拟合即学习模型在训练集样本中表现的过于优越,以至于学习模型在测试集中表现效果很差。正则化项L1和L2概括L1和L2正则化项,又称为L1范数L2范数,L1,L2正则化项都可以看做是损...

2019-07-18 20:16:32

正则化防止过拟合

过拟合过拟合(over-fitting)就是所建立的机器学习模型或者是深度下降学习模型在训练样本中表现得过于优越,导致在验证数据集以及测试数据集中表现不佳。通俗点讲就是训练出来的模型在训练集上表现很好,但那是在测试集上表现较差的一种现象。比如是识别一只狗的模型,我需要对这个模型进行训练。但是很赶巧所给训练样本中的所有训练图片都是哈士奇,那么经过多次迭代训练之后,模型训练好了,并且在训练集中表现...

2019-07-18 10:54:39

查看更多

勋章 我的勋章
  • 专栏达人
    专栏达人
    授予成功创建个人博客专栏的用户。专栏中添加五篇以上博文即可点亮!撰写博客专栏浓缩技术精华,专栏达人就是你!
  • 持之以恒
    持之以恒
    授予每个自然月内发布4篇或4篇以上原创或翻译IT博文的用户。不积跬步无以至千里,不积小流无以成江海,程序人生的精彩需要坚持不懈地积累!
  • 勤写标兵Lv2
    勤写标兵Lv2
    授予每个自然周发布4篇到6篇原创IT博文的用户。本勋章将于次周周三上午根据用户上周的博文发布情况由系统自动颁发。