自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(9)
  • 资源 (3)
  • 收藏
  • 关注

原创 Windows下命令行安装Pytorch(GPU)

对于一个小白来说,找了好多博客,都是告诉你去下载cuda,cudnn,然后安装配置各种环境,十分麻烦。最近才发现了最简单的安装方法,只需要在cmd中输入简单的几行命令即可。注意:以下命令行要在对应的python环境里输入!1 首先建立国内镜像通道只需要在cmd中输入如下几行命令conda config --add channels http://mirror.tuna.tsinghua.edu.cn/anaconda/cloud/conda-forge/conda config --a.

2021-10-15 10:07:40 3325

原创 潜在语义分析学习笔记

潜在语义分析是一种无监督学习方法,主要用于文本的话题分析,其特点是通过矩阵分解发现文本与单词之间的基于话题的语义关系。1 单词向量空间2 话题向量空间

2021-02-11 20:32:16 301 1

原创 主成分分析学习笔记

1 主成分分析的应用主要用在数据降维、高维数据的探索与可视化、数据压缩、数据预处理。PCA的本质是找到某一个投影方向,使得数据在投影方向的方差最大。2 基于协方差矩阵的特征值分解(1) 对特征值进行归一化设第j个特征的均值为,标准差为,则第j个特征标准化公式为,注意是列向量(2) 计算协方差矩阵(3) 计算协方差矩阵的特征值和特征向量,可以用numpy库函数直接求解eigenvalues, eigenvectors = np.linalg.eig(sigma) (4

2021-02-06 15:17:25 172

原创 K均值聚类

1. K均值聚类采用欧式距离做为样本间的距离2. 损失函数为样本与其类的中心之间的距离的总和为损失函数,即3. 算法流程:4 特点:事先指定k个类别 以欧氏距离作为划分依据 以样本和其所属类的中心之间的距离总和为最优化的目标函数 迭代算法,并不能保证得到全局最优...

2021-01-31 14:35:26 282

原创 EM算法

1三硬币模型这里解释一下,z就是第一步硬币A掷出的结果,但是从最终观测结果来看,是看不到的,所以叫隐变量。以上模型就是告诉我们,这种带有隐变量的模型是无法求解的。还有一个重点,求的是什么?求得是模型参数θ!因此需要用迭代的方法,就是EM算法!2 EM算法下面这句话是重点!!!面试解答要求说出下面这句话说实话,我只能记住这个流程,至于推导有点看不懂。3 高斯混合模型4 总结1 EM模型是用来求解含有隐变量的模型参数,求解方式是通过迭代观测数据的极

2021-01-21 20:33:30 157

原创 提升方法学习笔记

Adaboost算法AdaBoost 用分错的数据样本来识别问题,通过调整分错的数据样本的权重来改进模型。1.什么是偏差和方差偏差指的是预测值的期望与真实值之间的差距,偏差越大, 预测值越偏离真实数据的标签。方差描述的是预测值的变化范围,离散程度,也就是离预测值期望的距离,方差越大,数据的分布越分散。2.为什么说 Bagging 可以减少弱分类器的方差,而 Boosting 可以减少弱分类器的偏差Bagging1.Bagging 算法对数据重采样,然后在每个样本集训练出来的模型上取平

2021-01-17 08:44:19 211 1

原创 KNN学习笔记

K近邻思想:物以类聚K近邻没有显式的训练过程距离度量:(1)欧式距离:两点之间直线(2)曼哈顿距离:城市街区距离(3)切比雪夫距离:棋盘距离分类方式:多数表决规则K值的选择选择较小的k值:预测结果对邻近的实例点非常敏感。选择较大的k值:对于输入实例较远的(已经不太相似)的样本点也会对预测起作用,使预测发生错误。实际:先取一个较小的K值,再通过交叉验证法来选取最有的K值...

2021-01-10 20:56:02 78

原创 朴素贝叶斯学习笔记

朴素贝叶斯的朴素是指:假设数据集样本中各个特征相互独立,这是一个很强的假设。首先朴素贝叶斯的目的是在已知一个样本x的情况下(x有n个特征,即x是n维变量),求其属于类y(假设y有m类)中的哪一类。直接拿下面例子写总结吧即已知实例变量x的情况下,求其y属于哪一类。用概率表示就是,求哪一个Ck可以让这个概率取最大值,那么y就属于这一类。计算上面的概率可以用贝叶斯公式展开:,下面分母式是常数,因此我们的目标就变成了求Ck取哪个值,能让分子概率最大,概率最大的那个就认为是当前X=x的样本下,

2021-01-10 17:02:19 206

原创 决策树学习笔记

决策树决策树是一种有监督机器学习方法。信息熵熵(entropy)是表示随机变量不确定性的度量。设X是一个取有限个值的离散随机变量,其概率分布为:,则其随机变量的信息熵为:熵越大,则随机变量的不确定性越大。决策树的目的就是让信息熵越来越小,分类则越来越明确。信息增益信息增益表示得知特征A的信息而使得总样本D的信息的不确定性减少的程度。信息增益的表达式为其中,,为样本被标签为某一类的数量,D为样本总数量。强调:是以标签分类得到的信息熵。,为以特征A为分类标

2021-01-09 14:18:31 101

mingw64-windows.zip

mingw64-windows版本,保留个备份,方便自己以后下载。 x86_64-8.1.0 release posix-seh-rt_v6

2020-04-26

opencv-4.3.0-vc14-vc15.zip

opencv-4.3.0-vc14_vc15 ,纯粹觉得官网下载太慢,所以放在这个平台上,希望下次下载快一点

2020-04-25

cmake-3.17.1-win64-x64(zip&msi).7z

由于cmake官网免费下载实在是太慢,于是我打算留一个备份,万一以后要用也可以留个下载快的地方。zip&msi格式都有,有啥区别我自己也不知道。

2020-04-25

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除