- 博客(9)
- 资源 (3)
- 收藏
- 关注
原创 Windows下命令行安装Pytorch(GPU)
对于一个小白来说,找了好多博客,都是告诉你去下载cuda,cudnn,然后安装配置各种环境,十分麻烦。最近才发现了最简单的安装方法,只需要在cmd中输入简单的几行命令即可。注意:以下命令行要在对应的python环境里输入!1 首先建立国内镜像通道只需要在cmd中输入如下几行命令conda config --add channels http://mirror.tuna.tsinghua.edu.cn/anaconda/cloud/conda-forge/conda config --a.
2021-10-15 10:07:40 3325
原创 潜在语义分析学习笔记
潜在语义分析是一种无监督学习方法,主要用于文本的话题分析,其特点是通过矩阵分解发现文本与单词之间的基于话题的语义关系。1 单词向量空间2 话题向量空间
2021-02-11 20:32:16 301 1
原创 主成分分析学习笔记
1 主成分分析的应用主要用在数据降维、高维数据的探索与可视化、数据压缩、数据预处理。PCA的本质是找到某一个投影方向,使得数据在投影方向的方差最大。2 基于协方差矩阵的特征值分解(1) 对特征值进行归一化设第j个特征的均值为,标准差为,则第j个特征标准化公式为,注意是列向量(2) 计算协方差矩阵(3) 计算协方差矩阵的特征值和特征向量,可以用numpy库函数直接求解eigenvalues, eigenvectors = np.linalg.eig(sigma) (4
2021-02-06 15:17:25 172
原创 K均值聚类
1. K均值聚类采用欧式距离做为样本间的距离2. 损失函数为样本与其类的中心之间的距离的总和为损失函数,即3. 算法流程:4 特点:事先指定k个类别 以欧氏距离作为划分依据 以样本和其所属类的中心之间的距离总和为最优化的目标函数 迭代算法,并不能保证得到全局最优...
2021-01-31 14:35:26 282
原创 EM算法
1三硬币模型这里解释一下,z就是第一步硬币A掷出的结果,但是从最终观测结果来看,是看不到的,所以叫隐变量。以上模型就是告诉我们,这种带有隐变量的模型是无法求解的。还有一个重点,求的是什么?求得是模型参数θ!因此需要用迭代的方法,就是EM算法!2 EM算法下面这句话是重点!!!面试解答要求说出下面这句话说实话,我只能记住这个流程,至于推导有点看不懂。3 高斯混合模型4 总结1 EM模型是用来求解含有隐变量的模型参数,求解方式是通过迭代观测数据的极
2021-01-21 20:33:30 157
原创 提升方法学习笔记
Adaboost算法AdaBoost 用分错的数据样本来识别问题,通过调整分错的数据样本的权重来改进模型。1.什么是偏差和方差偏差指的是预测值的期望与真实值之间的差距,偏差越大, 预测值越偏离真实数据的标签。方差描述的是预测值的变化范围,离散程度,也就是离预测值期望的距离,方差越大,数据的分布越分散。2.为什么说 Bagging 可以减少弱分类器的方差,而 Boosting 可以减少弱分类器的偏差Bagging1.Bagging 算法对数据重采样,然后在每个样本集训练出来的模型上取平
2021-01-17 08:44:19 211 1
原创 KNN学习笔记
K近邻思想:物以类聚K近邻没有显式的训练过程距离度量:(1)欧式距离:两点之间直线(2)曼哈顿距离:城市街区距离(3)切比雪夫距离:棋盘距离分类方式:多数表决规则K值的选择选择较小的k值:预测结果对邻近的实例点非常敏感。选择较大的k值:对于输入实例较远的(已经不太相似)的样本点也会对预测起作用,使预测发生错误。实际:先取一个较小的K值,再通过交叉验证法来选取最有的K值...
2021-01-10 20:56:02 78
原创 朴素贝叶斯学习笔记
朴素贝叶斯的朴素是指:假设数据集样本中各个特征相互独立,这是一个很强的假设。首先朴素贝叶斯的目的是在已知一个样本x的情况下(x有n个特征,即x是n维变量),求其属于类y(假设y有m类)中的哪一类。直接拿下面例子写总结吧即已知实例变量x的情况下,求其y属于哪一类。用概率表示就是,求哪一个Ck可以让这个概率取最大值,那么y就属于这一类。计算上面的概率可以用贝叶斯公式展开:,下面分母式是常数,因此我们的目标就变成了求Ck取哪个值,能让分子概率最大,概率最大的那个就认为是当前X=x的样本下,
2021-01-10 17:02:19 206
原创 决策树学习笔记
决策树决策树是一种有监督机器学习方法。信息熵熵(entropy)是表示随机变量不确定性的度量。设X是一个取有限个值的离散随机变量,其概率分布为:,则其随机变量的信息熵为:熵越大,则随机变量的不确定性越大。决策树的目的就是让信息熵越来越小,分类则越来越明确。信息增益信息增益表示得知特征A的信息而使得总样本D的信息的不确定性减少的程度。信息增益的表达式为其中,,为样本被标签为某一类的数量,D为样本总数量。强调:是以标签分类得到的信息熵。,为以特征A为分类标
2021-01-09 14:18:31 101
mingw64-windows.zip
2020-04-26
cmake-3.17.1-win64-x64(zip&msi).7z
2020-04-25
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人