2 上课不要摸鱼江

尚未进行身份认证

我要认证

大二工科在读,对C,C++,Python,MATLAB,Lisp,SPSS略有涉猎。 在玩NAO机器人和学习machine learning,对人工智能和无人驾驶感兴趣。 对激光雷达有很大期待。 我的邮箱:jiangdan566@gmail.com

等级
TA的排名 28w+

kobe生涯数据 数据预处理

记录一下对kobe职业生涯数据的数据预处理过程,对kobe表示沉痛哀悼,永远的神…import numpy as np import pandas as pd import matplotlib.pyplot as plt%matplotlib inlinefrom sklearn.ensemble import RandomForestClassifierfrom sklearn.model_selection import KFold# import datafilename= "da

2020-07-31 12:34:12

逻辑回归实战 入学接收问题

记录利用逻辑回归进行学生入学是否接收的问题import pandas as pdimport matplotlib.pyplot as pltadmissions = pd.read_csv("admissions.csv")print(admissions.head())plt.scatter(admissions['gpa'], admissions['admit'])plt.show()原数据有两个指标:gpa、gre,一个lable:admit。#from sklearn.lin

2020-07-29 13:06:27

线性回归实战 分析汽车油耗效率

记录一下利用线性回归的机器学习实战,主题是对汽车油耗效率的分析,比较简单。是在anaconda的jupyter中做的,目的在于加深对过程的理解。import pandas as pdimport matplotlib.pyplot as plt#因为原数据集中没有指标,我需要先指定指标columns = ["mpg", "cylinders", "displacement", "horsepower", "weight", "acceleration", "model year", "origin"

2020-07-28 11:33:20

Xgboost 小白实战初探

记录学到的Xgboost实战过程,因为anaconda自带的库没有Xgboost,所以要先下载下来,方法是打开anaconda prompt终端,输入pip install xgboostXgboost是Boosting算法的其中一种,Boosting算法的思想是将许多弱分类器集成在一起,形成一个强分类器。因为Xgboost是一种提升树模型,所以它是将许多树模型集成在一起,形成一个很强的分类器。而所用到的树模型则是CART回归树模型。下面进行数据集实战,其实都是老套路了:导库读数据集分离特征

2020-07-24 20:56:18

PCA降维 小白实战初探

记录利用PCA主成分分析法对python自带的鸢尾花数据集进行降维的过程,方便以后复习~导库导数据#PCA降维鸢尾花实战import numpy as npimport pandas as pddf = pd.read_csv('iris.data')df.columns=['sepal_len', 'sepal_wid', 'petal_len', 'petal_wid', 'class'] #赋标签# split data table into data X and class lab

2020-07-21 20:24:41

出现 ImportError: No module named ‘pandas.tools‘ 错误

又是新库与旧库的冲突,将tools删掉即可,比如将from pandas.tools.plotting import scatter_matrix改为from pandas.plotting import scatter_matrix问题解决,错误来自聚类方法K-Means、DBSCAN 实战https://blog.csdn.net/qq_43653405/article/details/107470411...

2020-07-20 23:44:24

聚类方法K-Means、DBSCAN 小白实战初探

记录一下利用两种聚类方法K-Means和DBSCAN对搜集到的啤酒集进行聚类。导库读数据# beer dataset 啤酒集import pandas as pdbeer = pd.read_csv('data.txt', sep=' ')beerX = beer[["calories","sodium","alcohol","cost"]] #取出标签K-means clusteringfrom sklearn.cluster import KMeans #导入库km = KMe

2020-07-20 19:41:00

利用K-Means对图片进行压缩

之前在几次建模比赛中也用到了K-Means,但当时都是用SPSS做的,一顿操作就完了,没有了解到原理和代码方面的东西。在此记录一下用K-Means聚类法对图片进行压缩实战,方便以后复习。# -*- coding: utf-8 -*-#K-Means聚类用在图像压缩#导入KMeans库from skimage import iofrom sklearn.cluster import KMeansimport numpy as npimage = io.imread('tiger.png')

2020-07-20 13:44:57

简单的人脸分类实战(利用SVM)

因为对人脸识别比较感兴趣,故利用python自带的fetch_lfw_people库,尝试做一下人脸分类,记录一下学习过程。Example: Face Recognition 人脸分类As an example of support vector machines in action, let’s take a look at the facial recognition problem.We will use the Labeled Faces in the Wild dataset, which

2020-07-19 23:49:26

支持向量机SVM 小白实战初探

记录一下学习的支持向量机实战过程,方便以后复习和查看。支持向量机(SVM)先导库%matplotlib inlineimport numpy as npimport matplotlib.pyplot as pltfrom scipy import stats# use seaborn plotting defaultsimport seaborn as sns; sns.set()支持向量基本原理解决线性不可分问题,低维不可分问题转化为高维可分问题例子#用samples_gen

2020-07-19 22:58:47

贝叶斯单词拼写检查器

记录一下简单的单词拼写检查器,达到能对错误单词进行简单的修正的目的。求解:argmaxc P(c|w) -> argmaxc P(w|c) P( c ) / P(w)P( c ), 文章中出现一个正确拼写词 c 的概率, 也就是说, 在英语文章中, c 出现的概率有多大P(w|c), 在用户想键入 c 的情况下敲成 w 的概率. 因为这个是代表用户会以多大的概率把 c 敲错成 wargmaxc, 用来枚举所有可能的 c 并且选取概率最大的要是遇到我们从来没有过见过的新词怎么办. 假如说一

2020-07-18 16:41:10

出现TypeError: ‘KFold’ object is not iterable错误

其实是旧库和新库的冲突,将迭代的对象变一下就好了,比如for train, test in kf:...改为for train, test in kf.split(titanic):...错误来自泰坦尼克号的实战:https://blog.csdn.net/qq_43653405/article/details/107416472...

2020-07-18 10:18:07

机器学习之泰坦尼克号实战

记录一下利用线性回归、逻辑回归、随机森林算法处理泰坦尼克号数据的过程,对比准确率。数据预处理过程

2020-07-17 22:18:09

出现 __init__() got an unexpected keyword argument ‘n_folds‘错误

其实是Python旧库与新库的参数冲突,将语句中的n_folds改为n_splits就行了,比如:kf = model_selection.KFold(titanic.shape[0], n_folds=3, random_state=1)改为kf = model_selection.KFold(titanic.shape[0], n_splits=3, random_state=1)问题解决...

2020-07-17 21:14:46

k折交叉验证KFold()函数

KFold(n_split, shuffle, random_state) 参数:n_splits:要划分的折数    shuffle: 每次都进行shuffle,测试集中折数的总和就是训练集的个数    random_state:随机状态from sklearn.model_selection import KFold kf = KFold(n_splits=3,random_state=1) for train, test in kf.split(titanic):titanic为X,即要

2020-07-17 12:07:38

cd ..、cd / 和 cd ~ 的区别

cd …是回到上一级目录cd . 是当前目录cd / 是回到根目录cd ~ 回到用户主目录

2020-07-14 23:41:40

ubantu中好用的命令总结

释放内存删除那些你已经将其卸载掉的软件的包:sudo apt-get autoclean把存储的安装包全部卸载:sudo apt-get clean卸载只有它依赖的而别的软件包都不需要的软件包还留在你的系统里sudo apt-get autoremove更改文件夹权限×××指文件名(也可以是文件夹名,不过要在chmod后加-ld)sudo chmod 644 ××× (所有者有读和写的权限,组用户只有读的权限)sudo chmod 777 ××× (每个人都有读和写以及执行.

2020-07-07 12:05:29

naoV6 刷机u盘

(不一定用到,要是没法直接刷,就试试diskpart:list volumeselect volume 盘clean)管理员权限运行flasher:顺序添加即可,记得打上对勾。

2020-07-02 21:56:26

Bhuman 刷入naoV6

步骤Install 文件夹下./createRobot -t 队伍号 -r 机器人编号 -i 报的ip 机器人名字./installRobot 报的ip./copyfiles 报的ip./login 报的ip

2020-07-02 11:22:48

Ubantu 下强制删除非空文件夹

rm -rf 文件夹名

2020-07-02 10:10:33

查看更多

勋章 我的勋章
  • GitHub
    GitHub
    绑定GitHub第三方账户获取
  • 签到新秀
    签到新秀
    累计签到获取,不积跬步,无以至千里,继续坚持!
  • 技术圈认证
    技术圈认证
    用户完成年度认证,即可获得
  • 新人勋章
    新人勋章
    用户发布第一条blink获赞超过3个即可获得
  • 阅读者勋章Lv2
    阅读者勋章Lv2
    授予在CSDN APP累计阅读博文达到7天的你,是你的坚持与努力,使你超越了昨天的自己。
  • 持之以恒
    持之以恒
    授予每个自然月内发布4篇或4篇以上原创或翻译IT博文的用户。不积跬步无以至千里,不积小流无以成江海,程序人生的精彩需要坚持不懈地积累!
  • 勤写标兵Lv3
    勤写标兵Lv3
    授予每个自然周发布7篇到8篇原创IT博文的用户。本勋章将于次周周三上午根据用户上周的博文发布情况由系统自动颁发。
  • 分享学徒
    分享学徒
    成功上传1个资源即可获取