自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(0)
  • 资源 (15)
  • 收藏
  • 关注

空空如也

利用自动编码器实现手写数字图像数据集的二维平面的展示.py

利用自动编码器实现手写数字图像数据集的二维平面的展示 import tensorflow as tf import matplotlib.pyplot as plt from tensorflow.examples.tutorials.mnist import input_data mnist = input_data.read_data_sets("MNIST_data/", one_hot=False)#独热编码设为False # xs, ys = mnist.train.next_batch(10) #这个函数是取出一些数据。是从训练集里一次提取10张图片。则xs中存储的是图像的数据,ys存储的是这些图像对应的类别 # print (ys) #此时打印的应该是类别 # mnist = input_data.read_data_sets("MNIST_data/", one_hot=True) # xs,ys = mnist.train.next_batch(10) # print (ys) #此时打印的应该是独热编码的形式

2020-06-20

4.7.2和4.6.2.rar

当全新安装 Windows 7 SP1 后,在未安装任何补丁,也未进行联网的状态下,安装 .NET Framework 4.6 或更高的版本时,应该会遇到错误提示:无法建立到信任根颁发机构的证书链。 铁軼: 1.下载证书:MicrosoftRootCertificateAuthority2011.cer 铁軼: 2.开始→运行→MMC 3.文件→添加删除管理单元 (Ctrl+M) 4.证书→计算机账户(其他的都保持默认,无限下一步) 5.回到窗体,展开:证书→受信任的根证书颁发机构→证书 6.右击展开菜单,所有任务→导入 7.剩下的,就是选择你下载好的cer文件,然后无限下一步了。

2020-06-19

decisionTreeBreastcanserDataset.py

#威斯康辛乳腺癌数据集-实现决策树算法 使用五倍交叉验证 from sklearn import datasets ##乳腺癌数据集 x,y=datasets.load_breast_cancer(return_X_y=True) #导入决策树 from sklearn.tree import DecisionTreeClassifier #导入集合分割,交叉验证,网格搜索 from sklearn.model_selection import train_test_split,cross_val_score seed=5#随机种子 #分割训练集与测试集 xtrain,xtest,ytrain,ytest=train_test_split(x,y,test_size=0.3,random_state=seed) #训练 rfc=rfc.fit(xtrain,ytrain) #测试评估 result=rfc.score(xtest,ytest) print(result) #决策树

2020-05-13

利用tensorflow实现的卷积神经网络来进行MNIST手写数字图像的分类.py

利用tensorflow实现的卷积神经网络来进行MNIST手写数字图像的分类。 #导入numpy模块 import numpy as np #导入tensorflow模块,程序使用tensorflow来实现卷积神经网络 import tensorflow as tf #下载mnist数据集,并从mnist_data目录中读取数据 from tensorflow.examples.tutorials.mnist import input_data mnist = input_data.read_data_sets('mnist_data',one_hot=True) #(1)这里的“mnist_data” 是和当前文件相同目录下的一个文件夹。自己先手工建立这个文件夹,然后从https://yann.lecun.com/exdb/mnist/ 下载所需的4个文件(即该网址中第三段“Four files are available on this site:”后面的四个文件),并放到目录MNIST_data下即可。 #(2)MNIST数据集是手写数字字符的数据集。每个样本都是一张28*28像素的灰度手写数字图片。 #(3)one_hot表示独热编码,其值被设为true。在分类问题的数据集标注时,如何不采用独热编码的方式, 类别通常就是一个符号而已,比如说是9。但如果采用独热编码的方式,则每个类表示为一个列表list,共计有10个数值,但只有一个为1,其余均为0。例如,“9”的独热编码可以为[00000 00001]. #定义输入数据x和输出y的形状。函数tf.placeholder的目的是定义输入,可以理解为采用占位符进行占位。 #None这个位置的参数在这里被用于表示样本的个数,而由于样本个数此时具体是多少还无法确定,所以这设为None。而每个输入样本的特征数目是确定的,即为28*28。 input_x = tf.placeholder(tf.float32,[None,28*28])/255 #因为每个像素的取值范围是 0~255 output_y = tf.placeholder(tf.int32,[None,10]) #10表示10个类别 #输入层的输入数据input_x被reshape成四维数据,其中第一维的数据代表了图片数量 input_x_images = tf.reshape(input_x,[-1,28,28,1]) test_x = mnist.test.images[:3000] #读取测试集图片的特征,读取3000个图片 test_y = mnist.test.labels[:3000] #读取测试集图片的标签。就是这3000个图片所对应的标签

2020-03-18

利用tensorflow实现的循环神经网络RNN(本程序使用了LSTM)来做语言模型,并输出其困惑度.py

利用tensorflow实现的循环神经网络RNN(本程序使用了LSTM)来做语言模型,并输出其困惑度。 #语言模型主要是根据一段给定的文本来预测下一个词最有可能是什么。困惑度用于评价语言模型。困惑度越小,则模型的性能越好。

2020-03-18

香农信息熵的计算.py

香农信息熵的计算(例1和例2分别为两种不同类型的输入)以及互信息的计算(例3)。其中log默认为自然对数。 #例1: 计算香农信息熵(已知概率分布) #例2: 计算香农信息熵(此时给定了信号发生情况) #例3: 计算互信息(输入:给定的信号发生情况,其中联合分布已经手工给出)

2020-03-18

二次回归和线性回归的拟合效果的对比.py

#演示内容:二次回归和线性回归的拟合效果的对比 """ print(__doc__) import numpy as np import matplotlib.pyplot as plt from sklearn.linear_model import LinearRegression from sklearn.preprocessing import PolynomialFeatures from matplotlib.font_manager import FontProperties font_set = FontProperties(fname=r"c:\windows\fonts\simsun.ttc", size=20) def runplt(): plt.figure()# 定义figure plt.title(u'披萨的价格和直径',fontproperties=font_set) plt.xlabel(u'直径(inch)',fontproperties=font_set) plt.ylabel(u'价格(美元)',fontproperties=font_set) plt.axis([0, 25, 0, 25]) plt.grid(True) return plt

2020-03-18

演示内容:量纲的特征缩放.py

演示内容:量纲的特征缩放 (两种方法:标准化缩放法和区间缩放法。每种方法举了两个例子:简单二维矩阵和iris数据集) """ #方法1:标准化缩放法 例1:对简单示例二维矩阵的列数据进行 from sklearn import preprocessing import numpy as np #采用numpy的array表示,因为要用到其mean等函数,而list没有这些函数

2020-03-18

演示内容:文档的向量化.py

# -*- coding: utf-8 -*- """ 演示内容:文档的向量化 """ from sklearn.feature_extraction.text import CountVectorizer corpus = [ 'Jobs was the chairman of Apple Inc., and he was very famous', 'I like to use apple computer', 'And I also like to eat apple' ] #未经停用词过滤的文档向量化 vectorizer =CountVectorizer() print(vectorizer.fit_transform(corpus).todense()) #转化为完整特征矩阵 print(vectorizer.vocabulary_) print(" ") #经过停用词过滤后的文档向量化

2020-03-18

利用鸢尾花数据集画出P-R曲线 python

#coding=utf-8 """ #演示目的:利用鸢尾花数据集画出P-R曲线 """ print(__doc__) import matplotlib.pyplot as plt import numpy as np from sklearn import svm, datasets from sklearn.metrics import precision_recall_curve from sklearn.metrics import average_precision_score from sklearn.preprocessing import label_binarize from sklearn.multiclass import OneVsRestClassifier #from sklearn.cross_validation import train_test_split #适用于anaconda 3.6及以前版本 from sklearn.model_selection import train_test_split#适用于anaconda 3.7 #以iris数据为例,画出P-R曲线 iris = datasets.load_iris() X = iris.data y = iris.target # 标签二值化,将三个类转为001, 010, 100的格式.因为这是个多类分类问题,后面将要采用 #OneVsRestClassifier策略转为二类分类问题 y = label_binarize(y, classes=[0, 1, 2]) n_classes = y.shape[1] print (y)

2020-03-18

Classify.py

from sklearn.neighbors import KNeighborsClassifier X = [[0], [1], [2], [3], [4], [5], [6], [7], [8]]#data y = [0, 0, 0, 1, 1, 1, 2, 2, 2]#target neigh = KNeighborsClassifier(n_neighbors=3) neigh.fit(X, y)

2020-03-15

pyBeautifulPic.py

python爬取百度图片,非常好用,感谢提供之人,谢谢 1.需要用到的库有: Requests lxml 如果没有安装的请自己安装一下

2020-03-15

8139驱动 for vxworks

8139在vxworks下的驱动,亲测可用 不过要修改一下makefile 可以百度一下8139驱动step by step

2012-09-02

VC串口通信资料汇集整理(PDF)

本文既写了在 Windows 中怎样用 VC 控件 MSComm ,又说明了 A PI 技术编程方法,在写用 MSComm 控件时,数据类型的转换说得不是太明白,初次 涉猎串口编程的朋友恐怕看了还是编不出来;直接从底层编写的部分值得一 读,说得较为详细,但你得先从 VC 教本上看一看什么是线程。VC串口通信资料汇集整理(PDF)

2012-03-07

vc 滤波器设计

用vc编的滤波器设计软件,希望有用,欢迎下载

2011-08-24

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除