3 开开_王子

尚未进行身份认证

逆风的方向更适合飞翔,我不怕万人阻挡,只怕自己投降。

等级
TA的排名 3w+

python opencv获取视频基本信息

video_path = "./test0.mp4"video_capture = cv2.VideoCapture(video_path)video_FourCC = int(video_capture.get(cv2.CAP_PROP_FOURCC)) # 视频编码video_width = int(video_capture.get(3))video_height = int(vi...

2020-04-02 11:58:24

sklearn中模型构建、参数调优、模型验证等的使用

1、参数选择from sklearn.linear_model import LinearRegression, LogisticRegression # 线性模型from sklearn.ensemble import RandomForestClassifier, AdaBoostClassifier # 集成学习模型from sklearn.model_selection import...

2020-03-30 17:47:07

基于yolov3的口罩检测

1、数据集准备假设已经有了标注好的一分部数据,(1)运行voc2yolo3.py生成txt文件,保存在ImageSets/Main目录下(2)修改voc_annotation.py中的classesclasses = ["mask", "unmask"]运行后,生成三个txt文件,每一行对应的是一张图片的位置,标注的真实框位置以及label:2、修改先验框中的值根据训练集中标注框...

2020-03-08 22:52:58

利用bert进行文本分类

1、任务及数据集描述实现利用bert预训练模型进行中文新闻分类,使用的数据集情况:其中,train.txt, dev.txt, test.txt内容格式为每一行为“内容 Tab 标签”:class.txt内容为10类的新闻标签,如上面的0就代表finance这一类。2、bert模型准备(1)下载bert中文预训练模型chinese_L-12_H-768_A-12,解压后里面包含5个...

2020-01-13 17:51:11

利用sklearn 计算 precision、recall、F1 score

精确度:precision,正确预测为正的,占全部预测为正的比例,TP / (TP+FP)召回率:recall,正确预测为正的,占全部实际为正的比例,TP / (TP+FN)F1-score:精确率和召回率的调和平均数,2 * precision*recall / (precision+recall)from sklearn.metrics import confusion_matrixf...

2019-11-25 14:54:52

利用yolov3 进行目标检测(可自定义检测的类别)

1、修改yolo.cfg文件将其中的classes修改为1,所有的filters=255的值修改为filters=18(计算方式为(classes+5)*3),filters仅仅是Yolo层前的filters修改为182、将coco_class.txt和voc_class.txt文件中的类别全部修改成‘car’(该目录下新建object_classes.txt文件,写入car)3、运行vo...

2019-07-09 23:28:33

Windows 10系统在Anaconda下安装GPU版Pytorch

在此之前默认Anaconda,CUDA,cuDNN已安装好了。CUDA,cuDNN下载对应版本安装。我的环境为:win10+Anaconda+python3.6+cuda10.01、打开anacondaprompt命令行输入:condacreate--namepytorch_gpupython=3.6python_gpu为anaconda下虚拟环境名称,可自定义,pyt...

2019-06-26 23:22:46

csv文件导入到neo4j数据库

1、停止neo4j服务:neo4j stop2、导入csv数据使用的数据如http://neo4j.com/docs/stable/re03.html,包含节点文件movies、actors和关系文件roles,创建三个excel文件,分别命名为movies.xlsx、actors.xlsx、roles.xlsx,然后另存为.csv文件,注意:要修改文件的编码格式为utf-8,要不然会乱码。为...

2019-01-02 22:46:31

利用vgg预训练模型提取图像特征

VGG卷积神经网络是牛津大学在2014年提出来的模型。当这个模型被提出时,由于它的简洁性和实用性,马上成为了当时最流行的卷积神经网络模型。它在图像分类和目标检测任务中都表现出非常好的结果。在2014年的ILSVRC比赛中,VGG在Top-5中取得了92.3%的正确率。有VGG16和VGG19,模型的权重由ImageNet训练而来1、VGG结构下面以VGG16为例来说明:看出VGG16由...

2018-10-28 14:30:02

往github上push源码出错:! [rejected]... error: failed to push some ref to 'https://...'

在往github上push代码时,步骤:(1) git init(2) git add .(3) git commit -m “first commit” (“git commit -m “提交信息””)(4) git remote add origin https://github.com/2281123066/doc2vec.git(5) git push -u origin ma...

2018-10-28 13:14:33

利用英文wiki数据训练Doc2vec模型

1、语料库准备从此处下载英文维基百科数据,是xml压缩包的形式,下载文件,以enwiki-latest-pages-articles1.xml-p10p30302.bz2为例:由于是压缩包,所以需要进行预处理,变成文本的形式。在cmd下切换到这个压缩包文件存放的目录下,运行命令:python process_wiki.py enwiki-latest-pages-articles1.xml-...

2018-10-28 00:35:19

python2.x代码转化为python3.x

python官方提供了python2自动转化为python3的方法,利用2to3.py文件,位置为python安装目录下的Tools\scripts文件夹下,我安装的是anaconda ,所以我的目录是Anaconda3\Tools\scripts,具体操作如下:(1) 在Windows 的cmd下cd 到 2to3.py 脚本所在位置,cd D:\setup\Anaconda3\Tools\...

2018-10-26 23:50:07

日常代码报错:python KeyError:b'Variable'

import scipy.io as siodata = scipy.io.loadmat('D:/myproject/flickr8k/flickr8k/vgg_feats.mat')print(data)

2018-10-26 23:37:26

使用tensorflow构建电影推荐系统

1、搜集数据集 https://grouplens.org/datasets/movielens/ 2、准备数据import pandas as pdimport numpy as npimport tensorflow as tfratings_df = pd.read_csv('ml-latest-small/ratings.csv')ratings_df.tail() #...

2018-08-08 15:36:30

推荐系统的性能评估

1、线下评估均方分误差 ( RMSE, Root Mean Square Error ) RMSE越小,表示误差越小,推荐系统的性能越好。平均绝对误差 (MAE,Mean Absolute Error) recall recall = 0.6 F1 score F的值越大,说明推荐系统的性能越好。2、线上评估(A/B test)CTR ...

2018-08-08 14:40:32

推荐系统的基本原理

基于内容的推荐系统 根据每部电影的内容以及用户已经评过分的电影来判断每个用户对每部电影的喜好程度,从而预测每个用户对没有看过的电影的评分。 电影内容矩阵X * 用户喜好矩阵θ = 电影评分表那么,用户喜好矩阵θ(用户对于每种不同类型电影的喜好程度)如何求解呢?用户喜好矩阵θ的代价函数: 其中,正则化项为防止过拟合。优点: (1)不存在商品冷启动问题 (2)可...

2018-08-08 10:09:24

Python数据操作—词干与词形化

1、词干化 在自然语言处理领域,我们i经常会遇到两个或两个以上单词具有共同根源的情况。 例如,agreed, agreeing 和 agreeable这三个词具有相同的词根。 涉及任何这些词的搜索应该把它们当作是根词的同一个词。 因此将所有单词链接到它们的词根变得非常重要。在NLTK库中有一些方法来完成这个链接,并给出显示根词的输出。 以下程序使用Porter Stemming算法进行词干分析...

2018-08-06 22:44:10

Python数据操作—单词标记化

单词标记是将大量文本样本分解为单词的过程。 这是自然语言处理任务中的一项要求,每个单词需要被捕获并进行进一步的分析,如对特定情感进行分类和计数等。自然语言工具包(NLTK)是用于实现这一目的的库。 在继续使用python程序进行字词标记之前,先安装NLTK。 命令:conda install -c anaconda nltk 下面,使用word_tokenize方法将段落拆分为单个单词。...

2018-07-30 22:51:29

Python数据操作—处理非结构数据

已经以行和列格式存在的数据或者可以很容易地转换为行和列的数据,以便之后它可以很好地适合数据库,这被称为结构化数据。 例如CSV,TXT,XLS文件等。这些文件有一个分隔符,固定宽度或可变宽度,其中缺失值在分隔符之间表示为空白。 但有时候我们会得到一些行不是固定宽度的数据,或者它们只是HTML,图像或pdf文件。 这些数据被称为非结构化数据。 尽管可以通过处理HTML标签来处理HTML文件,但是来自...

2018-07-30 22:21:03

Python数据操作—处理Excel数据

MicrosoftExcel是一个使用非常广泛的电子表格程序。它的用户友好性和吸引人的功能使其成为数据科学中常用的工具。Pandas库提供了一些功能,我们可以使用该功能完整地读取Excel文件,也可以只读取选定的一组数据。还可以读取其中包含多个工作表的Excel文件。这里主要使用read_excel函数从中读取数据。输入Excel文件我们创建一个包含多个工作表的excel文件inp...

2018-07-29 23:43:19

查看更多

勋章 我的勋章
  • 持之以恒
    持之以恒
    授予每个自然月内发布4篇或4篇以上原创或翻译IT博文的用户。不积跬步无以至千里,不积小流无以成江海,程序人生的精彩需要坚持不懈地积累!
  • 勤写标兵Lv1
    勤写标兵Lv1
    授予每个自然周发布1篇到3篇原创IT博文的用户。本勋章将于次周周三上午根据用户上周的博文发布情况由系统自动颁发。