4 Together_CZ

尚未进行身份认证

我要认证

欲戴其冠,必承其重

等级
TA的排名 181

OpenCV视频生成报错 Incorrect library version loaded Could not open codec ‘libopenh264‘: Unspecified error

最近需要使用到OpenCV来生成视频,原生安装的OpenCV是没有H264编码器的,这就需要自己去下载配置使用,今天在使用H264编码来生成视频的时候就报错了: 解决方案就是从GitHub下载对应版本的dll后放到当前项目同级目录下面就行了,下载地址在这里,截图如下所示: 可以看到:当前最新版本已经更新到了2.1.1版本了。 从上图报错中可以看到我们需要的是1.8.0版本的dll,如下: 下载解压缩后放到项目同级目录即可使用,运行成...

2020-10-26 16:15:11

Yolov3目标检测实战【实现图像中随机出现手写数字的检测】

接触目标检测这一行的话就不可能不知道Yolo系列的模型,因为它们的名气实在是太过于响亮了,这一点带来的好处就是网上会有铺天盖地的学习、介绍、实践资料,对于新手来说快速地学习掌握就比较便利了。 而我就是万千新手中的一名,接触到目标检测以来,着实也是走了不少的弯路,这也是没有办法的事情,毕竟自己一点基础没有,所以刚起步还是会慢一点。掐指算来接触目标检测已经有一段时间了,之前的一些模型也有学习实践过,但是整体的表现并不理想,要么是速度太慢要么是精度太低,最终锁定在了Yolov3系列,虽说现...

2020-10-15 09:37:44

Ubuntu16.04下安装、配置Sublime运行环境

由于实际工作的情况,我之前大多数的编辑开发工作都是在Windows下进行的,很多软件的安装使用也都是在Windows下的,最近需要在Ubuntu下用到软件Sublime,所以这里就需要进行一下安装配置了。 下面是整个操作过程的记录,备忘,也是为了帮到需要的人。1、直接访问官方,根据指令来完成基础软件的下载和安装Install the GPG key:wget -qO - https://download.sublimetext.com/sublimehq-pub.gpg ...

2020-09-10 09:14:16

Ubuntu16.04下Hadoop+Hive+HBase安装部署实践

之前断断续续搞过一些Hadoop生态的学习和小实践,现在有这个需要了就重新捡起来了,但是机器上没有这套环境需要重新安装一下,其实本质上来说在Linux下安装很多框架或者是系统并不麻烦,大多都是解压缩,改一些配置文件,然后配置一下对应的环境变量最终source使其生效就可以了。 最近需要使用到HBase数据库,HBase数据库要依赖Hadoop,我们选择使用MySQL作为Hive的元数据,所以在安装配置Hive之前需要安装好Hadoop和MySQL才可以。 为了方便使用,我将自...

2020-09-08 11:22:54

VMware资源集合,分享一波

在windows平台下面使用Linux系统很多时候就需要搞一个太虚拟机来满足我们的需求,这里有几种比较常见选择,比如VMbox、VMware等等,这里简单分享一下自己在使用VMware的时候收集到的一些可用资源的清单,主要从官网下载的软件是需要购买的,这里的都是有对应序列号的。 首先官网地址在这里。首页如下: 如果想要从官网下载的话可以点击【下载】。 这里我没有从上面网址下载,各个可用版本如下:10.0.7:https://download3.vmware....

2020-09-03 09:14:00

opencv实现图像目标对象区域挖掘

OpenCV是一款非常强大的图像处理工具,对于从事图像处理领域相关工作的人来说这个可以说是必不可少的一项工具,用起来也很方面,下吗是一段简单的介绍:OpenCV是一个基于BSD许可(开源)发行的跨平台计算机视觉和机器学习软件库,可以运行在Linux、Windows、Android和Mac OS操作系统上。它轻量级而且高效——由一系列 C 函数和少量 C++ 类构成,同时提供了Python、Ruby、MATLAB等语言的接口,实现了图像处理和计算机视觉方面的很多通用算法。OpenCV用C++...

2020-09-02 16:20:22

Python实现交通标志牌(GTSRB数据集)解析处理

今天需要用到一个交通标志牌(GTSRB数据集),但是数据都是ppm格式的,虽说用PIL模块也是可以直接打开的,但是不利于直接查看很不方便,所以这里打算做一个转化处理。 首先是从网上下载到所需的数据集,下载地址在这里。截图如下所示: 这里想要先去吐槽一下,找了好几遍才找到了数据集的下载链接,这也太不起眼了吧,我红框标出来了。 点击跳转到了下载页面后就可以进行下载了,下面是需要下载的数据集: 当然了,如果不在乎的话也是可以直接全部下...

2020-08-14 15:05:54

Python PIL模块Image对象、字节流对象转二进制字节流

今天有一个问题就是需要将网络字节流或者是Image对象转化为二进制字节流数据,之后借助于base64模块实现编码最终post到服务接口端,这里没有过多要去讲解的,直接看实现就行。#!usr/bin/env python# encoding:utf-8from __future__ import division'''__Author__:沂水寒城功能: Python PIL模块Image对象、字节流对象转二进制字节流'''import ioimport osimport...

2020-08-13 10:46:34

Linux下Python3.6安装实践与相关问题解决记录

今天在跑一个开源项目的时候突然报出来了一个语法错误,按理说这是不应该,毕竟这个项目在我本机已经成功跑起来,放到服务器上之后就出问题,先检查了一下本地的Python版本是3.6.6的,服务器端的Python版本是3.5.2版本的,所以第一时间想到的可能的问题就是版本带来的问题,3.5可能并不支持某些写法,所以这里就需要安装一下3.6版本了。 具体的安装方式比较简单,这里就不再多解释了,直接看下面的实践:step1:首先需要安装相关的依赖包【我这里并没有执行下面的命令,原因是我...

2020-08-04 13:41:50

基于开源文本摘要模块sumy的文本摘要生成实践

自然语言处理领域中有很多的子任务,大类上一共分为四个板块,如下:1. 序列标注:分词/POS Tag/NER/语义标注2. 分类任务:文本分类/情感计算3. 句子关系判断:Entailment/QA/自然语言推理4. 生成式任务:机器翻译/文本摘要 在我接触NLP相关的工作以来,任务1和任务2是比较常见的,后面两种则几乎没有什么接触,今天发现了一个比较有意思的自动文本摘要生成模块sumy,这个属于最后一个任务领域里面的内容,所以就当做入门实践来学习一下,早在之前也看多阮一峰...

2020-07-28 09:31:52

零基础起步Keras+LSTM+CRF的实践命名实体识别NER

文本分词、词性标注和命名实体识别都是自然语言处理领域里面很基础的任务,他们的精度决定了下游任务的精度,其实在这之前我并没有真正意义上接触过命名实体识别这项工作,虽然说读研期间断断续续也参与了这样的项目,但是毕业之后始终觉得一知半解的感觉,最近想重新捡起来,以实践为学习的主要手段来比较系统地对命名实体识别这类任务进行理解、学习和实践应用。 当今的各个应用里面几乎不会说哪个任务会没有深度学习的影子,很多子任务的发展历程都是惊人的相似,最初大部分的研究和应用都是集中在机器学习领域里面,...

2020-07-18 12:06:01

序列标注模型结果评估模块seqeval学习使用

诸如词性标注、命名实体识别等NLP任务都是属于序列标注类型的任务的,本质属于分类任务,对于序列标注类型的模型的结果评估也有对应的模块实现,这里主要是简单进行使用说明。 模块名叫 seqeval,GitHub地址在这里。 seqeval模块支持的标注格式如下所示:IOB1IOB2IOE1IOE2IOBES 提供的评估指标方法如下所示:metrics description accuracy_score(y_true, y_pred)...

2020-07-13 13:57:45

Python开发过程中错误解决记录【持续更新记录,欢迎交流】

2020.07.10错误:Object arrays cannot be loaded when allow_pickle=False出现在numpy加载本地.npy文件的时候解决:np.load('a.npy', allow_pickle=True)

2020-07-10 15:08:25

基于pycrfsuite和sklearn_crfsuite的命名实体识别NER实战【以CoNLL2002数据集为基准】

文本分词、词性标注和命名实体识别都是自然语言处理领域里面很基础的任务,他们的精度决定了下游任务的精度,其实在这之前我并没有真正意义上接触过命名实体识别这项工作,虽然说读研期间断断续续也参与了这样的项目,但是毕业之后始终觉得一知半解的感觉,最近想重新捡起来,以实践为学习的主要手段来比较系统地对命名实体识别这类任务进行理解、学习和实践应用。 对于我个人来说学习一个新的东西,比较喜欢实践为主去学习,因为最开始接触机器学习的时候都是从空洞的理论开始的,后来学了好久发现,这些理论知识的学习固然...

2020-07-09 10:41:47

Python数据相关性分析实践记录

数据分析是很多建模挖掘类任务的基础,也是非常重要的一项工作,在我之前的系列博文里面已经详细介绍过很多数据分析相关的内容和实践工作了,与之对应的最为常见的分析手段就是热力图可视化分析了,这里我简单给出来自己之前的几篇相关的文章,感兴趣的话可以前去查阅。 《Python基于seaborn绘制喜欢的热力图,不同色系一览》 ...

2020-07-08 14:41:09

基于百度开源项目LAC实现文本分词、词性标注和命名实体识别

文本分词、词性标注和命名实体识别都是自然语言处理领域里面很基础的任务,他们的精度决定了下游任务的精度,今天在查资料的时候无意间发现了一个很好玩的开源项目,具体查了一下才知道这是百度开源的一个主要用于词性标注和命名实体识别的项目,决定拿来尝试一下。 首先是项目环境的配置安装,当前已经支持一键式安装了,具体命令如下所示:python -m pip install LAC 简单进行一下安装验证,成功截图如下所示: 接下来就可以进行使用了,官方Git...

2020-07-06 21:45:39

零基础实战Keras模型转化为RKNN格式模型成功运行在RK3399Pro板子上

深度学习实验大多是在服务器端进行的,在实际的应用中,想要把训练好的模型投入实际的应用中去的时候往往需要转化为适应于边缘端或者是移动端计算的格式,一是缩减模型大小降低原有的参数体量,二是借助于硬件环境的加速能力,提升模型的推理速度,总之就是为了能够在板子上跑的更快点。 在实际的开发实践中,我们选择使用的是RK3399Pro这个型号的板子,提供了NPU级别的硬件加速计算能力,官方的文档地址在这里,首页截图如下所示: 这里是官方给出来的云计算和边缘计算的简单对比说明:云计...

2020-07-02 15:45:11

Python电影票房数据可视化分析基础实践

数据可视化一直是很多数据分析或者是建模挖掘任务里面经常会用到的一项功能,今天我们基于某电影网站中公开发布的电影票房数据进行一些基础的数据可视化分析实践,下面是部分的数据样例:叶问.,20160304,33151,2193,196.9万,33.96%,46捉妖记,20150718,17860,995,192.71万,64.49%,47复仇者联盟2:奥创纪元,20150517,29444,1152,179.88万,37.52%,50.1我和我的祖国,20191002,36420,9522...

2020-07-02 13:43:44

基于LSTM+Attention机制的IMDB影评数据分类学习实践

分类相关的任务做过很多,包括:图像分类、文本分类,但是基于深度学习的文本分类相关的实践却不多,大多是基于word2vec+机器学习模型完成的文本分类任务,最近正好用到了Attention机制,就在学习和实践相关的内容,这里就是今天自己学习实践的基于深度学习模型+Attention机制的文本分类任务。 这里的数据集选用的是Keras内置的IMDB数据集,下面我们先来简单看一些Keras内置数据集的相关介绍,官方文档截图如下所示: 我们用的是红框里面标出来的数据集,...

2020-06-26 23:13:45

2020.06.25 端午节快乐

今年的端午节据说是并列本世纪最晚的端午节了,不过它还是到来了,伴随着从不间断的雨水,就这么悄然来到,昨天下班的那一刻意味着端午小长假的开始,也宣告着我们搬家的开始,赶在昨晚的雨水前,搬走了一半左右的东西,剩下的东西就交给这接下来的几天处理吧。 今年各个行业里面都充斥着疫情的影响,从年初以为的春暖花开,冰雪消融,到现在的常态化防疫,其实,生活本身来说也是一场不断跟实践做实践的过程。 好久,没有专门去写一篇非技术性的文章了,这里也算是闲下来的一点感悟吧,今年对于整个大环境...

2020-06-25 09:31:10

查看更多

CSDN身份
  • 博客专家
勋章 我的勋章
  • GitHub
    GitHub
    绑定GitHub第三方账户获取
  • 签到王者
    签到王者
    累计签到获取,不积跬步,无以至千里,继续坚持!
  • 技术圈认证(专家版)
    技术圈认证(专家版)
    博客专家完成年度认证,即可获得
  • 新人勋章
    新人勋章
    用户发布第一条blink获赞超过3个即可获得
  • 专栏达人
    专栏达人
    授予成功创建个人博客专栏的用户。专栏中添加五篇以上博文即可点亮!撰写博客专栏浓缩技术精华,专栏达人就是你!
  • 持之以恒
    持之以恒
    授予每个自然月内发布4篇或4篇以上原创或翻译IT博文的用户。不积跬步无以至千里,不积小流无以成江海,程序人生的精彩需要坚持不懈地积累!
  • 1024勋章
    1024勋章
    #1024程序员节#活动勋章,当日发布原创博客即可获得
  • 勤写标兵Lv4
    勤写标兵Lv4
    授予每个自然周发布9篇以上(包括9篇)原创IT博文的用户。本勋章将于次周周三上午根据用户上周的博文发布情况由系统自动颁发。
  • 原力探索
    原力探索
    参与《原力计划【第二季】——打卡挑战》的文章入选【每日精选】的博主将会获得此勋章。
  • 学习力
    学习力
    《原力计划【第二季】》第一期主题勋章 ,第一期活动已经结束啦,小伙伴们可以去参加第二期打卡挑战活动获取更多勋章哦。
  • 博客之星-入围
    博客之星-入围
    授予每年博客之星评选结果第21-200名的用户
  • 原力新人
    原力新人
    在《原力计划【第二季】》打卡挑战活动中,成功参与本活动并发布一篇原创文章的博主,即可获得此勋章。
  • 分享王者
    分享王者
    成功上传51个资源即可获取