8 YeXueQing2020

尚未进行身份认证

我要认证

暂无相关简介

等级
TA的排名 12w+

python opencv 图像入门基本操作

主要内容是图片边框颜色填充和图像融合① 图像边框颜色填充import cv2import matplotlib.pyplot as plt# 填充图片的边界img = cv2.imread('e:/111.jpg')# cv2.imshow('img',img)# 设置图片的边界大小margin_top,margin_bottom,margin_left,margin_right = (200,200,200,200)# 设置边界的内容# 直接复制边界颜色replica.

2020-10-23 21:55:00

python opencv入入入门操作

安装库就不说啦~基本操作都写在注释里咯import cv2 #默认读取BGR图像# 读取彩色图片def img_show(): img = cv2.imread('E:/123.jpg') # 显示图片,第一个参数随便写,第二个参数就是读取的图片 cv2.imshow('iamge',img) # 图片显示后停留多久,单位是毫秒,如果写0就是不关闭 cv2.waitKey(6000) # 关闭所有的窗口 cv2.destroyAllW.

2020-10-22 23:41:35

python 批量下载歌单音乐,免去手动烦恼

import requestsimport jsonfrom lxml import etreeimport osif os.path.exists("E:/kuwo/") == False: os.mkdir("E:/kuwo/")ua = {'user-agent':'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/85.0.4183.121 Safar.

2020-10-21 00:44:03

python selenium 网上的一些教程

找了一下python selenium的学习链接,感觉都挺不错的说~下面这个是python selenium的文档英文在线链接:https://selenium-python.readthedocs.io/中文版下载:https://www.jb51.net/books/726366.html《Selenium自动化测试 基于Python语言》pdf下载:https://www.jb51.net/books/674342.html下面主要是一些selenium的一些文章学习 ,内容

2020-10-19 23:29:18

Ajax入门教程(转载)

1.JS XMLHttpRequest对象的创建2.XMLHttpRequest.open()方法:建立HTTP请求3.AJAX发送GET和POST请求4.XMLHttpRequest.readyState属性:跟踪异步请求的状态5.AJAX解析请求得到的数据(多种格式)6.AJAX获取和设置HTTP报头消息7.JS XMLHttpRequest 2.0版本新特性8.AJAX下载和显示远程图片(案例实战)9.AJAX发送和接收字符串(案例实战)10...

2020-10-18 23:43:27

python selenium 登录淘宝

# 导入包from selenium import webdriverimport time# 获取浏览器实例化对象webobj = webdriver.Chrome()# 使用浏览器打开网址webobj.get('https://login.taobao.com/member/login.jhtml')# 定位用户名和密码name = webobj.find_element_by_id('fm-login-id')passwd = webobj.find_element_by_id(.

2020-10-17 23:53:35

python 爬取酷我音乐 vip也可以下~

话不多说,直接上代码咯~import requestsimport jsonsong = input('输入你要查找的歌曲:')page = int(input('输入要下载的页数:'))ua = {'user-agent':'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/85.0.4183.121 Safari/537.36', 'Referer':

2020-10-16 23:13:35

python 有道翻译

import requestsimport jsonwords = input('输入你要翻译的内容:')url = 'http://fanyi.youdao.com/translate?smartresult=dict&smartresult=rule'# http://fanyi.youdao.com/translate_o?smartresult=dict&smartresult=rule# 原来的链接中间的 _o 要去掉,不然会报错ua = {'user-agen.

2020-10-15 23:46:22

word 日常问题解决办法

今天学点word的内容,因为感觉很多操作都不熟练~一、领导给了一张表,里面是单位的优秀职工,人员有几百个,要求每人分别做个奖状。要是每个人都复制粘贴也,怕是容易出错效率还贼低,咋办捏?"邮件合并"了解一下:①打开word——点击右键选项卡——选择收件人——使用现有列表——找到自己的源数据——弹出的选择表格页面点下确定;② 对着想要批量修改内容的地方——点击插入合并域③点击完成并合并——编辑单个文档——选择全部——点击确定。然后秒秒钟钟,400张奖状就做好了~...

2020-10-14 22:19:39

python 爬一爬JD评论区

JD评论蛮多小伙伴都爬过了,这里再炒一下剩饭~和爬取其他网站的区别就是这里要用到json解析,所以网址不是地址栏的内容,还要json解析啥的,稍微复杂一丢丢而已~这里主要实现的功能是:在pycharm右键运行后呢,在弹出的对话框里输入要查询的商品链接和要保存的页数,就可以直接保存啦。①直接输入产品地址和名称即可②稍等一会就保存好了,大概长这样话不多说,直接上代码咯import requestsimport jsonimport pandas as pdi...

2020-10-13 23:37:37

2020-10-12

计划赶不上变化呀,之前计划学习的内容,今天再看了一下,有些看似学得差不多,但是实际呢学得稀里糊涂,似懂非懂;还有一些压根就看不懂,中间跳过或者放弃了……然后回想一下最初学习这些七七八八的想法:学VBA是为了提高工作效率,学python是为了比VBA更好地提升工作效率……所以本着提升工作效率的原则,下一步的计划还是想花个较短的时间把word、ppt的基本操作先全过一遍。特别是word的内容,用的频次较高,但是实在不熟练所以修正一下下一步学习计划啦~后面第1~2周:word和ppt的内容过一遍;

2020-10-12 23:25:39

python scrapy 爬取页面下所有链接

爬取所有链接的话,在创建爬虫文件上稍微有点点不同~1.创建爬虫项目(和之前一样)scrapy startproject yxq0012.创建爬虫文件(略有区别)scrapy genspider -t crawl file013.创建完后的file01.py文件内容大概长这样:import scrapyfrom scrapy.linkextractors import LinkExtractorfrom scrapy.spiders import CrawlSpider, R

2020-10-11 23:24:08

python scrapy 分组爬取数据

之前爬去的内容都是一个一个内容进行爬取,今天主要是根据一组html标签进行爬取,比如说一个ul标签里面有很多的li标签,然后进行爬取~今天爬取的是一个新闻页面,每个页面下面有个下载链接,然后爬取了新闻名称和里面的下载链接,其他网站操作估计也类似。这里的代码如下:一、爬虫文件:import scrapyclass File01Spider(scrapy.Spider): name = 'file01' # allowed_domains = ['www.baidu.com']

2020-10-10 23:30:25

python scrapy 分分钟爬个小说来看

因为小说保存成docx格式,所以记得先安装python-docx这个库哟~怎么新建项目和爬虫文件可以参考下面的链接https://blog.csdn.net/Di77HaoWenMing/article/details/108905515爬取的内容是纵横小说网的热门小说,爬完了保存到本地的word效果图如下:爬虫项目结构比较简单,和之前的一样:下面直接附上代码咯:一、在items.py中输入以下代码:import scrapyclass YxqItem.

2020-10-09 21:08:26

python scrapy 爬取图片操作

前面学习scrapy爬取文字和链接,对比requests库来说复杂不少,但是呢在爬取图片上来说,比requests可是简单不少(主要是在pipelines.py里面实现)使用前:记得安装pillow模块哟,不然最后操作完毕,运行的时候可能会出现以下错误提示:No module named 'PIL'下面开始操作咯:一、在pycharm最底下的Terminal里面新建项目yxq,输入以下内容:E:\mypypy\myscrapy>scrapy startproject yxq0

2020-10-08 20:12:57

python scrapy 传递参数meta用法

meta怎么用可以参考一下下面的链接~https://www.zhihu.com/question/54773510昨天主要是怕取了一下网页里面的链接,再把各个链接里面的内容爬取下来。但是如果碰到一下情况,就需要用到这个meta啦比如:一个标题A,上面有一个链接B,链接B里面有内容C,如果要把标题A和内容C一一对应的话,在scrapy里面用meta就比较容易实现啦。下面举例。比如下面有一些内容,需要点进去查看里面的内容:比如要把店铺名称和乘车路线搭配起来保存或者输出,就可以用到

2020-10-08 00:10:11

python scrapy爬取下一层url

话不多说,先上scrapy代码,这里没有用到管道进行写入操作,就简单地打印一下。如果需要写入到文件,pg函数里面的name和downlink记得还要再遍历一下,因为下面的是列表格式,遍历后就是文本格式了。import scrapyclass File01Spider(scrapy.Spider): name = 'file01' start_urls = ['https://www.ygdy8.net/html/gndy/dyzz/index.html'] page =

2020-10-06 23:26:11

python scrapy 智能翻页

其他步骤和之前的内容一样,这里就不多说啦,主要是爬虫文件中,总页数进行调用时,每次调用都会有变动,所以每次循环调用的时候,总页码实际上都有在变化,也就无法正常爬取了。代码如下:import scrapyfrom yxq.items import YxqItemclass File01Spider(scrapy.Spider): name = 'file01' #allowed_domains = ['www.baidu.com'] start_urls = ['https

2020-10-05 23:15:38

python scrapy持久化保存(保存到Mysql文件中)

保存到mysql中和保存到excel文件中几乎一毛一样,怎么创建scrapy项目以及一些配置,可以先参考这个链接的内容:https://blog.csdn.net/Di77HaoWenMing/article/details/108905515https://blog.csdn.net/Di77HaoWenMing/article/details/108914692然后只需要在pipelines.py文件中添加个新的类即可,我下面就是新加了个SaveMysql的类:import panda

2020-10-04 22:44:49

python scrapy持久化保存(保存到EXCEL文件中)

看着教程一步一步来,眼睛都看瞎了还是保存不了文件,pipelines.py文件的内容无法被调用,恳请各位大神帮忙看一下~一、创建的项目名称和爬虫项目如下:项目叫yxq001,爬虫文件叫file001.py二、setting.py设置如下(其他地方没改)USER_AGENT = 'Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/70.0.3538.25 Safari/53.

2020-10-03 23:38:25

查看更多

勋章 我的勋章
  • 签到新秀
    签到新秀
    累计签到获取,不积跬步,无以至千里,继续坚持!
  • 新人勋章
    新人勋章
    用户发布第一条blink获赞超过3个即可获得
  • 阅读者勋章Lv1
    阅读者勋章Lv1
    授予在CSDN APP累计阅读博文达到3天的你,是你的坚持与努力,使你超越了昨天的自己。
  • 持之以恒
    持之以恒
    授予每个自然月内发布4篇或4篇以上原创或翻译IT博文的用户。不积跬步无以至千里,不积小流无以成江海,程序人生的精彩需要坚持不懈地积累!
  • 勤写标兵Lv3
    勤写标兵Lv3
    授予每个自然周发布7篇到8篇原创IT博文的用户。本勋章将于次周周三上午根据用户上周的博文发布情况由系统自动颁发。