2 爬遍天下无敌手

尚未进行身份认证

我要认证

暂无相关简介

等级
TA的排名 6k+

python破解识别由canvas绘制成的滑块验证码!

一、分析网站2020十强游戏投票网址:http://2020top10.cgigc.com.cn 首先发现该网站需要填写姓名、手机号、邮箱,这...我一头黑线,网络上还有这操作去确定一个人的身份真实还是不真实?中国音像与数字出版协会你可长点心吧,你们技术是烂大街了吧,我都不好意思点破,好歹搞个微信授权登陆呀,这样就算刷票也只能去买量 我们继续分析网站,不去纠结人家的技术怎么样,这里姓名、手机号、邮箱我们都可以自动生成,最关键的就是在下一步点击开始投票的时候,需要验证滑块验证码二、canva..

2020-10-30 20:23:02

全网最全python库selenium自动化使用教程

一、安装seleniumpip install Selenium二、初始化浏览器Chrome 是初始化谷歌浏览器 Firefox 是初始化火狐浏览器 Edge 是初始化IE浏览器 PhantomJS 是一个无界面浏览器。 from selenium import webdriver driver = webdriver.Chrome() 三、设置浏览器大小maximize_window 最大化窗口 set_window_size 自定义窗口大小...

2020-10-30 20:21:27

新手用Python通过Pygame一步步实现贪吃蛇!

本来也是学习,所以我自己修改了一下,发上来供像我这样的新手研究学习。第一步,先导入需要的模块,初始化Pygame。代码里的注释都比较清楚了,我就不再赘述。# 导入需要用到的模块import pygame, sys, random, time# 从pygame模块导入常用的函数和常量from pygame.locals import *# 初始化Pygame库pygame.init()pygame.init()# 初始化一个游戏界面窗口DISPLAY = pygame.display.

2020-10-30 16:28:06

爬虫实战——QQ空间自动点赞!这个脚本值三千五你信吗?

前景提要因为我周围的小伙伴们天天跟我说的最多的一句话就是:空间第一条点赞。所以说我还不如直接做一个自动点赞的代码呢,免得天天催我点赞。目标确定QQ空间秒赞分析介绍登陆获取cookie首先既然是对 QQ空间的一系列操作,自然是先解决登陆方面,在这篇文章里面我就不过多介绍了,因为我上几期之前对QQ空间已经做了一定的介绍了。直接放出链接就好。欢迎看博主以前的文章def search_cookie(): qq_number = input('请输入qq号:') if n

2020-10-30 15:38:34

如何利用Python教你如何爬取高德地图!非常全面啊!

一、 分析网页结构以往几篇都是介绍的传统的静态界面的爬取,这次博主介绍一个爬取动态网页的超简单的一个小demo。说到动态网页,你对它了解多少呢?如果对动态网页不认识的童鞋,博主在此给出链接,可以看百度百科的详细解析动态网页_百度百科以及小马夫的静态页面和动态页面的区别不要怪博主没有进行讲解,因为博主本人对与动态网页的概念也不是太过了解。等到博主整理好思绪的时候,博主会专门写一篇博文的 -。-简单来说,要获取静态网页的网页数据只需要给服务器发送该网页url地址就行...

2020-10-30 15:28:58

Python用正则表达式筛选出完整的组合密码原来如此简单!

本篇问题编写正则获取一组密码中的正确密码正确密码的具体要求如下:正确密码包括数字,字母,特殊字符; 包含空格,换行,制表符等空字符的密码无效; 密码不能为纯数字,纯字母,纯特殊字符。测试输入:abc123@., good123...,666educoder^,hello123@,123456789预期输出:['abc123@.', '666educoder^', 'hello123@']解题思路:要求为匹配组合密码,包含空字符的密码无效,纯字母,纯数字,纯特殊字符的密码

2020-10-30 14:52:16

Python爬取网页信息并保存为CSV文件!又学了一招!

本次爬取的网页是猎聘网内关于深圳的所有招聘信息,一共400多个职位,并保存为csv文件存储,好了,话不多说,开始进入讲解。(对爬虫感兴趣的,可以参考此篇文章的做法去爬你想要的网站去吧!!!)首先打开目标网站:页面信息如下(因为招聘信息是动态,可能你的界面的职位会有所不同) 我们按F12进入开发者界面:点击元素旁边的类似鼠标的按钮,如下:然后就可以在原网页点击我们想要获取的标签,之后就会显示该标签对应的html代码比如点击工作名称:双语解说员,然后右边就会帮我们...

2020-10-30 14:45:31

爬虫入门之淘宝商品信息定向爬取!双十一到了学起来啊!

一、爬取原页面  爬取页面为淘宝网站,以女装为例,原图如下,由于淘宝商品排名实时更新,所以爬取结果顺序与网站顺序可能会存在不同。本实例爬取的内容为商品的价格和名称,并为其添加序号。二、编程思路  这一部分嵩天老师在课中给出了讲解,这里我整理分享给大家。1.功能描述目标:获取淘宝搜索页面的信息,提取其中的名称和价格。理解:(1).获得淘宝的搜索接口(2).对翻页的处理技术路线:requests-re2.程序的结构设计步骤一:提交商品搜索请求,循环获取页面步骤二..

2020-10-30 14:33:33

小明用Python开发一个 【暴力破解压缩文件zip密码】,省了250块钱!

那天晚上小明和你一样在某个小网站上搜寻某些私密的学习资料突然看到论坛有人提供了一个非常牛逼的资源小明怀着激动的心情下载了下来他怀着激动的心情打开了这个压缩文件看到就只有这么一个 txt小明就是一顿双击可是突然发现这玩意居然需要密码???裤子都脱了你给我看这个?小明只好找到楼主求他给下解压密码对方只是冷淡的回应了一句“250块钱不讲价”小明摸了摸自己刚穿上裤子的口袋感叹了一句:骂了一句楼主没

2020-10-30 13:59:03

爬虫“学前班”,记住这些不踩坑!

摘要:爬虫就是模拟人的访问操作来获取网页/App数据的一种程序。爬虫是什么?简单的说爬虫就是模拟人的访问操作来获取网页/App数据的一种程序。我们可以把互联网比作一张大网,而爬虫(即网络爬虫)便是再网上爬行的蜘蛛。把网的节点比作一个个网页,爬虫爬到这就相当于访问了该页面,获取了其信息。可以把节点间的连线比作网页与网页之间的链接关系,这样蜘蛛通过一个节点后,可以顺着节点连线继续爬行到达下一个节点,即通过一个网页继续获取后续的网页,这样整个网的节点便可以被蜘蛛全部爬行到,网站的数据就可以被抓取下来了.

2020-10-30 13:38:27

Python 实现图片转字符画,静态图、GIF 都能转!

字符画是一种由字母、标点或其他字符组成的图画,它产生于互联网时代,在聊天软件中使用较多,本文我们看一下如何将自己喜欢的图片转成字符画。静态图片首先,我们来演示将静态图片转为字符画,功能实现主要用到的 Python 库为 OpenCV,安装使用pip install opencv-python命令即可。功能实现的基本思路为:利用聚类将像素信息聚为 3 或 5 类,颜色最深的一类用数字密集度表示,阴影的一类用横杠(-)表示,明亮部分用空白表示。主要代码实现如下:def img2stri..

2020-10-29 16:35:19

Python数值类型数据、运算及字符串!

本篇内容较长,介绍了Python数值类型、运算以及字符串的一些操作,逐步的学习过程中也会涉及到面试常考题,后续我会整理一篇面试常见题。一、Python运算符Python运算符包含算数运算符、赋值运算符、比较运算符、逻辑运算符四种1.1 算数运算符算数运算符就是简单的加、减、乘、除1.1.1 加num1 = 100num2 = 99sum = num1 + num2print(sum)1 2 3 4运行结果:C:\Users\Administrator\Ap

2020-10-29 16:15:04

分分钟避坑抓取 安居客 住房信息,并存储到CSV跟XlSX中

温馨提示:报错了就百分之九十九是网址需要手动验证,就请移步去点击验证啦!(这里用了csv跟xsxl两种保存方式,任选其一即可!)# -*- coding: utf-8 -*-"""Created on Tue Oct 27 18:27:21 2020@author: Yuka利用Lxml库,爬取前10页的信息,具体信息如下:进入每个房源的页面,爬取小区名称、房屋类型、房屋朝向、参考月供和核心卖点,把它们存储到CSV文件中。"""from lxml import etre...

2020-10-29 15:13:55

基于微博平台的python爬虫数据采集,非常简单的小案例!

搭建环境 代码设计 使用说明及效果展示一、搭建环境1. 软件版本Python3.7.4Anaconda32. 环境搭建问题配置Anaconda环境变量问题:anaconda未设置在环境变量里,导致使用pip下载python自带的库时无法下载到对应的路径进行使用。解决:在电脑的环境变量中添加anaconda的路径。 使用pip网络问题问题:因为网速过慢的原因导致无法正常使用pip进行更新以及python库的下载。 WARNING: pip is configured with .

2020-10-29 14:53:20

Python入门教程!手把手教会你爬取网页数据!

其实在当今社会,网络上充斥着大量有用的数据,我们只需要耐心的观察,再加上一些技术手段,就可以获取到大量的有价值数据。这里的“技术手段”就是网络爬虫。今天就给大家分享一篇爬虫基础知识和入门教程:什么是爬虫?爬虫就是自动获取网页内容的程序,例如搜索引擎,Google,Baidu 等,每天都运行着庞大的爬虫系统,从全世界的网站中爬虫数据,供用户检索时使用。爬虫流程其实把网络爬虫抽象开来看,它无外乎包含如下几个步骤模拟请求网页。模拟浏览器,打开目标网站。 获取数据。打开网站之后,就可以自动化的

2020-10-29 14:32:52

爬取淘宝商家货物简单销售数据,双十一马上就到了,秒杀准备了吗

前天接一个爬取淘宝商家(自行车)信息的请求,要求数据按照其销售量排行。完成该请求后,爬取数据(李宁卫衣)如下:接下来看如何实现的?首先打开淘宝网:https://www.taobao.com/,在搜索栏输入自行车,结果发现页面转跳到https://login.taobao.com/member/login.jhtml 淘宝登录页面,要求登录才能进行关键字搜索获取数据。(需要登录的时候应当想到cookies)cookies 及其用处:当我们登录某网站时,服务器会生成一个cooki.

2020-10-29 14:07:53

一文带你快速爬取网易云音乐,就是这么简单!

  大家好,我是不温卜火,是一名计算机学院大数据专业大三的学生,昵称来源于成语—不温不火,本意是希望自己性情温和。作为一名互联网行业的小白,博主写博客一方面是为了记录自己的学习过程,另一方面是总结自己所犯的错误希望能够帮助到很多和自己一样处于起步阶段的萌新。但由于水平有限,博客中难免会有一些错误出现,有纰漏之处恳请各位大佬不吝赐教!暂时只在csdn这一个平台进行更新,PS:如有侵权联系小编删除!著作权归作者所有!前几篇博文,爬取的都是比较常规的网站。大家是不是都有点腻了呢?如果大家感觉.

2020-10-29 13:56:47

Python爬虫之Requests 库的介绍和操作实例!

一、什么是爬虫?网络爬虫(又被称为网页蜘蛛,网络机器人,在FOAF社区中间,更经常的称为网页追逐者),是一种按照一定的规则,自动地抓取万维网信息的程序或者脚本。另外一些不常使用的名字还有蚂蚁、自动索引、模拟程序或者蠕虫。其实通俗的讲就是通过程序去获取web页面上自己想要的数据,也就是自动抓取数据。你可以爬去妹子的图片,爬取自己想看看的视频。。等等你想要爬取的数据,只要你能通过浏览器访问的数据都可以通过爬虫获取二、爬虫的本质模拟浏览器打开网页,获取网页中我们想要的那部分数据浏览器打开网

2020-10-27 20:01:25

如何把一个Python应用程序装进Docker

准备容器无处不在,但是如何在Docker容器中运行Python应用程序呢?这篇文章将告诉你怎么做!如果您想知道,这些示例需要Python 3.x。在深入讨论容器之前,让我们进一步讨论一下我们想要封装的Python应用程序。这个应用程序是一个web API,它从一个电影集合中返回一个随机的电影。在我们的本地文件夹中,我们有3个文件:app.py#Pythonapplicationmovies.json#moviecollectionrequirements.txt...

2020-10-27 16:39:11

大佬用python写了个豆瓣短评爬虫,来试试你喜欢的电影吧!

前言本篇主要实现的是对任意一部电影短评(热门)的抓取以及可视化分析。也就是你只要提供链接和一些基本信息,他就可以分析对于豆瓣爬虫,what shold we 考虑?怎么分析呢?豆瓣电影首页这个首先的话尝试就可以啦,打开任意一部电影,这里以姜子牙为例。打开姜子牙你就会发现它是非动态渲染的页面,也就是传统的渲染方式,直接请求这个url即可获取数据。但是翻着翻着页面你就会发现:未登录用户只能访问优先的界面,登录的用户才能有权限去访问后面的页面。所以这个流程应该是登录——&g...

2020-10-27 16:01:38

查看更多

勋章 我的勋章
  • 持之以恒
    持之以恒
    授予每个自然月内发布4篇或4篇以上原创或翻译IT博文的用户。不积跬步无以至千里,不积小流无以成江海,程序人生的精彩需要坚持不懈地积累!
  • 1024勋章
    1024勋章
    #1024程序员节#活动勋章,当日发布原创博客即可获得
  • 1024超级勋章
    1024超级勋章
    授予原创文章总数达到1024篇的博主,感谢你对CSDN社区的贡献,CSDN与你一起成长。
  • 勤写标兵Lv4
    勤写标兵Lv4
    授予每个自然周发布9篇以上(包括9篇)原创IT博文的用户。本勋章将于次周周三上午根据用户上周的博文发布情况由系统自动颁发。