自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(255)
  • 资源 (2)
  • 收藏
  • 关注

原创 Win 10操作系统环境下python3.7 实现sklearn 安装

numpy+mkl 、scipy和sklearn 安装包下载的对应网址为:https://www.lfd.uci.edu/~gohlke/pythonlibs/#numpy。原文链接:https://blog.csdn.net/weixin_44322778/article/details/99638415。版权声明:本文为CSDN博主「时间之里」的原创文章,遵循CC 4.0 BY-SA版权协议,转载请附上原文出处链接及本声明。(安装的三个文件的版本非常非常重要。版本不匹配会导致失败。

2022-09-24 20:11:52 1587 1

原创 django自带的权限系统和User和jwt

权限系统说明-- django 自带的user数据迁移后会产生几个表auth_group、auth_group_permissions、auth_permission、user_user、user_user_groups、user_user_user_permissions-- 权限系统分为user、group、permission、model。可以设置group/user对每张表的权限设置-- jwt和user的权限分开验证,jwt对token进行验证,user需要通过表查询进行验证(还没查到

2022-01-03 21:01:19 1038 1

原创 python控制鼠标点击,可用于网页抢购秒杀

功能,通过截图工具获得需要点击位置的坐标,设置x/y坐标,不断点击,用esc退出import pyautoguiimport pynputimport threadingfrom queue import Queue'''控制鼠标点击,用esc退出点击,可用于网页抢购'''class Listen: def __init__(self, q): self.q = q def on_press(self, key): try:

2021-07-04 14:03:39 736

转载 Android Studio 下载安装教程

https://blog.csdn.net/qq_37138756/article/details/100513554?ops_request_misc=%257B%2522request%255Fid%2522%253A%2522162523849116780274178011%2522%252C%2522scm%2522%253A%252220140713.130102334..%2522%257D&request_id=162523849116780274178011&biz_id=0

2021-07-02 23:18:53 850

原创 python微信自动聊天小工具

一、主要通过 1、百度orc识别图片的文字 2、pyautogui截图,模拟粘贴 3、pymouse模拟鼠标点击 4、pyperclip模拟键盘复制二、思路:1、对微信聊天框进行截图作为原始图12、循环对聊天框进行截图,和原始图1进行相似度对比3、如果相似度有差距,判定为有新的消息4、对聊天区域进行截图,识别聊天的文字5、通过预置的聊天对话,进行回复6、循环2三、效果:四、插...

2021-07-01 00:03:00 1447 4

原创 百度云图片识别

测试了下识别图片,效果比自己写的强多了,价格也不贵,以后就用这个了。参考:https://ai.baidu.com/forum/topic/show/867951?castk=48016gq7963d9fc64d294https://cloud.baidu.com/doc/OCR/s/7kibizyfm代码如下:from aip import AipOcr""" 你的 APPID AK SK """APP_ID = '24471254'API_KEY = 'Hj3stMZ1jA

2021-06-30 22:34:56 241

原创 pyqt5写辞职信小玩具(抖音同款不能点击不同意)

抖音上经常看到这个小玩具,还挺好玩,就自己写个试试一、my.ui文件<?xml version="1.0" encoding="UTF-8"?><ui version="4.0"> <class>Form</class> <widget class="QWidget" name="Form"> <property name="geometry"> <rect> <x>0&lt..

2021-06-27 23:12:02 234 1

原创 小游戏别踩黑块辅助脚本

'''小游戏别踩黑块http://www.4399.com/flash/138560_3.htm获取屏幕坐标、截图、分析每块的颜色,确定点击位置'''import osimport timeimport pyautoguifrom pymouse import PyMouseclass Game: def __init__(self): self.pic_name = 'snap{}.png' self.sleep_start_time = 1.74.

2021-06-23 00:28:31 205 1

原创 pyqt5信号和槽的使用

一、用QT Designer做出展示图

2021-06-20 00:05:37 736

原创 使用PySide2创建图形化Python程序时:Available platform plugins are: direct2d, minimal, offscreen, windows

运行代码时提示错误This application failed to start because no Qt platform plugin could beinitialized Reinstalling the application may fix this problemAvailable platform plugins are: direct2d, minimal, offscreen, windows。

2021-06-14 12:12:04 4455 7

原创 滑动拼图验证码

import osfrom selenium import webdriverimport timefrom scrapy.selector import Selectorimport re'''滑动拼图验证码1、打开selenum2、点击滑块,出现缺口和移动缺口的css里的left,可以计算滑动距离3、滑动滑块'''img_abs = os.path.join(os.path.dirname(os.path.abspath(__file__)), 'images')class T.

2020-12-16 13:15:18 1077

原创 普通滑动验证码模拟操作

import osfrom selenium import webdriverimport time'''普通滑动验证码模拟操作1、打开selenum2、根据css取出宽度来作为滑动距离3、控制滑动'''img_abs = os.path.join(os.path.dirname(os.path.abspath(__file__)), 'images')class TestCase(object): def __init__(self): self.url =.

2020-12-16 12:18:35 513

原创 爬取网络视频-未完待续

'''下载电影https://www.ai66.cc/zhanzhengpian/14490.html'''import osimport timeRESPATH = os.path.join(os.path.dirname(os.path.dirname(os.path.abspath(__file__))),'res')import requestsfrom urllib import parsefrom requests.packages.urllib3.exceptions im.

2020-12-13 02:23:37 8191

原创 fiddler+uiautomator2+夜神模拟器+mitmdump+weditor+mysql爬取抖Xapp用户信息

无不良目的,学习使用。一、工具介绍fiddler:用于查看抖音个人信息接口,Tool-Connections-port配置监听端口uiautomator2:操控夜神模拟器,模拟操作抖音,打开抖音,去掉提示信息,点击个人中心,返回,滑动,重复操作。mitmdump:抓取模拟器请求数据,对请求url进行过滤,过滤出通过fiddler查到的接口,并对数据解析入库。启动命令:mitmdump -p 8888 -s decode_douyin.py夜神模拟器:需要配置桥接,配置网络ip和端口和fi

2020-12-09 17:35:47 1016

原创 uiautomator2+Weditor+python操作考研帮

import uiautomator2 as u2class HandleKaoyanbang(object): def __init__(self, serial=""): # 当前是通过usb的方法来连接移动设备的 if serial: self.d = u2.connect_usb(serial=serial) else: self.d = u2.connect() self.

2020-12-09 01:30:00 511

转载 【atx】一,atx的安装过程

1,安装atx。pip install atx2,安装uiautomator2。pip install --pre --upgrade uiautomator23,初始化操作。python -m uiautomator2 init,这个目的是为了在手机安装控制app,打了这个命令之后,要授权给手机安装apk文件。4,打开网页版的编辑器python -m weditor,然后就会进入一个用vue.js+boostrap写的网页。5,查找到安卓...

2020-12-08 23:49:30 2771

转载 如何解决夜神模拟器连不上adb的问题

今天要搞一个安卓的项目。由于电脑系统是年前刚刚重装的,系统里啥都没有,于是临时安装了一下android studio 2.2,然后又装了一个夜神模拟器。工程打开后,编译通过了,于是打开夜神模拟器,想要通过模拟器进行模拟时,结果AS一直提示找不到模拟器。于是只好重启AS,重启模拟器。结果还是不行。再次重启,貌似可以了。但是,下午再次重启之后,又不行了。反反复复折腾了好几次,基本没几次能顺利连接到模拟器的,每次都要折腾很久。好不容易晚上有点空了,于是静下心来自己研究了一下,看看到底是谁在捣鬼。1、关

2020-12-08 22:29:35 278

原创 安装配置mitmproxy抓包软件并运行python脚本

一、首先,官网下载并安装mitmproxy:https://mitmproxy.org/然后,用pip安装mitmproxy二、设置手机端口,我这里用的夜神设置-wlan-左键长按wiredssid-修改网络,修改代理ip和端口三、电脑本机启动,配置对应的端口和python脚本mitmdump -p 8889 -s mitmdump_test.py# mitmdump连接python联调# 日志模块from mitmproxy import ctxdef request(fl

2020-12-08 18:30:07 847

原创 webdriver反爬

'''webdriver反爬虫通过selenum操作会被浏览器识别是否为webdriver=true识别出来即判断为爬虫案例一:http://www.porters.vip/features/webdriver.html案例二:淘宝登录中https://login.taobao.com/member/login.jhtmlindex.js中存在如下验证:function r() { return "$cdc_asdjflasutopfhvcZLmcfl_"in u |.

2020-12-08 10:17:49 845

原创 反爬工具类Tool

import osfrom PIL import Imageimport ioimport pytesseractimport requestsfrom fake_useragent import UserAgentclass Tool: @classmethod def get_tool(cls): return cls() def get_user_agent(self,headers): ua = UserAgent() .

2020-12-07 22:14:09 124

原创 websocket反爬

'''websocket反爬 4.5抓取乐鱼体育1、获取token2、构建message3、websocket长连接'''from common.tools import Toolimport requestsimport jsonimport timeimport websocketclass LeYu: def __init__(self): self.tool = Tool.get_tool() def get_cookie(self):.

2020-12-07 21:10:57 523

原创 图片混淆反爬

'''图片混淆,对图片解析如果图片识别不准确,需要升级OCR库6.1'''from common.tools import Toolimport requestsfrom scrapy.selector import Selectorfrom urllib import parseclass ImgSpider: def __init__(self): self.tool = Tool.get_tool() def run(self): .

2020-12-07 21:09:54 2119

原创 cookies反爬虫

'''cookie反爬'''from common.tools import Toolimport requestsfrom scrapy.selector import Selectorfrom urllib import parseclass User_Agent: def __init__(self): self.tool = Tool.get_tool() def run(self): url = 'http://www.porters.

2020-12-07 21:07:21 380

原创 User-agent反爬

'''校园新闻网列表页User-agent反爬'''from common.tools import Toolimport requestsfrom scrapy.selector import Selectorclass User_Agent: def __init__(self): self.tool = Tool.get_tool() def run(self): url = 'http://www.porters.vip/verify/.

2020-12-07 21:06:13 179

原创 SVG映射反爬

import requestsfrom scrapy import Selectorurl = 'http://www.porters.vip/confusion/food.html'response = requests.get(url)html = Selector(text=response.text)mappings = {'vhk08k': '0', 'vhk6zl': '1', 'vhk9or': '2', 'vhkfln': '3', 'vhkbvu': '4', .

2020-12-07 21:02:30 247

转载 CSS偏移反爬

首先我们先了解一下什么是CSS偏移反爬虫: CSS偏移反爬虫指的是利用CSS样式将乱序的文字排版为人类正常阅读顺序的行为。当然这么说大家可能还是无法理解,那么为了能够让大家更加清楚的了解什么是CSS偏移反爬虫,在这里直接上图让大家看一下。  大家请看上图中的我圈出来的价格是¥950,这个价格正是我们正常浏览时在页面上看到的价格,这里我们按F12,然后在Elements面板中找到这个价格所对应的位置,正常情况下我们应该是直接看到950这个价格,或者是按顺序依次看到‘9’,‘5’,'0’这三个数字,...

2020-12-07 19:01:03 371

转载 如何在浏览器F12调试的状态下找到想要的JS文件

谷歌浏览器 F12 点击 source如果知道js 路径可以再右边的文件夹中找出如果不知道js 路径 只是知道文件名ctrl + P输入文件名即可

2020-12-07 00:44:43 3433

转载 pycharm 通过ssh同步服务器代码

设置使用远程服务器同步代码 新增ssh 服务器 添加SFTP文件传输 服务器名称可以随便起 新增ssh 服务器 ​ 添加ssh配置 测试一下 connection mappings 需要设置自动上传 其实,到这里为止,代表你的项目可以同步到服务器上了,但是还不能运行,因为你并没有设置解释器,即运行环境。 添加远程服务器解释器 添加解释器 添加你刚

2020-12-03 10:00:43 1619

原创 selenum 极验滑动验证码 登录获取cookie

思路:1、selenum打开网页输入,点击登录弹出滑动验证码2、截取原始验证码图片和缺口验证码图片3、对比两张图片,获取缺口位置,计算缺口距离左边长度4、按算法进行滑动登录'''极验验证码滑动验证selenum实现'''import osimport sysimport timefrom io import BytesIOfrom selenium.webdriver.common.action_chains import ActionChainsfrom PIL

2020-12-02 15:38:50 277 1

原创 scrapy crawlspider 增量和全量爬取链家网

学习目的,全量通过大地址+小地址+金额段来取分页数据,增量数据用链家提供的成交信息,标题爬一次,详情爬一次,话不多说,直接上代码遇到的问题:链家网不定期链接会出现301,所以mate传递就会出问题,暂时未解决。这里绕过这个问题,没用matecrawlspider:# -*- coding: utf-8 -*-from urllib import parsefrom scrapy import Requestfrom scrapy.linkextractors import LinkEx

2020-12-01 12:33:20 1844

原创 scrapy 爬取链家二手房数据

学习使用只爬取展示的展示的3000条数据spider:# -*- coding: utf-8 -*-from urllib import parseimport scrapyfrom scrapy import Requestfrom Lianjia.items import LianjiaItem,DangdangItemLoaderclass LianjiaJobSpider(scrapy.Spider): name = 'lianjia_job' allowe

2020-11-30 13:48:46 3195 5

原创 Mysql设置创建时间字段和更新时间字段自动获取时间,填充时间

1、引言在实际开发中,每条数据的创建时间和修改时间,尽量不需要应用程序去记录,而由数据库获取当前时间自动记录创建时间,获取当前时间自动记录修改时间。2、创建语句(1)–添加CreateTime 设置默认时间 CURRENT_TIMESTAMPALTER TABLE `table_name`ADD COLUMN `CreateTime` datetime NULL DEFAULT CURRENT_TIMESTAMP COMMENT '创建时间' ;(2)–修改CreateTime 设

2020-11-29 07:50:43 1030 1

原创 requests爬取链家网房源数据

无不良目的,纯学习策略:1、增量爬取二手房成交数据,最多3000条,所以每天直接增量爬取即可。2、老数据有几种方式,我用的并不是最优的,先从安居客爬取所有小区入库(安居客反爬比较强,锁也是增量爬取),链家查询每个小区成交房源数据。3、还有更好的策略,只是练习,所以没有完善,总共5万多数据,抓了4万。代码:增量代码:import requestsimport sysimport ossys.path.append(os.path.dirname(os.path.dirnam

2020-11-28 10:02:29 699

原创 scrpy.Selector xpath循环时一直取第一个元素的问题

url = "https://xa.lianjia.com/chengjiao/pg{}/" r = self.web_requests.get(url.format(1)) selector = Selector(text=r.text) ul = selector.xpath("//ul[@class='listContent']/li") for li in ul: title = li.xpath('//div.

2020-11-27 10:15:37 920

原创 selenum模拟登陆知乎(重点倒立文字)

1、打开网页2、点击到账号密码登录3、判断验证码是否出现4、输入账号密码5、对验证码图片下载6、通过zheye对图片进行分析获取倒立文字的坐标7、网页对图片储存缩放一半,坐标进行处理8、通过move和click进行点击倒立文字坐标9、登录# -*- coding: utf-8 -*-import osimport sysfrom selenium import webdriversys.path.append(os.path.dirname(os.path.di

2020-11-18 19:03:17 229 1

转载 scrapy本地调试网页

有时使用爬虫的时候会把网页抓下来然后本地调试,所以今天写一篇博客记录一下整个流程:目录1.抓取网页保存到本地2.离线调试1.抓取网页保存到本地在Scrapy爬虫类的parse函数中使用def parse(self,response):def saveHtml(file_content):with open(“保存路径/test.html”, “w”) as f:f.write(file_content)# test中就是html网页的文本信息text = response.texts

2020-11-18 10:53:52 313

原创 mysql创建数据库中文插入报错的问题

创建数据库尽量选择 utf8mb4_general_ci,Mysql选择5.7

2020-10-18 07:37:41 130

原创 python 爬虫框架scrapy 入门 爬取博客园新闻(代码)

1、代码jobbole.py写爬取策略,2、settings.py 配置pipelines、配置图片下载、配置是否遵循robote协议、数据库配置等3、pipelines.py 主要是配置数据存储操作4、本来用的xpath 对网站解析,但是循环解析时发现每次解析的都是第一条,不知道是什么问题,最后这部分代码换成css选择器就好了。一、jobbole.py(主要写爬取策略)# -*- coding: utf-8 -*-import jsonimport osimport rei.

2020-06-27 23:54:14 455

原创 python 爬虫框架scrapy 基础入门笔记(后续跟基础入门代码)

一、scrapy安装和配置1、pip install scrapy很多安装容易出错的包,可以直接下载安装https://www.lfd.uci.edu/~gohike/pythonlibs2、scrapyweb抓取框架,底部异步io框架,事件循环+回调模式。尽量不要使用同步io。3、常见命令:scrapy startproject AricleSpider 创建scrapy项目4、目录结构spidersitemsmiddlewarespipelinesse...

2020-06-27 23:47:29 329

原创 通过pygame 画坐标系 、画图、画线、画点、写字、截图(代码)

import osimport sysimport pygameclass Draw: def __init__(self, x, y): self.x = x self.y = y pygame.init() pygame.display.set_caption('hello world') self.screen = pygame.display.set_mode([self.x, self.y]) .

2020-06-24 00:02:01 2742

百度地图操作指南.rar

路书自定义路线及多路书自定义定位最佳视角,及百度地图坐标矫正精确到0.2米,都是开发心得。供大家参考!

2020-03-09

dadishu.rar

python 打地鼠游戏代码加资源 利用了GraphWin、python3、doc、gif、资源信息等等

2019-06-29

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除