- 博客(8)
- 资源 (3)
- 收藏
- 关注
原创 自己用python写的一款fofa api爬取工具
自己用python写的一款fofa api爬取工具,支持csv格式一键导出输出邮箱,key就可以爬取了,数量看会员等级导出,只需要输入文件名就可以,然后点击导出csv,输出存在URL,ip,端口,网站名称等,更加方便查看,需要的可以点以下链接去下载https://download.csdn.net/download/qq_39650046/15763758...
2021-03-13 13:27:19 1207 2
原创 python 批量检测宝塔pma漏洞的脚本
漏洞详情:宝塔官方表示,7.4.2(Linux)版本的宝塔面板存在未授权访问phpmyAdmin的漏洞,漏洞利用难度为“0”,通过访问ip:888/pma则可无需任何登录操作直接进入phpmyAdmin,所有使用宝塔的站点均可测试是否存在此漏洞(未修改默认端口,安装了phpmyAdmin的均存在可能);影响范围 宝塔 linux 7.4.2(安装了 phpmyadmin) 宝塔 Linux 7.5.13(安装了 phpmyadmin) 宝塔 windows 6.8(安装了 php
2020-12-02 09:31:12 515
原创 python 多进程批量扫描网站备份文件
用python写了一个多进程批量扫描网站备份文件的小脚本先把要扫描的url放到文件里,通过读取文件里面的url,批量扫描备份文件这里利用了多进程模块,速度非常可观import requestsimport reimport multiprocessinglist = ['wwwroot.rar','wwwroot.zip','新建文件夹.rar','新建文件夹.zip','www.rar','www.zip','web.rar','web.zip']headers = {'User-Agen
2020-12-01 13:43:54 687
原创 python 写的编码转换工具
自己用python写了一个转换小工具,有json格式转换,base64编码转换、url编码转换,16进制编码转换、md5加密,然后用tkinter模块搭建了个可视化窗口需要源码的可以自己查看,不需要源码的提供编译后的工具编译后的工具也上传了可以下载https://download.csdn.net/download/qq_39650046/13129121由于通过pyinstaller模块编译导致杀毒软件会报毒,添加信任就行import jsonimport base64import urll
2020-11-20 10:21:24 457 1
原创 python 批量网站路径扫描
批量网站路径扫描针对大量网站是否存在同一个路径的,扫描脚本import requestswith open(r'读取网址文件的绝对路径','r',encoding = 'utf-8') as f: a = f.readlines() path = '网站的路径' for i in a : a = i.strip() + path + '\n' try: r = requests.get(a).status_code if r == 200: output = '路
2020-11-01 14:19:23 352
原创 python 异步爬取必应搜索结果
简单的通过异步来爬取必应搜索结果,速度非常可观。通过用 aiohttp, asyncio这两个异步模块,再通过xpath来提取链接。加个cookie可以防止爬虫被禁import aiohttpimport asynciofrom lxml import etreeheaders = {'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64; rv:81.0) Gecko/20100101 Firefox/81.0', 'Acc
2020-10-21 16:36:55 2134 1
原创 python 爬取百度搜索结果url
简单的爬取百度搜索结果url先用了requests库来访问百度,再通过xpath来提取搜索后的结果import requestsfrom lxml import etreefor i in range(1,11):#通过for循环来实现翻页 url = 'https://www.baidu.com/s?wd=爬虫&pn=10' + str(i*10)+ '&oq=爬虫' headers = {'User-Agent':'Mozilla/5.0 (Windows NT 10.0;
2020-10-19 14:27:16 1184 1
原创 批量检测url存活脚本
一个简单的批量检测url脚本思路是先读取文件里面的url,然后通过requests模块去访问它,最后提取访问正常的url下载到指定文件夹import requestswith open(r'C:\Users\惠普\Desktop\1111\链接.txt','r',encoding = 'utf-8') as f: u = f.readlines() length = len(u) for i in range(0,length): a = u[i].strip() try:
2020-10-14 10:13:52 2631 2
json格式转换工具.exe
2020-11-17
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人