自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(8)
  • 资源 (3)
  • 收藏
  • 关注

原创 自己用python写的一款fofa api爬取工具

自己用python写的一款fofa api爬取工具,支持csv格式一键导出输出邮箱,key就可以爬取了,数量看会员等级导出,只需要输入文件名就可以,然后点击导出csv,输出存在URL,ip,端口,网站名称等,更加方便查看,需要的可以点以下链接去下载https://download.csdn.net/download/qq_39650046/15763758...

2021-03-13 13:27:19 1207 2

原创 python 批量检测宝塔pma漏洞的脚本

漏洞详情:宝塔官方表示,7.4.2(Linux)版本的宝塔面板存在未授权访问phpmyAdmin的漏洞,漏洞利用难度为“0”,通过访问ip:888/pma则可无需任何登录操作直接进入phpmyAdmin,所有使用宝塔的站点均可测试是否存在此漏洞(未修改默认端口,安装了phpmyAdmin的均存在可能);影响范围 宝塔 linux 7.4.2(安装了 phpmyadmin) 宝塔 Linux 7.5.13(安装了 phpmyadmin) 宝塔 windows 6.8(安装了 php

2020-12-02 09:31:12 515

原创 python 多进程批量扫描网站备份文件

用python写了一个多进程批量扫描网站备份文件的小脚本先把要扫描的url放到文件里,通过读取文件里面的url,批量扫描备份文件这里利用了多进程模块,速度非常可观import requestsimport reimport multiprocessinglist = ['wwwroot.rar','wwwroot.zip','新建文件夹.rar','新建文件夹.zip','www.rar','www.zip','web.rar','web.zip']headers = {'User-Agen

2020-12-01 13:43:54 687

原创 python 写的编码转换工具

自己用python写了一个转换小工具,有json格式转换,base64编码转换、url编码转换,16进制编码转换、md5加密,然后用tkinter模块搭建了个可视化窗口需要源码的可以自己查看,不需要源码的提供编译后的工具编译后的工具也上传了可以下载https://download.csdn.net/download/qq_39650046/13129121由于通过pyinstaller模块编译导致杀毒软件会报毒,添加信任就行import jsonimport base64import urll

2020-11-20 10:21:24 457 1

原创 python 批量网站路径扫描

批量网站路径扫描针对大量网站是否存在同一个路径的,扫描脚本import requestswith open(r'读取网址文件的绝对路径','r',encoding = 'utf-8') as f: a = f.readlines() path = '网站的路径' for i in a : a = i.strip() + path + '\n' try: r = requests.get(a).status_code if r == 200: output = '路

2020-11-01 14:19:23 352

原创 python 异步爬取必应搜索结果

简单的通过异步来爬取必应搜索结果,速度非常可观。通过用 aiohttp, asyncio这两个异步模块,再通过xpath来提取链接。加个cookie可以防止爬虫被禁import aiohttpimport asynciofrom lxml import etreeheaders = {'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64; rv:81.0) Gecko/20100101 Firefox/81.0', 'Acc

2020-10-21 16:36:55 2134 1

原创 python 爬取百度搜索结果url

简单的爬取百度搜索结果url先用了requests库来访问百度,再通过xpath来提取搜索后的结果import requestsfrom lxml import etreefor i in range(1,11):#通过for循环来实现翻页 url = 'https://www.baidu.com/s?wd=爬虫&pn=10' + str(i*10)+ '&oq=爬虫' headers = {'User-Agent':'Mozilla/5.0 (Windows NT 10.0;

2020-10-19 14:27:16 1184 1

原创 批量检测url存活脚本

一个简单的批量检测url脚本思路是先读取文件里面的url,然后通过requests模块去访问它,最后提取访问正常的url下载到指定文件夹import requestswith open(r'C:\Users\惠普\Desktop\1111\链接.txt','r',encoding = 'utf-8') as f: u = f.readlines() length = len(u) for i in range(0,length): a = u[i].strip() try:

2020-10-14 10:13:52 2631 2

fofa搜索工具.exe

自己用python 写的FOFA api爬取工具,可以导出csv格式,更加方便查看

2021-03-13

python 写的一个编码转换小工具

有json格式转换,base64编码转换、url编码转换,16进制编码转换、md5加密

2020-11-20

json格式转换工具.exe

自己用python写的json格式转换工具,可以把网站传输的json格式变的更加清晰,更加有可读性,操作简单,把json格式往上粘贴,然后点击按钮转换就行。

2020-11-17

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除