自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(25)
  • 收藏
  • 关注

原创 PLSQL报错解决办法——出现the password has expired

Oracle提示错误消息ORA-28001: the password has expired,是由于Oracle11G的新特性所致, Oracle11G创建用户时缺省密码过期限制是180天(即6个月), 如果超过180天用户密码未做修改则该用户无法登录。Oracle公司是为了数据库的安全性默认在11G中引入了这个默认功能,但是这个默认的功能很容易被DBA或者是开发人员给疏忽,一旦密码180天未修改过,就会出现这样的问题。解决方法可通过如下SQL语句。

2023-03-17 09:36:46 2831

原创 python面向对象程序设计

面向对象程序设计类:抽象 (类似于图纸,没有实际数据)对象:具体,即属性和方法的集合 (类似于真正的房子,实际数据)三大特征:封装,继承,多态权限访问私有属性:__variable(以两个下划线代表私有属性)定义:slots=[’__name’,’__flag’]//没有初始化值访问:用一组get,set函数def setName(self,name): self.__name=name#不要忘记用self.+变量名def getName(self): return sel

2021-10-20 09:41:45 95

原创 卸载Oracle数据库

Oracle数据库卸载三步走:1.首先停止所有的Oracle服务;2.然后用OUI卸载所有的Oracle组件;3.最后手动删除Oracle遗留部分。(卸载的内容包括程序文件、数据库文件、服务和进程的内存空间。)- 1.停止所有的Oracle服务选择“开始”→“控制面板”→“管理工具”命令,然后在右侧窗格中双击“服务”选项,出现“服务”界面,从上到下逐个停止所有与Oracle有关的(前缀为Oracle)状态为“已启动”的服务,即右击状态为“已启动”的服务然后从弹出的菜单中选择“停止”命令,出现“

2021-08-09 15:18:10 259

原创 python办公自动化——批量将word表格信息提取到Excel

批量将word表格信息提取到Excel源代码:# 批量将word信息提取到Excelfrom docx import Documentfrom openpyxl import Workbookimport datetime#实例化wb = Workbook()sheet = wb.activeheader = ['序号','日期','合作院校','金额']sheet.append(header)path = r'E:\0616\untitled\wxhs\Batch proces

2021-02-02 22:03:36 876

原创 批量提取会议通知书关键信息

批量提取(Word->Excel)会议通知书关键信息源代码:from docx import Documentfrom openpyxl import Workbookimport globpath = r'E:\0616\untitled\wxhs\Batch processing\会议通知'workbook = Workbook()sheet = workbook.activeheader = ['序号','时间','地点','参加人员','内容']sheet.append(h

2021-02-02 22:01:27 192

原创 flask框架

Flask框架轻量级的web框架安装:pip install flask导包:from flask import Flask步骤:1.创建应用程序app = Flask(__name__)2.运行应用程序if __name__ == '__main__': app.run()3.进行业务处理代码:from flask import Flask# 创建应用程序# web应用程序app = Flask(__name__)# 写一个函数来处理浏览器发过来的请求@app

2021-01-12 22:08:04 57

原创 python语法查阅

python字符串语法查阅链接:python语法查阅1.Python strip()方法描述:Python strip() 方法用于移除字符串头尾指定的字符(默认为空格或换行符)或字符序列。注意:该方法只能删除开头或是结尾的字符,不能删除中间部分的字符。语法 str.strip([chars])代码str.strip('\n')#移除首尾换行符str.strip(' ')#移除首尾空格str.strip('0')#移除首尾字符0str.strip('123')#移除首尾字符1

2021-01-12 10:42:18 68

原创 Pandas数据结构

Pandas数据结构Series一维数组结构DataFrame表格型数组结构导入模块pandas,numpy,matplotlib.pyplot1 import pandas as pd2 import numpy as np3 import matplotlib.pyplot as pltSeries结构(一维数组)定义:类似于一维数组,由一组索引(数据标签,即行索引)和一组数据组成。创建一个Series:pd.Series()给Series方法传入一个列表1.不写inde

2020-12-15 20:32:03 50

原创 python办公自动化之Excel的读写(xlrd、xlwt)

python办公自动化之Excel的读写(xlrd、xlwt)Excel读取数据——xlrd1.导包pip install xlrdimport xlrd2.打开一个工作簿xlsx = xlrd.open_workbook('XXX.xls')3.打开某张工作表通过sheet名sheet = xlsx.sheet_by_name('XXX')通过sheet索引下标查找sheet = xlsx.sheet_by_index(0)#下标从0开始4.获取单元格数据p

2020-12-14 21:50:01 98

原创 Scrapy框架五大核心组件

Scrapy框架五大核心组件引擎(scrapy)用来处理整个系统的数据流处理,触发事务(框架核心)调度器(scheduler)用来接收引擎发过来的请求(去重后)压入队列,并在引擎再次请求时返回队列下载器(downloader)用来下载网页内容,并将网页内容以response的形式返回给蜘蛛(Scrapy下载器是建立在twisted这个高效的异步模型上的)。爬虫(spiders)爬虫是主要干活的, 它可以生成url, 并从特定的url中提取自己需要的信息, 即所谓的实体(

2020-12-14 21:03:43 333

原创 python办公自动化——提取pdf中的文字和表格

python办公自动化——提取pdf中的文字和表格一、提取pdf中的文字编码流程:1.导入包:import pdfplumber2.找到pdf路径:pdf_path = ‘xxx.pdf’3.打开pdf :pdf = pdfplumber.open(pdf_path)4.获取页面获取某一页:parse_page = pdf.pages[n]获取所有页面:parse_page = pdf.pages5.获取所有页面的文字:parse_page.extract_text()6.存

2020-12-11 14:41:26 1252

原创 基于管道的持久化存储

基于管道的持久化存储scrapy框架中已经为我们专门集成好了高效、便捷的持久化操作功能,我们可以直接使用。先来认识两个文件:items.py:数据结构模板文件。定义数据属性。pipelines.py:管道文件。接收数据(items),进行持久化操作。持久化流程1.爬虫文件爬取到数据后,需要将数据封装到items对象中2.使用yield关键字将items对象提交给pipelines管道进行持久化存储3.在管道文件中的process_item方法中接收爬虫文件提交过来的数据,编写持久

2020-12-10 21:44:18 315

原创 python爬虫——scrapy框架

scrapy框架什么是框架?是一个集成了许多功能并具有极强通用性的项目模板怎么学习框架?专门学习框架封装好的各种功能的详细用法什么是scrapy框架?爬虫封装好的一个明星框架。功能:高性能的持久化存储、异步的数据下载、高性能的数据解析、分布式scrapy框架的基本使用环境的安装windows:pip install wheel下载twisted地址:https://www.lfd.uci.edu/~gohlke/pythonlibs/安装twisted:pi

2020-12-10 10:07:41 102 2

原创 python爬虫之selenium(3)动作链

python爬虫之selenium(3)selenium处理iframe如果定位的标签存在于iframe标签之中,则必须使用switch_to.iframe(iframe的id)动作链(拖动):from selenium.webdriver import ActionChains实例化一个动作链action = ActionChains(bro)长按且点击操作click_and_hold(div)move_by_offset(x,y):拖动perform:让动作链立即执行释放动作链

2020-11-15 19:24:32 511

原创 python爬虫之selenium(2)

python爬虫之selenium(2)1.模拟淘宝搜索商品from selenium import webdriverfrom time import sleepbro = webdriver.Chrome(executable_path='./chromedriver')bro.get('https://www.taobao.com/')search_input = bro.find_element_by_id('q')search_input.send_keys('毛衣开衫')btn

2020-11-15 18:47:01 88

原创 python爬虫之selenium(1)

python爬虫之selenium(1)Q1.验证当前页面是动态加载出来的1.根据URL地址,利用F12开发者工具抓包,Response中返回的是响应数据,利用搜索,判断当前数据是否是通过ajax请求动态加载出来的。Q2.如何获取动态加载到的数据2.利用ALL中所有的包,点击一下,CTRL+F进行全局搜索,找到响应包中含关键字的包,再利用Headers中的URL和下面的参数发请求selenium模块的基本使用selenium模块和python之间的关联?便捷的获取网页中动态加载出来的

2020-11-15 17:18:52 104

原创 python爬虫之xpath实战图片下载

python爬虫之xpath实战图片下载#-*- codeing=UTF-8 -*-#@Time : 2020/11/3 19:24#@Author :syoopy#@File : .py#@Software : PyCharmimport requestsfrom lxml import etreeif __name__ == '__main__': #1.指定url url = 'http://pic.netbian.com/4kmeishi/' #2.UA伪

2020-11-03 21:39:12 239

原创 python爬虫之xpath实战

python爬虫之xpath实战代码:import requestsfrom lxml import etreeif __name__ == '__main__': url = "https://wx.58.com/ershoufang/" headers = {"user-agent": "Mozilla/5.0 (Windows NT 6.1; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/78.0.3904.108 S

2020-11-02 22:31:48 181

原创 python爬虫之xpath解析基础

xpath解析xpath解析:最常用且最便捷高效的一种解析方式。具有通用性。xpath解析原理:- 1.实例化一个etree对象,且需要将被解析的页面源码数据加载到该对象中。- 2.调用etree对象中的xpath方法结合着xpath表达式实现标签的定位和内容的捕获。环境的安装pip install lxmllxml是一种处理xml和html的python语言,也是一种解析库如何实例化一个etree对象 from lxml import etree- 1.将本地html文档中的源码数

2020-11-02 21:39:01 920

原创 python爬虫之requests(4)

python爬虫之requests(4)实战:爬取豆瓣电影喜剧排行榜在页面中,滚轮向下滑动时,地址栏不变,局部刷新出新数据,打开F12开发者工具-Network,往下滑动,出现响应,即采用ajax请求Request URL:将后面的参数以字典形式封装发起的是get请求返回的是json数据参数封装成字典代码:import requestsimport jsonurl = 'https://movie.douban.com/j/chart/top_list?'headers =

2020-10-28 14:12:16 88

原创 python爬虫之requests(2)

python爬虫之requests(2)实战:制作简易网页采集器(获取到的是全部网页的内容)1.处理参数封装到字典当中kw=input(“请输入搜索词:”)dict1={“wd”:kw}2.存储时采用动态的名字filename=kw+’.html’再将filename传入open函数当中运行代码:import requests#1.指定URLurl = 'https://www.baidu.com/s?'#2.UA伪装headers = { "User-Agent":

2020-10-28 13:57:07 110

原创 python爬虫之requests(1)-全流程公式

python爬虫之requests(1)实战:爬取百度网页html1.指定URL2.UA伪装3.发起请求(模拟浏览器)requests(URL=URL,Headers=headers)4.获取响应数据返回response对象Content-Type查看是text/html还是Json格式5.持久化存储补充response属性# respone属性print(respone.text) # 获取响应的页面内容print(respone.content) # 获取二进制页面内容

2020-10-28 13:39:02 263

原创 python爬虫实战-获取部门预算文件公开时间

python爬虫实战-获取预算文件公开时间#-*- codeing=UTF-8 -*-#@Time : 2020/9/18 21:29#@Author :syoopy#@File : .py#@Software : PyCharmimport requestsimport jsonimport pandas as pdheaders = {"User-Agent":"Mozilla/5.0 (Windows NT 6.1; WOW64) AppleWebKit/537.36 (KHT

2020-09-18 22:11:28 197

原创 python办公自动化-02

python办公自动化-021.创建临时文件及文件夹读取文件with open('徐睿知.html','r',encoding="utf-8") as fp:ahtml = fp.readlines()print(ahtml)写入文件with open('写文件.txt','w',encoding="utf-8") as fp: fp.write('写入文件成功!')‘w’:若文件不存在,自动创建;若存在,原文件内容会被清掉‘a’:若文件不存在,自动创建;若存在,会继续

2020-09-16 22:43:18 54

原创 python办公自动化-01

python办公自动化1.输出当前文件夹下所有文件和文件夹os模块1.1 获取当前文件夹路径print(os.getcwd())1.2 输出当前文件夹下所有文件和文件夹print(os.listdir())#当前文件夹print(os.listdir('E:\python爬虫练习'))#指定文件夹1.3 python自动处理路径连接print(os.path.join('snoopy','test'))1.4 判断谁是文件谁是文件夹for file in os.listdir

2020-09-16 21:44:07 98

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除