• 等级
  • 2886 访问
  • 14 原创
  • 0 转发
  • 947731 排名
  • 1 评论
  • 1 获赞

Python正则表达式笔记 re模块常用函数和方法

有几个概念要先了解清楚。 函数:可以直接调用的实现特定功能的代码块。 方法:跟函数一样是实现特定功能的代码块,但是方法跟函数有一点区别,就是方法需要被对象调用,而函数可以直接调用。 正则表达式对象:当使用compile函数,返回的就是一个正则表达式对象。你也可以直接使用一个字符串来表示正则表达式,但最终字符串会被编译成正则表达式对象,而更有效的方法是使用compile函数对字符串进行预编译,...

2018-09-15 07:44:57

Django2.1 缓存

官方文档 缓存的作用简单来说就是节约计算资源同时提高页面的访问速度,很适合用于静态页面。 Django的缓存系统需要少量设置,去告诉它缓存数据应该放在何处,数据库或者文件系统或者内存。 Memcached Memcached是最快的缓存类型,完全基于内存的缓存服务。 Memcached作为一个守护进程运行,并分配了一定数量的RAM。它所做的只是提供了一个快速接口,用于在缓存中添加、检索和...

2018-09-09 08:55:40

Django2.1 用户认证

官方文档 Django认证系统同时处理身份验证和授权。 Django认证系统包含的应用和中间件: 应用 'django.contrib.auth'  包含认证框架的核心,以及它的默认模型。 'django.contrib.contenttypes'  是Django内容类型的系统,它允许与您创建的模型相关联。 中间件 SessionMiddleware  管理跨请求的会话。 Authen...

2018-09-08 13:28:14

Python正则表达式笔记 特殊符号和字符

符号 re1|re2 匹配正则表达式re1或者re2 . 匹配任意字符(除了\n之外) ^ 匹配字符串起始部分 $ 匹配字符串终止部分 * 匹配0次或多次前面出现的正则表达式 + 匹配1次或多次前面出现的正则表达式 ? 匹配0次或1次前面出现的正则表达式 {N} 匹配N次前面出现的正则表达式 {M,N} 匹配M...

2018-09-04 12:29:07

Ubuntu安装使用python虚拟环境

virtualenv安装 virtualenv使用方法 # 为python3安装 sudo pip3 install virtualenv 创建虚拟环境目录,创建虚拟环境 star@star-vm:~$ mkdir env # 最后一个参数是虚拟环境目录路径 star@star-vm:~$ virtualenv -p python3 env 运行虚拟环境 star@star-vm...

2018-08-24 08:10:05

Ubuntu18.04安装pip3

Ubuntu18.04安装有python3.6 查看/usr/lib下的目录,看到有不同版本的python,但是能启动的只要python3.6 star@star-vm:/usr/lib$ ls -d python* python2.7 python3 python3.6 python3.7  查看/usr/bin目录,里面是程序启动的执行文件,对应了可用的命令 star@sta...

2018-08-23 11:33:04

Ubuntu16.04安装MongoDB并设置开机自启

目的:在Ubuntu16.04安装MongoDB,并且设置普通用户开机启动(mongodb不推荐root启动),开机启动用systemd。 我当前的普通用户为star,将由这个用户执行mongodb服务 从官网下载MongoDB安装包,解压,移动到存放目录 tar zxf mongodb-linux-x86_64-ubuntu1604-4.0.1.tgz sudo mv mongodb-l...

2018-08-18 14:20:37

Linux添加删除普通用户

添加普通用户 groupadd star useradd -d /home/star -g star -m star # -d -g都很好理解,-m表示创建用户主目录 新建的用户还要加入到sudoers中才能使用sudo su vim /etc/sudoers 在root那行下面加一行 root ALL=(ALL:ALL) ALL star ALL=(ALL:ALL) ...

2018-08-18 09:02:10

多线程爬虫

该爬虫的目的是下载一个素材网站的装饰类素材图片保存到本地文件夹,总共有800多个分页,为了显示多线程效果只下载10页,每一页是一个url。 首先是下载类 import requests from lxml import html from urllib.parse import urlparse, unquote import os import re import time from th...

2018-08-09 14:05:00

进程and主线程and子线程and守护线程的关系

当下面的多线程python程序运行时,主线程运行10秒后结束,t 线程会运行20秒,进程会等待t 线程结束后才会结束。 from threading import Thread import time def foo(x): for i in range(1, x+1): print(i) time.sleep(1) f = open('text.txt', 'w') f.cl...

2018-08-04 18:48:10

登陆表单(urllib与requests比较)

通过穿越登陆表单做一个urllib与requests的比较,urllib的代码来自《Web Scraping with Python》一书的第六章6.1节,测试网站同样来自这本书中。 测试网站:http://example.webscraping.com/ 登陆页面的form表单代码如下,共有7个input标签,其中3个是隐藏的,name=_fromkey这个input标签生成一个随机字符串作...

2018-08-04 11:19:17

笔记 Python--线程 锁 Queue

以下是个人见解,总结笔记。 线程 一颗CPU核心通常只有一个线程,使用超线程技术的InterCPU除外。 Inter的超线程技术可以把一个CPU物理内核模拟成两个虚拟内核(两线程),所以一个物理内核可以有两个线程并行,两个线程共享CPU资源,当两个线程同时需要使用某一资源时,其中一个需要让步。 一颗CPU核心可以开启多个线程,但在任意时刻只有一个线程在执行,当线程停止使用资源时切换其它线程...

2018-08-03 10:26:57

爬虫--下载网站存储(MongoDB)

该爬虫目的是下载网站页面并保存到MongoDB数据库,爬虫原型是《Web Scraping with Python》一书的第一章、第三章的代码,原代码是python2编写的,这里改用python3编写,在此基础上做一些恰当修改,补全爬虫完整,增强容错能力,支持robots检查、代理、限速、爬取深度设置。 from urllib.request import urlopen, URLError,...

2018-08-01 15:39:26

爬虫--爬取网站链接

该爬虫的目的是爬取一个网站包含的链接并存入文件。爬虫的原型来源于《Web Scraping with Python》一书的第一章的代码,原代码是python2编写的,这里改用python3编写,在此基础上做一些恰当的修改,增强容错能力,支持代理、限速、爬取深度设置。 from urllib.request import urlopen, URLError, HTTPError, Request...

2018-07-29 22:24:59

lipei_csdn

关注