- 博客(8)
- 资源 (8)
- 收藏
- 关注
翻译 爬虫基础之 urllib
get :是通过网站传递参数或者直接打开页面,请求页面post:是通过form,并不在网址上体现内容,进行数据传递www.xxxyyy.com/temp.html?a=1&b=2form_data = {“c”:1,“D”:2}username,password 一般都是post传递, url?username=xxxx&password=yyyy 也可以https:/...
2019-02-26 21:27:36 85
翻译 爬虫基础之异常处理
一般的方法try: 异常的语句except 异常代码 as 异常赋值名字: 处理方法异常代码可以写具体的错误及异常,如 TypeError,也可以写通用代码 Exception抛出异常raise 异常代码 异常说明finally 的使用try: 异常的语句except 异常代码 as 异常赋值名字: 处理方法finally: 提示异常后,会继续执行的语句...
2019-02-25 21:26:38 388
翻译 爬虫基础之文件操作
打开文件f = open("test_01")# print(f.read()) #返回全部内容# print(f.readlines()) #返回每一行内容print(f.readline()) #返回每一行内容,每次指针下移一行print(f.readline())f.close() #每次用完文件需要关闭写入文件f = open("test_01", "w&
2019-02-25 21:11:40 271
翻译 爬虫基础之字典、无序列表及与列表和元组的区分
字典 dict格式dict = {key1:value1, key2:value2, key3:value3,...}与 list 对比list = [4,5,6,7]index: 0 1 2 3value: 4 5 6 7dict1 = {"a":4, "b":5, "c":6, &q
2019-02-21 21:29:05 426
翻译 爬虫基础之列表、数组
列表 list名字 = [元素1,元素2, ……]可以理解为无限大,但实际是有限的。增:末尾追加 list.append[值]任意位置 list.insert[位置,新数值] 直接用+删: del list[位置] list.remove[列表中的值] list.pop[倒序位置,正序从0开始,倒序从0开始到负数]改: 直接修改 list[位置]=新值,...
2019-02-21 20:14:51 577
翻译 基本库的使用
urllibpython3中没有urllib2是内置的http请求库包含4个模块:一、request,二、error,三、parse,四、roborparser(最后一个基本不用,可以判断哪些网站可以爬或者不可以爬)一、request:1.urlopen():可以模拟浏览器的请求过程result: 可以发现,它是一个 HTTPResposne 类型的对象,主要包...
2019-01-23 20:53:47 163 1
翻译 html
<!DOCTYPE html><html> <head> <meta charset="UTF-8"> <title>This is a Demo</title> </head> <body>
2019-01-23 18:58:09 83
原创 爬虫笔记——HTTP请求
请求过程:谷歌浏览器F12,请求www.baidu.com,如下: Name:请求的名称,一般是URL的最后一部分 Status:响应状态码,判断发送的是否得到了响应 Type:请求的文档类型 Initiator:请求源 Size:从服务器请求的资源大小 Time:从请求...
2019-01-17 20:25:29 152
贪吃蛇.zip 基于Python
2019-09-22
Uniblue_RegistryBooster
2012-10-26
思科网络技术学院教程packet tracer配置文件
2012-02-28
win98三维迷宫,更新积分
2011-10-25
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人