- 博客(6)
- 资源 (2)
- 收藏
- 关注
原创 requests库---网络爬虫
requests库简介 官方文档:requests快速上手 写的非常详细,推荐阅读官方文档。快速上手导入requests库import requests发送请求:r = requests.get('url') r = requests.post("http://httpbin.org/post") r = requests.put("http://httpbin.org/put") r = re
2017-04-12 11:05:28 404
原创 爬取爱问知识人问题并保存到数据库
前言: 基于崔庆才的(http://cuiqingcai.com/1972.htmlPython)爬虫实战六之抓取爱问知识人问题并保存至数据库 上面博客由于显示问题,可能看不到全部代码,可以通过查看网页源代码看到。自己就在题目上进行一些修改,去掉的保存所有答案,只保存好评答案,而且没有使用到Beautifulsoup,所以直接采取正则表带是匹配,所以tool.py也没有作用。 最终保存问题,提
2016-12-22 23:30:29 698
原创 爬取百度贴吧用户的帖子
在基于Python爬虫实战二之爬取百度贴吧帖子的项目–崔庆才(http://cuiqingcai.com/993.html),该项目最终爬取一个贴子的所有楼层或者只看楼主。 想到自己可以爬取一个用户的所有帖子,只需修改写入文件的方式,和正则表达式,以及一些微小改动就可以。# -*- coding:utf-8 -*- import re import urllib2#处理页面标签类 class To
2016-12-19 19:16:17 1210
原创 项目9:文件共享2--GUI版本
最终实现代码:# -*- coding:utf-8 -*-from xmlrpclib import ServerProxy, Fault from os import listdir from threading import Thread from server import Node,UNHANDLED from client import randomString from time imp
2016-11-28 14:49:34 457
原创 项目八:使用XML-RPC进行文件共享
*首次实现的问题*: 1.启动交互式Python解释器是mypeer.peer函数会报错 socket.error: [Errno 10061] 表示服务器忙碌中无法与您建立联机,请稍后再试。 (前面两个要在cmd下进入文件所在的目录) 2.sceret意义何在,query就将数据读取了,只不过没有以文件形式保存下了,这时以openfile把data写入文件,fetch不就没有意义了。
2016-11-26 13:16:17 680
原创 项目4:新闻聚合-Python基础教程
代码为:#!/usr/bin/env python # -*- coding: utf-8 -*-from nntplib import NNTP from time import time , strftime, localtime from email import message_from_string from urllib import urlopen import textwrap i
2016-11-24 15:36:19 849
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人