自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(34)
  • 资源 (6)
  • 收藏
  • 关注

原创 ILRuntime Dotween

ILRuntime Dotween1; Unity 主程序导入dotween2; 热跟程序引用dotween.dll在unity 项目中找到dotween.dll 文件我的dotween.dll 位置是E:\ILRunTime\ILRuntimeProject\davidch-ILRuntimeProject-master\ILRuntimeProject\Assets\Plugins\Demigiant\DOTween导入热跟代码使用导入头文件using DG.Twee.

2021-01-05 11:23:31 1242 8

原创 给定两个数组,编写一个函数来计算它们的交集

给定两个数组,编写一个函数来计算它们的交集示例 1:输入: nums1 = [1,2,2,1], nums2 = [2,2]输出: [2,2]示例 2:输入: nums1 = [4,9,5], nums2 = [9,4,9,8,4]输出: [4,9]说明:输出结果中每个元素出现的次数,应与元素在两个数组中出现的次数一致。我们可以不考虑输出结果的顺序。思路 这是在数据结构中链表...

2019-09-02 21:56:43 2093

原创 letcode -- Two Sum 两数之和

题目给定一个整数数组 nums 和一个目标值 target,请你在该数组中找出和为目标值的那 两个 整数,并返回他们的数组下标。你可以假设每种输入只会对应一个答案。但是,你不能重复利用这个数组中同样的元素。示例:给定 nums = [2, 7, 11, 15], target = 9因为 nums[0] + nums[1] = 2 + 7 = 9所以返回 [0, 1]解题思路1、暴...

2019-09-02 09:45:56 166

原创 pyecharts x轴不能完全显示的问题解决

pyecharts x轴不能完全显示的问题解决 .set_global_opts(title_opts=opts.TitleOpts(title=title, subtitle=subtitle),xaxis_opts=opts.AxisOpts(name_rotate=60,name="123456",axislabel_opts={"rotate":45}))关键代码axislabe...

2019-08-25 23:36:30 14101 28

原创 scrapy 豆瓣短评 数据分析 + 中文情感分析 + 可视化 (一)

scrapy 豆瓣短评 数据分析 + 中文情感分析 + 可视化 (一)一、scrapy 爬取 豆瓣短评本次爬取的是哪吒之魔童降世 短评 。本次爬取的是静态网页还是蛮简单的。1、开始地址https://movie.douban.com/subject/26794435/comments?status=P爬取的内容item设置为class DoubanscrapyItem(scrap...

2019-08-23 10:55:32 2390 2

原创 python-m3u8-协程-快速下载并合并MP4

python-m3u8-协程-快速下载并合并MP4一、关于m3u8:m3u8是苹果公司推出一种视频播放标准,是m3u的一种,不过 编码方式是utf-8,是一种文件检索格式,将视频切割成一小段一小段的ts格式的视频文件,然后存在服务器中(现在为了减少I/o访问次数,一般存在服务器的内存中),通过m3u8解析出来路径,然后去请求。例子:#EXTM3U#EXT-X-VERSION:3#EXT...

2019-06-15 20:03:04 3072 2

原创 python--__str__和__repr__()区别

python–str__和__repr()两者的区别是1、str()返回用户看到的字符串,2、而__repr__()返回程序开发者看到的字符串,也就是说,repr()是为调试服务的。使用时:class Student(object): def __init__(self, name,callback=None, method='GET',meta=None,flags=Non...

2019-06-12 14:36:32 245

原创 python--类的单例模式的实现

python–类的单例模式的实现单例模式(Singleton Pattern)是一种常用的软件设计模式,该模式的主要目的是确保某一个类只有一个实例存在。当你希望在整个系统中,某个类只能出现一个实例时,单例对象就能派上用场。使用:1、在调度器的初始化__init__()中初始化类,则会是单例了2、使用__new___ 设置。1)new_ 本身用来初始化实例, 如果check 到内存中有初始...

2019-06-12 11:48:07 308 1

原创 python--log的实现

python–log的实现1、日志等级# 日志的五个等级,等级依次递增# 默认是WARNING等级logging.DEBUGlogging.INFOlogging.WARNINGlogging.ERRORlogging.CRITICAL# 设置日志等级logging.basicConfig(level=logging.INFO)# 使用logging.debug('DEBU...

2019-06-12 11:39:36 4372 1

原创 python--装饰器deorator--高级

python–装饰器deorator-- 高级"""如何优化你的装饰器 1、wrapt是一个功能非常完善的包,用于实现各种你想到或者你没想到的装饰器。 2、使用wrapt实现的装饰器你不需要担心之前inspect中遇到的所有问题,因为它都帮你处理了,甚至inspect.getsource(func)也准确无误""""""1、无参数 注要pip"""import w...

2019-06-12 11:35:35 186

原创 python--装饰器deorator--1

python–装饰器deorator装饰器 :装饰器的作用就是为已经存在的函数或对象添加额外的功能1、装饰器本质上是一个Python函数,2、它可以让其他函数在不需要做任何代码变动的前提下增加额外功能,3、装饰器的返回值也是一个函数对象4、使用 :用@5、一般装饰器函数都被命名为wrapper()“”""""初级装饰器"""def debug(func): def...

2019-06-12 11:32:51 157

原创 python--closure闭包

python–closure闭包1、就是当某个函数被当成对象返回时,夹带了外部变量,就形成了一个闭包2、闭包函数相对与普通函数会多出一个__closure__的属性里面定义了一个元组用于存放所有的cell对象,每个cell对象一一保存了这个闭包中所有的外部变量例子def make_printer(msg): def printer(): print(msg) ...

2019-06-12 11:29:37 231

原创 json或字典的总结

json或字典的总结1、 两种获取:1、results.get(‘paging’) # adiansdict.get(key, default=None)返回指定键的值,如果值不在字典中返回 default值2.results[“paging”]2、赋值 :1、radiansdict.setdefault(key, default=None)#和get()类似, 但如...

2019-06-12 11:24:23 355

原创 python __list的总结

python __list的总结1 len() 长度2、.append(obj) 增加一个3、.count(obj) 某元素的个数4、list.extend(list2) == list+list25、list(seq) 列表变成元组6、遍历1 for data in datas :2 for index ,line in enumerate (all_data)7 ls...

2019-06-12 11:19:28 158

原创 python--re模块

python–re模块1、常用例子:pattern = re.compile('<dd>.*?board-index.*?>(\d+)</i>.*?data-src="(.*?)".*?name"><a' + '.*?>(.*?)</a>.*?star">(.*?)</p&...

2019-06-12 11:18:11 162

原创 python-file、文件的总结

python–file(文件)的总结from contextlib import closingimport requests#使用yield迭代def read_file(fpath): BLOCK_SIZE = 1024 with open(fpath, 'rb') as f: while True: block = f.r...

2019-06-12 11:12:34 149

原创 python --通过urlretrieve下载MP4文件

python --通过urlretrieve下载MP4文件1、urlretrieve函数python3中urllib.request模块提供的urlretrieve()函数。urlretrieve()方法直接将远程数据下载到本地。 urlretrieve(url, filename=None, reporthook=None, data=None) 参数url:下载链接地址 参数f...

2019-05-28 19:17:37 2180

原创 scrapy--set去重数据

scrapy–set去重数据1、Pipeline 中from scrapy.exceptions import DropItemclass CheckPipeline(object): """check item, and drop the duplicate one""" def __init__(self): self.names_seen = set...

2019-05-28 19:08:53 514

原创 scrapy---下载中国大学慕课课程视频及文件

scrapy—下载中国大学慕课课程视频及文件1、本文很大程度参考了https://blog.csdn.net/qq_37244001/article/details/84780430,在此表示感谢2、scrapy 应用如下:settings 文件COURSE_ID="PKU-1002536002"#{(a)标清   (b)高清   (c)超清 }VIDEO_TYPE="a"#dow...

2019-05-28 18:57:53 6666 3

原创 scrapy--基于Redis的Bloomfilter去重

scrapy–基于Redis的Bloomfilter去重本文代码去重对象是itemclass RedisPipeline(object): def __init__(self, redis_uri, redis_db): self.redis_uri = redis_uri self.redis_db = redis_db @classme...

2019-05-22 18:40:57 409

原创 python --m3u8下载和合并

python --m3u8下载和合并代码如下:import contextlibimport osimport tempfilefrom urllib.parse import ( splittype)_url_tempfiles = []from urllib import requestimport requestsdef Myurlretrieve(url...

2019-05-22 18:36:04 2871

原创 pyecharts可视化

pyecharts可视化概述:Echarts 是一个由百度开源的数据可视化,凭借着良好的交互性,精巧的图表设计,得到了众多开发者的认可。而 Python 是一门富有表达力的语言,很适合用于数据处理。当数据分析遇上数据可视化时,pyecharts 诞生了。特性:简洁的 API 设计,使用如丝滑般流畅,支持链式调用囊括了 30+ 种常见图表,应有尽有支持主流 Notebook 环境,Jup...

2019-05-15 21:03:06 504

原创 scrapy怎么debug断点调试

scrapy怎么debug断点调试1、 在项目的文件夹下增加一个文件main.py(scrapy.cfg同等级中)main.py文件from scrapy.cmdline import executeimport osimport sysif __name__ == '__main__': sys.path.append(os.path.dirname(os.path.abs...

2019-05-06 20:40:56 6692 2

原创 python os和sys 模块的简单总结

python os和sys 模块的简单总结"""1、 os.chdir(path)改变当前工作目录2、os.getcwd()返回当前工作目录4、 os.path.abspath(path) 返回绝对路径5、os.path.dirname(path) 返回文件夹路径7、__file__ 本文件的地址: D:/Python/pachong/python_file/os.pysy...

2019-05-06 12:24:17 309

转载 基于Redis的Bloomfilter去重(附Python代码)

(原文链接:http://blog.csdn.net/bone_ace/article/details/53107018)

2019-05-05 22:19:55 287

原创 基于set和单例去重

基于set和单例去重去重”是日常工作中会经常用到的一项技能,在爬虫领域更是常用,并且规模一般都比较大。去重需要考虑两个点:去重的数据量、去重速度。为了保持较快的去重速度,一般选择在内存中进行去重。1、数据量不大时,可以直接放在内存里面进行去重,例如python可以使用set()进行去重。2、当数据量再大一点时,可以用不同的加密算法先将长字符串压缩成 16/32/40 个字符,再使用上面两种方...

2019-05-05 22:18:55 205

转载 python操作mongoDB数据库基本类封装

本文转至https://blog.csdn.net/yangxiaodong88/article/details/80748972 在此表示感谢修改:1、把文件都放入一个文件中,方便以后的移植2、用自己的例子调试一波本文基本没有修改原作者的代码:# _*_ encoding:utf-8 _*_# _*_ author:wen _*_import pymongofrom pymon...

2019-05-03 23:03:22 3235 1

原创 Fiddler 复制下来的header变成字典模式

Fiddler 复制下来的header变成字典模式使用Fiddler 复制下来的header 样式Device-Id: 00000000-5ae8-e179-a0f9-233a0033c587Cookie: serviceToken=04sr9GcZfERxKRplmwUmb83RlUaPGoQN/oWh1oElLB4ZTVXptLM+4fXTQF17y0wJFo2JsicSBSPIwrnc...

2019-05-03 22:53:59 927

转载 python操作mysql数据库基本类封装

python操作mysql数据库基本类封装本文是在博主cxl283的博客下https://blog.csdn.net/cxl283/article/details/73521831稍微修改而来的。修改的地方:1、python2变成python32、MySQLdb 变成pymysql两者变化不大。import reimport pymysql"""connect连接对象的方法:...

2019-05-03 09:05:28 1046

原创 scrapy模拟登录知乎并获取知乎用户信息

scrapy模拟登录知乎并获取知乎用户信息开始工作代码的编写开始工作1、创建项目scrapy startproject loginScrapy2、创建spidercd loginScrapyscrapy genspider zhihu www.zhihu.com3、改写项目文件在settings中增加ROBOTSTXT_OBEY = False # 这个不禁用,遵守协议还怎么爬,人...

2019-04-27 10:40:07 412

原创 scrapy使用selenium模拟登录知乎

scrapy使用selenium模拟登录知乎项目的spider 中 class zhihuSpider(scrapy.Spider): name = 'zhihu2' allowed_domains = ['www.zhihu.com/'] start_urls = ['https://www.zhihu.com/signin','https://www...

2019-04-27 09:58:42 667

原创 scrapy的日志logging的使用

scrapy的日志logging的使用1、 意义 :为了方便在调试。在scrapy运行中可能停不下来, 关闭就没有记录了。因此把日志保存在文本中方便看信息。2 、使用:1) 在settings中增加:# log configimport datetimeToday=datetime.datetime.now()#取得现在的时间Log_file_path='scrapy_{}_{}_...

2019-04-27 09:39:47 1412 1

原创 scrapy爬取海贼王漫画

scrapy爬取海贼王漫画1、创建项目scrapy startproject onepiecesScrapy2、创建spidercd onepiecesScrapy scrapy genspider onepieces http://manhua.fzdm.com/02/3、改写项目文件在settings中增加ROBOTSTXT_OBEY = False # 这个不禁用,遵守协议还怎么...

2019-04-25 10:34:11 779

原创 scrapy 爬取酷狗T500音乐

scrapy 爬取酷狗T500音乐开始工作代码的编写开始工作1、创建项目scrapy startproject kugouScrapy2、创建spidercd kugouScrapy scrapy genspider kugouwww.kugou.com3、改写项目文件在settings中增加ROBOTSTXT_OBEY = False # 这个不禁用,遵守协议还怎么爬,人家默认不...

2019-04-25 09:56:06 1112

movies.zip

本代码实现用协程下载m3u8文件,最后合并成MP4文件。本文使用协程故速度还是蛮快的

2019-06-15

scrapy ---爬取豌豆荚并分析数据

scrapy ---爬取豌豆荚并分析数据,通过scrapy框架获取豌豆荚数据储存在mongodb中,并通过pyecharts 分析结果得到图像分析

2019-05-28

moocScrapy.zip

scrapy---下载中国大学某课课程视频及文件,通过scrapy 框架下载下载中国大学某课课程MP4视频及pdf文件,数据也会储存在mongodb数据库中

2019-05-28

scrapy模拟知乎登录并获取知乎用户的信息

scrapy模拟知乎登录并获取知乎用户的信息,模拟登录时使用selenium ,数据存储在mongoDB中

2019-04-27

scrapy爬取海贼王漫画

scrapy爬取海贼王漫画,并把漫画下载到本地文档中。方便查看。

2019-04-25

scrapy 爬取酷狗T500音乐

scrapy 爬取酷狗T500音乐,并把音乐下载到本地,其中下载的音乐信息保存到mongoDB

2019-04-25

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除