• 等级
  • 38754 访问
  • 16 原创
  • 1 转发
  • 123080 排名
  • 3 评论
  • 8 获赞

sublime Text 3实现对java编译执行

简单总结下在SublimeText中配置java运行环境一。安装JDK并配置环境变量网上有很多教程,也是学习java第一步,这里不介绍。二。在JDK的bin目录下,新建runJava.bat文件,内容如下:@ECHOOFFcd%~dp1ECHOCompiling%~nx1.......IFEXIST%~n1.class(DEL

2017-09-28 15:00:07

前端性能优化之——缓存

*缓存是前端性能优化的重要方式之一。缓存方式有多种,但都不难理解。实现方式大致分三类:HTTP协议头控制,DomStorage、AppCache。*一.HTTP协议头控制Cache-Control用于控制文件在本地缓存有效时长。最常见的,比如服务器回包:Cache-Control:max-age=600表示文件在本地应该缓存,且有效时长是600秒(从发出

2017-07-28 13:49:46

js重点浅谈(跨域,作用域和作用域链,闭包,原型和原型链继承)

一.跨域问题的解决方法啥是跨域:所有的浏览器都遵守同源策略,保证一个源的动态脚本不能读取或操作其他源的http响应和cookie,这就使浏览器隔离了来自不同源的内容,防止它们互相操作。所谓同源是指协议、域名和端口都一致的情况。怎么解决跨域问题:1.第三方网站开启HTTP的Access-Control-Allow-Origin参数只有当目标页面的response中,包含了Ac

2017-07-19 17:30:46

前端浏览器兼容之——css hack

一般情况下,我们尽量避免使用CSShack,但是有些情况为了顾及用户体验实现向下兼容,不得已才使用hack。比如由于IE8及以下版本不支持CSS3,而我们的项目页面使用了大量CSS3新属性在IE9/Firefox/Chrome下正常渲染,这种情况下如果不使用css3pie或htc或条件注释等方法时,可能就得让IE8-的专属hack出马了。方式一:条件注释法这种方式是IE浏览器专有的Hack方式,

2017-07-18 16:50:56

搞定python多线程和多进程

1概念梳理:1.1线程1.1.1什么是线程线程是操作系统能够进行运算调度的最小单位。它被包含在进程之中,是进程中的实际运作单位。一条线程指的是进程中一个单一顺序的控制流,一个进程中可以并发多个线程,每条线程并行执行不同的任务。一个线程是一个executioncontext(执行上下文),即一个cpu执行时所需要的一串指令。1.1.2线程的工作方式假设你正在读一本书,没有读完,你想休息一

2017-07-10 13:14:11

给Scrapy添加代理

给请求添加代理有2种方式,第一种重写start_request方法,第二种是添加download中间件。下面分别介绍这2种方式。一.重写start_request方法比较简单,只是在meta中加了一个proxy代理。然后可以测试了,那么问题来了,我怎么知道我的请求是否带上了代理呢?可以在测试的时候去爬"http://ip.filefab.com/index.php"这个网站,它会显示

2017-07-07 17:10:29

Scrapy-redis改造scrapy实现分布式多进程爬取

一.基本原理:Scrapy-Redis则是一个基于Redis的Scrapy分布式组件。它利用Redis对用于爬取的请求(Requests)进行存储和调度(Schedule),并对爬取产生的项目(items)存储以供后续处理使用。scrapy-redi重写了scrapy一些比较关键的代码,将scrapy变成一个可以在多个主机上同时运行的分布式爬虫。参考Scrapy-Redis

2017-06-21 16:54:44

scrapy-splash爬取JS生成的动态页面

利用scrapy-splash爬取JS生成的动态页面目前,为了加速页面的加载速度,页面的很多部分都是用JS生成的,而对于用scrapy爬虫来说就是一个很大的问题,因为scrapy没有JSengine,所以爬取的都是静态页面,对于JS生成的动态页面都无法获得。解决方案:利用第三方中间件来提供JS渲染服务:scrapy-splash等。利用webkit或者基于webkit库Splash

2017-06-06 10:14:29

CentOS 6.5安装LAMP,并开启MySQL远程访问

准备:1、配置防火墙,开启80端口、3306端口vi/etc/sysconfig/iptables-AINPUT-mstate--stateNEW-mtcp-ptcp--dport80-jACCEPT#允许80端口通过防火墙-AINPUT-mstate--stateNEW-mtcp-ptcp--dport3306-jACCEPT#允许

2017-06-01 16:15:30

centos安装MySQLdb,及相关问题解决方法

centos环境Python的MySQLdb安装问题稍多点,整理一下,也方便自己以后查看。1.#sudoyuminstallgcc-c++(使用sudoyuminstallgcc-c++时会自动安装/升级gcc及其他依赖的包。)2.#wgethttp://sourceforge.net/projects/mysql-python/files/mysql-python/1.2.3/M

2017-06-01 13:36:49

Centos装完MySQL模块后还是报 No module named MySQLdb错误

我yum,安装MySQL-python模块很简单:#yuminstallMySQL-python-y可是执行Scrapy爬虫时依然报NomodulenamedMySQLdb经过一番搜索终于找到问题:没有安装Python连接MySQL的模块#easy_installMySQL-python完美解决!

2017-05-24 17:24:54

Centos下装Python+Scrapy

我的版本centos6.5,其他版本没试过,应该差不多。首先确保电脑能上网喔!安下面步骤直接复制粘贴就行。1.#su–root2.#yuminstallgcczlib-develbzip2-developenssl-develncurses-devellibffi-devellibxslt-devellibxml2-develsqlite-devel3.#cd/us

2017-05-24 17:03:47

MySQL中文乱码

mysql中文乱码很可能是在创建数据库和表的时候没有设置字符集为UTF-8一.创建数据库CREATEDATABASEdb_nameDEFAULTCHARACTERSETutf8COLLATEutf8_general_ci;“db_name”为你要创建的表名。在这个库下创建的表默认就会是utf-8

2017-05-24 16:05:05

用scrapy写爬虫 显示 Filtered offsite request to 错误.

爬电源网公司信息,无法爬取。查看控制台发现报如下错误:DEBUG:Filteredoffsiterequestto‘product.dianyuan.com’:果断上网百度,找到答案。官方对这个的解释,是你要request的地址和allow_domain里面的冲突,从而被过滤掉。可以停用过滤功能。yieldRequest(url,callback=self.

2017-05-20 11:45:17

php爬虫模拟浏览器,ini_set()用法

用PHP写爬虫时,会遇到浏览器能打开URL,爬虫却返回不了数据。这时候就可能是该URL有手机端版本,而PHP默认是不带浏览器信息的,就可能返回的是手机端页面。可以在程序头部加入:ini_set(‘user_agent’,’Mozilla/4.0(compatible;MSIE8.0;WindowsNT5.1;Trident/4.0;4399Box.560;.NET4.0

2017-05-19 13:33:09

最简单方法将项目上传到github

准备材料:1.首先你需要一个github账号,所有还没有的话先去注册吧!https://github.com/2.我们使用git需要先安装git工具,这里给出下载地址,下载后一路直接安装即可:https://git-for-windows.github.io/一.进入Github首页,点击Newrepository新建一个项目二.填写相应信息后点击create即可Repo

2017-05-18 15:36:22

在虚拟机VirtualBox中centos6.5网络设置

一,虚拟机网络配置1.默认只是设置了网卡1:方式NAT(对应ifcfg-eth0)2.网卡2设置回环网卡,实现虚拟机与宿主机组成局域网(对应ifcfg-eth1),这样即使没有路由器也可以组成局域网,可以进行ssh连接。需要宿主机安装MicrosoftLoopbackAdapter。参靠底部附录。3.网卡3设置连接到互联网,并与宿主机组成局域网(对应ifcfg-eth2)

2017-05-16 14:29:41

用PHP爬取51job上苏州地区的PHP职位信息

用PHP爬取51job上苏州地区的PHP职位信息

2017-04-21 11:23:35

loguat

每天进步一点。
关注
  • 互联网·电子商务/web开发
  • 中国 江苏省 苏州市
奖章
  • 持之以恒