自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(322)
  • 资源 (20)
  • 收藏
  • 关注

转载 Solr - 主/从同步

Solr 1.4 以后,可以使用基于 http 的同步方式。之前基于 ssh/rsync 的同步方式已经停止维护。还有一种基于 SolrCloud 的方式:https://cwiki.apache.org/confluence/display/solr/SolrCloud 这里只介绍 ReplicationHandler 基于 http 的方式。 官方文档: http://wiki.apa

2016-06-28 19:59:08 956

转载 软负载与nginx强大功能

当我们打开手机访问点评客户端的时候,访问商户的请求是如何到达对应某台应用服务器的?当有很多XX宽带的用户投诉说我大点评某某域名无法打开但是我们却找不出任何问题的时候,我们就想到会不会是宽带运营商的问题。今天与大家分享的话题,主要是跟我们的软负载集群和Nginx这个强大的开源应用有关系。当我们准备上线一个新的业务,或者新的功能时候,除了把代码发布的线上生产环境的应用服务器外,

2016-03-29 17:28:56 805

原创 前端请求m3u8

@RequestMapping("/school.m3u8")//这里要写标准的m3u8格式,否则有些播放器会不支持播放    public void m3u8(            HttpServletRequest request, HttpServletResponse response,            final Model model) throw

2016-03-25 09:30:56 4296

转载 SOLR对多个(关联)表创建索引

一、无关联多表创建索引1.1数据库准备  首先在数据库创建一张表,本来有一个tuser表了,我又创建了一个role表,就两三个字段,没什么特殊的,然后在里面随便添加几条数据即可,看一下数据库:1.2data-config.xml  数据库创建完成之后就是修改data-config.xml文件了,因为数据库跟solr之间的关联主要就是建立在这个文件上面的,所以接下来就

2016-02-19 20:31:41 3652

转载 Solr Multivalue field的索引和搜索

Solr里头可以设计Field为Multivalue类型,这样的一个好处是可以很方便的设置copyField,在我们的项目中也有使用。但是一直以来都有一个问题困扰着我,就是对multivalue里头多个值域的搜索问题。多个value之间我认为应该是保持相互独立的,但是在实际搜索中感觉solr把所有的值域都串在一起,当作一个长value来处理,没有达到我想要的效果。后来通过搜索,我发现sol

2015-09-17 11:29:14 2769

转载 [ lucene扩展 ] spellChecker原理分析

spellChecker是用来对用户输入的“检索内容”进行校正,例如百度上搜索“麻辣将”,他的提示如下图所示: 我们首先借用lucene简单实现该功能。本文内容如下(简单实现、原理简介、现有问题)  lucene中spellchecker简述lucene 的扩展包中包含了spellchecker,利用它我们可以方便的实现拼写检查的功能,但

2015-09-17 11:04:14 1614

转载 Solr 使用自定义 Query Parser

版权信息: 可以任意转载, 转载时请务必以超链接形式标明文章原文出处, 即下面的声明.原文出处:http://blog.chenlb.com/2010/08/solr-use-custom-query-parser.html由于 Solr 默认的 Query Parser 生成的 Query 一般是 “短语查询”,导致只有很精确的结果才被搜索出来。大部分时候我们要分词后

2015-09-17 01:11:40 2516

转载 solr 使用自定义的 QueryParser

版权信息: 可以任意转载, 转载时请务必以超链接形式标明文章原文出处, 即下面的声明.原文出处:http://blog.chenlb.com/2009/02/use-custom-solr-queryparser.html如果想让 solr 有更加强大的功能或在查询时做一些特别的处理。可以在 solrconfig.xml 里注册自定义的 QueryParser(查询解析

2015-09-17 01:10:28 1680

原创 solr HMMChineseTokenizer 中文解词

solr自带的中文解词HMMChineseTokenizer的效果还不错,在schema.xml里面的配置如下                                                  words="/data/local/solr-5.2.1/server/solr/solr_analyzer_task/dic/stopwords.txt"/>

2015-09-16 17:04:41 3227

转载 Solr4.2.1 拼写检查组件

在做搜索时一般可以在用户输入检索条件时使用suggest,而在点击完搜索时,使用拼写检查,二者结合给可以用户带来比较好的用户体验! suggest与spellcheck看似功能一样,出发点是不一样的,使用条件也不一样,spellcheck是在没有搜索出结果时才有的功能,搜索词正确是没能spellcheck结果的,而suggest是任何情况下都有结果的。Solr4.0以后又新增了一个拼写

2015-09-10 21:24:15 542

转载 spring中集成作业调度

本文地址:http://blog.csdn.net/kongxx/article/details/6860732前面写了几个文章是关于spring中集成作业调度功能的东西,可以参考Spring任务调度实战之TimerSpring任务调度实战之Quartz Simple TriggerSpring任务调度实战之Quartz Cron Trigger

2015-08-18 19:11:46 618

转载 Solr配置停止词/排除词 stopwords(mmseg版)

停止词是无功能意义的词,比如is 、a 、are 、”的”,“得”,“我” 等,这些词会在句子中多次出现却无意义,所以在分词的时候需要把这些词过滤掉。测试于:Solr 4.5.1, mmseg4j 1.9.1, Jdk 1.6.0_45, Tomcat 6.0.37 | CentOS 5.7我这里拿名为test的core做例子。准备停止词在solr home下建dic目录,

2015-08-17 15:35:56 4095

转载 Solr查询时设置字段的boost值,改变默认打分排序

实现方法有3个:在建索引的时候设置boost,这个值会写入文件,建索引时有额外的性能开销;在查询的时候指定boost,这个值不会写入文件,查询时指定任意字段的boost值,适用与一个索引库的多种查询场景,但查询时有额外性能开销;(推想)前两者结合使用,如绝大多数都需要标题优先,那么建索引时可指定标题boost为2,其他场景可在查询时指定标题boost为0.5,中和建索引时的设置。这

2015-08-17 14:42:39 2837 1

转载 Solr的一些查询参数

fl: 是逗号分隔的列表,用来指定文档结果中应返回的 Field 集。默认为 “*”,指所有的字段。defType: 指定query parser,常用defType=lucene, defType=dismax, defType=edismaxq: query。q.alt: 当q字段为空时,用于设置缺省的query,通常设置q.alt为*:*。qf: query

2015-08-14 22:19:46 656

原创 solr增量更新的字段

在配置增量更新时MySQL表里要有一个字段,update_time能让solr找到那些行是新增的,在配置文件里的SQL要加上条件where update_time > '${dih.last_index_time}'"update_time字段要是date类型,但是我们在设计表的时间该字段是long的时间戳。所以当我在进行增量更新时,被更新的总是全量。所以要把long类型转换成date类型才能

2015-07-31 14:40:47 2851 1

转载 solr5解决时区差8小时的问题

在oschina上的第一篇文章,记录一个在工作中遇到的问题问题很简单,也算是开博了在solr5中解决时区的问题,更加简单了,直接修改配置文件bin/solr.in.sh即可。如下: #SOLR_TIMEZONE="UTC" 将此参数修改为如下: SOLR_TIMEZONE="UTC+8"

2015-07-31 10:22:20 6264 2

转载 solr配置自动增量更新

关于solr如何导入数据请参见:http://blog.csdn.net/xintongfei/article/details/19046575自动增量更新可定时将数据库中的数据导入到solr索引库中,并可定时重建索引库,合并小索引文件为大的索引文件。下面介绍如何配置solr自动更新。需要准备的jar包solr自带: apache-solr-data

2015-07-28 21:01:29 5680 3

转载 Schema.xml和solrconfig.xml属性分析

现在我们开始研究载入的数据部分(importing data) 在正式开始前,我们先介绍一个存储了大量音乐媒体的网站http://musicbrainz.org ,这里的数据都是免费的,一个大型开放社区提供。MusicBrainz每天都提供一个数据快照(snapshot)的SQL文件,这些数据可以被导入PostgreSQL数据库中。 一、字段配置(s

2015-07-24 11:04:41 629

转载 Solr查询语法总结-参数说明

1、常用查询参数说明      q - 查询字符串,必须的。      fl - 指定返回那些字段内容,用逗号或空格分隔多个。      start - 返回第一条记录在完整找到结果中的偏移位置,0开始,一般分页用。      rows - 指定返回结果最多有多少条记录,配合start来实现分页。      sort - 排序,格式:sort=+[,+]… 。示例:(inSto

2015-07-23 22:38:16 1686

转载 关于solr schema.xml 和solrconfig.xml的解释

一、字段配置(schema) schema.xml位于solr/conf/目录下,类似于数据表配置文件,定义了加入索引的数据的数据类型,主要包括type、fields和其他的一些缺省设置。 1、先来看下type节点,这里面定义FieldType子节点,包括name,class,positionIncrementGap等一些参数。name:就是这个Fi

2015-07-23 16:13:59 638

转载 SOLR---Field、CopyField、DynamicField

上面一节乱七八槽的讲了一下FieldType。  其实你可以想的简单一点,FieldType就好像是我们在Java中自定义类型。Field:   Field就是一个字段,定义一个Field很简单:[html] view plaincopyfield name="price" type="sfloat" indexe

2015-07-23 15:32:18 777

转载 linux shell 中"2>&1"含义

linux shell 中"2>&1"含义脚本是:      nohup /mnt/Nand3/H2000G  >/dev/null  2>&1  &       对于& 1 更准确的说应该是文件描述符 1,而1 一般代表的就是STDOUT_FILENO,实际上这个操作就是一个dup2(2)调用.他标准输出到all_result ,然后复制标准输出到文件描述符2(STDERR_FILE

2015-04-15 16:31:57 544

转载 如何使用Hadoop的Partitioner

Hadoop里面的MapReduce编程模型,非常灵活,大部分环节我们都可以重写它的API,来灵活定制我们自己的一些特殊需求。 今天散仙要说的这个分区函数Partitioner,也是一样如此,下面我们先来看下Partitioner的作用: 对map端输出的数据key作一个散列,使数据能够均匀分布在各个reduce上进行后续操作,避免产生热点区。 Hadoop默认使用的分区函数是Hash

2015-04-15 11:00:28 845

原创 spark on yarn日志切割

由于spark on yarn的日志会在stderr里面一直追加,而且streaming又是长应用,那么stderr会一直增长。解决办法就是把stderr按天切割,这样我们就可以删除之前的日志了。1. 首先,把集群中的hadoop的log4j文件/etc/hadoop/conf/log4j.properties添加如下两行:log4j.additivity.com.kingsoft = f

2015-03-26 12:01:17 1988

原创 hiveSQL记录

CREATE EXTERNAL TABLE ks3_nginx_pv(host_ip string,idc string,upstream_ip string,bucket_owner string,`bucket` string,time bigint,time_id int,remote_ip st

2015-03-25 19:55:28 1442

原创 start Java程序的脚本

#/bin/sh####################. /etc/profileSCRIPT_NAME=$0home=/data/apps/real_calculation_kssNodeNginx#define some variouslibdir=${home}/liblogdir=${home}/logname=KSSNodeRealTim

2015-03-24 15:13:18 789

转载 spark内核简介

1、Spark介绍Spark是起源于美国加州大学伯克利分校AMPLab的大数据计算平台,在2010年开源,目前是Apache软件基金会的顶级项目。随着Spark在大数据计算领域的暂露头角,越来越多的企业开始关注和使用。2014年11月,Spark在Daytona Gray Sort 100TB Benchmark竞赛中打破了由Hadoop MapReduce保持的排序记录。Spark利用1

2015-03-18 15:27:34 730

原创 CDH5.1.0编译spark-assembly包来支持hive

原生的spark assembly jar是不依赖hive的,如果要使用spark hql必须将hive相关的依赖包打到spark assembly jar中来。打包方法:假设已经装好了maven,1添加环境变量,如果jvm的这些配置太小的话,可能导致在编译过程中出现OOM,因此放大一些:export MAVEN_OPTS="-Xmx2g -XX:MaxPermSize=5

2015-03-16 15:47:07 3305 1

原创 Linux文件做软链

用flume做数据采集的时候会遇到一种情况,就是业务端打印日志的时候,日志的目录不统一,那么我们在配置flume的配置文件时,就要根据不同的机器做不同的配置,很麻烦。我们用软链可以解决这个问题。hour=`date +%Y-%m-%d.%H`file=kvdbnode_$hour.log.TRACEsudo ln -sf /data/apps/kvdb/log/kvdb/$file  

2015-03-16 14:44:04 823

转载 hadoop put内部调用,hdfs写文件流程

HDFS是一个分布式文件系统,在HDFS上写文件的过程与我们平时使用的单机文件系统非常不同,从宏观上来看,在HDFS文件系统上创建并写一个文件,流程如下图(来自《Hadoop:The Definitive Guide》一书)所示:具体过程描述如下:Client调用DistributedFileSystem对象的create方法,创建一个文件输出流(FSDataOutputStr

2015-03-10 15:58:50 4827

原创 sort awk comm命令

今天遇到一个问题,有两个文件,都是hive输出的,字段以table分开,需要两个文件里面的第10个字段,然后找出在第一个文件里的而不再第二个里面的内容。这个问题需要分几个步骤去做:1. 分别取出两个文件的第10个字段重定向到不同的文件中。cat aa.txt |awk '{print $10}' >aa1.txtcat bb.txt |awk '{print $10}'

2015-03-03 14:45:24 723

原创 mapreduce来清洗数据生成RCFile

-libjars=$HIVE_HOME/lib/hive-exec-0.12.0-cdh5.1.0.jar,$HIVE_HOME/lib/mapred.jar \-outputformat com.ksc.dc.maperd.Text2RCFOutputFormat \调用jar时传递上面的参数,结果就是RCFile

2015-02-12 19:34:35 1596 1

转载 jstat 详解

jstat       1. jstat -gc pid            可以显示gc的信息,查看gc的次数,及时间。            其中最后五项,分别是young gc的次数,young gc的时间,full gc的次数,full gc的时间,gc的总时间。      2.jstat -gccapacity pid           

2015-02-11 16:22:41 602

原创 批量添加hadoop节点,初始化hadoop机器

全部内容如下:authorized_keys -- CDH主节点的keyhosts -- 所有机器的hosts配置init_hadoop.sh -- 分发其他文件到各个节点init_hdp.sh -- 为hadoop用户生成keyinit_root.sh -- 初始化系统变量jdk-7u65-linux-x64.rpm -- Java环境send_hosts.sh -

2015-02-04 11:07:12 843

转载 大数据计算平台Spark内核全面解读

1、Spark介绍      Spark是起源于美国加州大学伯克利分校AMPLab的大数据计算平台,在2010年开源,目前是Apache软件基金会的顶级项目。随着 Spark在大数据计算领域的暂露头角,越来越多的企业开始关注和使用。2014年11月,Spark在Daytona Gray Sort 100TB Benchmark竞赛中打破了由Hadoop MapReduce保持的排序记录。S

2015-02-03 11:57:03 1167

转载 Spark Streaming实例分析

转载地址:http://www.aboutyun.com/thread-8901-1-1.html这一章要讲Spark Streaming,讲之前首先回顾下它的用法,具体用法请参照《Spark Streaming编程讲解 》。Example代码分析val ssc = new StreamingContext(sparkConf, Seconds(1));

2015-02-02 21:00:03 5964

转载 spark问题记录

问题导读1、当前集群的可用资源不能满足应用程序的需求,怎么解决?2、内存里堆的东西太多了,有什么好办法吗?1、WARN TaskSchedulerImpl: Initial job has not accepted any resources; check your cluster uito ensure that workers are registered

2015-02-01 12:50:54 745

原创 查看yarn的container的资源占用情况

yarn上运行程序是由container来执行的,那么当我们想要知道每台节点对应的container的使用情况时,需要从何入手呢?开始我以为yarn的系统命令会有相应的提示,于是yarn --help,没有我想要的信息。那么从另一方面入手吧:Linux系统。1. 首先top观察一下哪个线程比较像我们要找的那个线程,锁定线程ID2. cd /proc/3. ls   --里面全都是正

2015-01-27 11:46:08 13398

原创 spark-streaming对系统时间的要求

Linux的系统时间可以很容易的被修改:date -s *******那么就需要保证所有机器的时间一致性。我们的线上机器是所有机器与一台校准器保持一致:/usr/sbin/ntpdate 10.0.1.128那么应用服务器的机器都是校准过的,但是我们的hadoop集群时间比较参差不齐,原因是因为CDH管理集群时需要把集群的ntpd服务全部打开,CDH自己内部有时间校准规则,但是nt

2015-01-26 12:08:26 1265

原创 spark-streaming:Could not compute split, block not found

14/10/07 18:10:27 WARN scheduler.TaskSetManager: Lost task 45.0 in stage 12.0 (TID 129, domU-12-31-39-04-60-07.compute-1.internal): java.lang.Exception: Could not compute split, block input-0-141270

2015-01-26 11:54:17 7980 2

mmseg4j完美适配solr5.2.1

之前在网上下载的mmseg4j都不能适配最新的solr5.2.1,后来找到了最新版的jar包完美解决

2015-08-15

mapreduce生成RCFile的jar包

mapreduce生成RCFile的jar包

2015-02-12

metaQ向spark传数据

metaQ向spark传数据

2014-09-25

metaQ的安装包

metaQ的安装包

2014-09-25

flume安装包

flume的安装包,包括agent和server

2014-09-25

hadoop安装笔记

hadoop安装笔记

2014-07-23

Myeclipse好用的几款插件

ExploreFS,net.sf.fjep.fatjar_0.0.31,org.adarsh.jutils_3.1.0,propedit_5.3.4

2013-11-29

图表插件,基于flash

图表工具,无语言相关,方便使用,有饼状图,柱状图,线图等,效果很炫

2013-01-07

jquery tree

jquery的树形结构,级联下拉菜单,带复选框勾选

2013-01-07

Memcached原理详解

Memcached原理详解

2012-08-16

php服务器安装程序

超级简单的php服务器安装程序,包括mysql的安装和数据库管理页面程序

2012-08-15

图片流,页面置顶

图片墙异步加载,页面置顶并且动态滑动图片墙异步加载,页面置顶并且动态滑动

2012-08-15

artDialog页面弹出框

artDialog的特殊UI框架能够适应内容变化,甚至连外部程序动态插入的内容它仍然能自适应,因此你不必去考虑消息内容尺寸使用它。它的消息容器甚至能够根据宽度让文本居中或居左对齐——这一切全是XHTML+CSS原生实现。

2012-08-15

瀑布图片墙

瀑布图片墙,类似嘀咕的效果,可以实现异步加载

2012-08-13

myeclipse中svn插件

在myeclipse中添加svn插件,就可以右键importSVN中的程序

2012-08-09

Google Maps Javascript API V3开发包

Google Maps Javascript API V3 Reference 适用于页面调用谷歌地图,弹出窗口等功能

2012-08-03

瀑布图片墙.zip

照片墙的加载,瀑布式加载图片.就像嘀咕网一样的效果

2012-08-01

Jquery点击小图片动态显示大图

点击小图片可以动态显示大图片,当点击大图片时它会自动消失

2012-07-18

C语言+Socket实现文件传输

实现文件传输功能~使用与初学者对socket的了解和深一步的研究!希望能给大家带来帮助

2010-10-05

计算器效果很不错JAVA源程序

很不错的!界面效果也很好~算法精确到小数点后10位!欢迎大家下载

2010-06-28

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除