13 陈兴振

尚未进行身份认证

我要认证

后台开发,hadoop/spark/c++

等级
TA的排名 1w+

配置Docker容器ssh服务端实现远程ssh登录

1. ubuntu系统#安装ssh server和 clientRUN DEBIAN_FRONTEND=noninteractive apt-get install -y openssh-server openssh-client#此步骤主要目的是修改sshd_config配置文件,把配置文件中的”PermitRootLogin without-password”加一个”#”号...

2020-02-19 20:39:11

Java byte[]与short[]之间转换

直接上代码:import java.nio.ByteBuffer;import java.nio.ByteOrder;import java.util.Arrays;import org.apache.log4j.Logger;public class CommonUtil { private static Logger logger = Logger.getLogger(Co...

2018-07-26 09:46:55

html页面跳转及参数传递

1. 第一个html页面代码 // table点击事件 $('#table').on('click-row.bs.table', function (e, row, $element, field) { if(field == "scene_name" || field == "scene"){ var index = $('#table').bootstrapTable('get

2017-08-26 15:08:06

GET请求jsonp示例

众所周知GET请求可以用jsonp的方式解决跨域问题,下面会给出一个jsonp请求的示例。1.后台接口 @Path("getscene") @MClientHandler public ContentResult getSceneTable() { HttpServletRequest request = beat.getRequest(); HttpServletRespon

2017-08-26 14:49:51

bootstrap table通过ajax获取后台数据展示在table

1.背景bootstraptable默认向后台发送语法的dataType为json,但是为了解决跨域问题我们需要将dataType改为jsonp,这时就需要修改bootstraptable获取后台数据的方式,采用$('#table').bootstrapTable('load',data);方法。修改前和修改后代码分别如下所示。2.修改前代码 <tableid="t

2017-08-26 14:38:18

射线法判断地图上点是否在多边形内

1. 射线法介绍在地图应用上,我们会经常需要判断一个点是否位于多边形区域内,这里介绍下采用射线法如何实现。算法思想:从待判断的点向某一个方向引射线,计算和多边形交点的个数,如果个数是偶数或者0,则点在多边形外,如果是奇数,则在多边形内,如下图:这里有两种情况需要特殊处理:1) 射线经过顶点:当射线经过顶点时,判断就会出现异常情况。2) 点在边上:这种

2016-03-31 12:16:35

vs 2008下配置openCV

1.去官网下载openCV:  http://opencv.org/  ,选择自己需要的版本。  因为我的项目里面用到的是2.3.1,所以选择下载2.3.1版本的。#pragma comment( lib, "opencv_core231d.lib" )#pragma comment( lib, "opencv_imgproc231d.lib" )2. 将下载的压缩包解压到自己的目

2014-12-06 11:59:15

SHELL模拟多线程脚本

其实这个脚本并没有实现多线程,shell也根本不可能实现多线程。此脚本的作用无非是限制几乎同时放入后台执行的进程数量而已,从而达到在提高脚本执行效率的同时又不明显增加负载的作用。原始脚本如下:#!/bin/bashSEND_THREAD_NUM=13tmp_fifofile="/tmp/$$.fifo"mkfifo "$tmp_fifofile"ex

2014-07-28 12:19:03

在eclipse中部署spark源代码

参考:1.http://cn.soulmachine.me/blog/20130611/2.

2014-05-15 17:12:55

vim中安装scala插件

通过Vundle工具来安装,首先得安装Vundle一、 Vundle安装1.  Set up Vundle2.  Configure Plugins

2014-05-15 10:15:37

Hive内置数据类型

Hive的内置数据类型可以分为两大类:(1)、基础数据类型;(2)、复杂数据类型。其中,基础数据类型包括:TINYINT,SMALLINT,INT,BIGINT,BOOLEAN,FLOAT,DOUBLE,STRING,BINARY,TIMESTAMP,DECIMAL,CHAR,VARCHAR,DATE。下面的表格列出这些基础类型所占的字节以及从什么版本开始支持这些类型。数据类型

2014-03-10 09:44:25

sqoop的使用

sqoop作用: 用于将hdfs上的数据导到关系数据库中,或将关系数据库中的数据导入到hdfs上,本文以mysql为例一、安装从官网上下载http://mirrors.hust.edu.cn/apache/sqoop/1.4.4/, 我安装的hadoop版本为1.0.2所以下载的sqoop为:sqoop-1.4.4.bin__hadoop-1.0.0.tar.gz将sqoop-1.4.

2014-01-16 15:14:22

使用XManager连接CentOS .

第一步:用XShell连接CentOS,进行配置:1.打开 /etc/inittab文件,将 runlevel 变为5 即id:5:initdefault: 如果原来就是5则不用修改。2.编辑/etc/gdm/custom.conf,内容如下:[security]AllowRemoteRoot=true[xdmcp]Port=177Enable=true然后重启桌面

2013-11-07 15:26:10

Java小记

1. instanceof 关键字instanceof是Java的一个二元操作符,和==,>,举个例子:      比如我们写了一个处理账单的系统,其中有这样三个类:  public class Bill {//省略细节}  public class PhoneBill extends Bill {//省略细节}  public class GasBill extends

2013-11-06 16:30:46

Cassandra Query Language (CQL) v2.0

http://cassandra.apache.org/doc/cql/CQL.html

2013-10-18 14:45:05

cassandra调优

1.配置脚本文件cassandra-env.shMAX_HEAP_SIZE  #java 堆总大小,cassandra是运行在java环境下的,java heap size 是cassandra运行起来后内存的总大小HEAP_NEWSIZE #heap size 初始化值java gc 配置: JVM_OPTS="$JVM_OPTS -XX:CMSInitiatingOccupan

2013-09-21 12:56:18

spark参数配置调优

SPARK配置参数的两个地方:1. $SPARK_HOME/conf/spark-env.sh  脚本上配置。 配置格式如下:export SPARK_DAEMON_MEMORY=1024m2. 编程的方式(程序中在创建SparkContext之前,使用System.setProperty(“xx”,“xxx”)语句设置相应系统属性值),即在spark-shell下配置如:scal

2013-09-19 22:52:07

Java 命令行模式下编译 MapReduce 程序

不使用 eclipse 这些工具,直接使用 java 命令在命令行下编译 mapreduce 程序。首先需要设置CLASSPATH环境变量:将/root/hadoop/hadoop-0.20.1/hadoop-0.20.1/hadoop-0.20.1-core.jar和lib下的commons-cli-1.2.jar添加进入环境变量,export CLA

2013-09-12 21:55:50

hadoop hdfs文件系统常用命令

hadoop常用命令: hadoop fs 查看Hadoop HDFS支持的所有命令  hadoop fs –ls 列出目录及文件信息  hadoop fs –lsr 循环列出目录、子目录及文件信息  hadoop fs –put test.txt /user/sunlightcs 将本地文件系统的test.t

2013-09-11 14:50:28

spark从hdfs上读取文件运行wordcount

1.配置环境说明hadoop配置节点:sg202(namenode SecondaryNameNode)  sg206(datanode) sg207(datanode) sg208(datanode)spark配置节点:sg201(Master)  sg211(Worker)2.从hdfs上读取文件并运行wordcounta. 登录hadoop的主节点sg202 将要进行word

2013-09-11 14:31:33

查看更多

勋章 我的勋章
  • 勤写标兵Lv1
    勤写标兵Lv1
    授予每个自然周发布1篇到3篇原创IT博文的用户。本勋章将于次周周三上午根据用户上周的博文发布情况由系统自动颁发。