自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+

涛声依旧, 万古流名

书山有路勤为径,学海无涯苦作舟------学无止境

  • 博客(55)
  • 资源 (16)
  • 收藏
  • 关注

转载 【Scikit-Learn 中文文档】处理文本数据 - scikit-learn 教程 | ApacheCN

本指南旨在一个单独实际任务中探索一些主要的 scikit-learn 工具: 分析关于20 个不同主题的一个文件汇编(新闻组帖子).在本节中,我们将会学习如何:读取文件内容以及所属的类别提取合适于机器学习的特征向量训练一个线性模型来进行分类使用网格搜索策略来找到特征提取组件以及分类器的最佳配置

2017-12-08 16:11:44 519

转载 【Scikit-Learn 中文文档】随机投影 - 数据集转换 - 用户指南 | ApacheCN

http://blog.csdn.net/u012185296/article/details/78663914

2017-12-08 09:08:24 271

转载 【Scikit-Learn 中文文档】无监督降维 - 数据集转换 - 用户指南 | ApacheCN

如果你的特征数量很多, 在监督步骤之前, 可以通过无监督的步骤来减少特征. 很多的 无监督学习 方法实现了一个名为 transform 的方法, 它可以用来降低维度.

2017-12-08 09:08:06 232

转载 【Scikit-Learn 中文文档】预处理数据 - 数据集转换 - 用户指南 | ApacheCN

sklearn.preprocessing 包提供了几个常见的实用功能和变换器类型,用来将原始特征向量更改为更适合机器学习模型的形式。一般来说,机器学习算法受益于数据集的标准化。如果数据集中存在一些离群值,那么稳定的缩放或转换更合适。不同缩放、转换以及归一在一个包含边缘离群值的数据集中的表现在 Compare the effect of different scalers on data with outliers 中有着重说明。

2017-12-08 09:08:02 227

转载 【Scikit-Learn 中文文档】Pipeline(管道)和 FeatureUnion(特征联合): 合并的评估器 - 数据集转换 - 用户指南 | ApacheCN

Pipeline 可以把多个评估器链接成一个。这个是很有用的,因为处理数据的步骤一般都是固定的,例如特征选择、标准化和分类。Pipeline 主要有两个目的:便捷性和封装性你只要对数据调用 ``fit``和 ``predict``一次来适配所有的一系列评估器。联合的参数选择你可以一次 :ref:`grid search <grid_search>`管道中所有评估器的参数。安全性训练转换器和预测器使用的是相同样本,管道有助于防止来自测试数据的统计数据泄露到交叉验证的训练模型中。管道中的所有评估

2017-12-08 09:07:58 240

转载 【Scikit-Learn 中文文档】预测目标 (y) 的转换 - 数据集转换 - 用户指南 | ApacheCN

标签二值化

2017-12-08 09:07:32 215

转载 【Scikit-Learn 中文文档】成对的矩阵, 类别和核函数 - 数据集转换 - 用户指南 | ApacheCN

The sklearn.metrics.pairwise 子模块实现了用于评估成对距离或样本集合之间的联系的实用程序。本模块同时包含距离度量和核函数,对于这两者这里提供一个简短的总结。距离度量是形如 d(a, b) 例如 d(a, b) < d(a, c) 如果对象 a 和 b 被认为 “更加相似” 相比于 a 和 c. 两个完全相同的目标的距离是零。最广泛使用的例子就是欧几里得距离。 为了保证是 ‘真实的’ 度量, 其必须满足以下条件:对于所有的 a 和 b,d(a, b) >= 0正定性:当且仅

2017-12-08 09:07:27 210

转载 【Scikit-Learn 中文文档】内核近似 - 数据集转换 - 用户指南 | ApacheCN

这个子模块包含与某些 kernel 对应的特征映射的函数,这个会用于例如支持向量机的算法当中(see 支持向量机)。 下面这些特征函数对输入执行非线性转换,可以用于线性分类或者其他算法。与 kernel trick 相比,近似的进行特征映射更适合在线学习,并能够有效 减少学习大量数据的开销。标准化使用内核的 svm 不能有效的适用到海量数据,但是使用近似内核映射的方法,对于线性 SVM 来说效果可能更好。 而且,使用 SGDClassifier 进行近似的内核映射,使得对海量数据进行非线性学习也成为了可能

2017-12-08 09:07:24 275

转载 Scikit-Learn 中文文档】数据集加载工具 - 用户指南 | ApacheCN

该 sklearn.datasets 包装在 Getting Started 部分中嵌入了介绍一些小型玩具的数据集。为了在控制数据的统计特性(通常是特征的 correlation (相关性)和 informativeness (信息性))的同时评估数据集 (n_samples 和 n_features) 的规模的影响,也可以生成综合数据。这个软件包还具有帮助用户获取更大的数据集的功能,这些数据集通常由机器学习社区使用,用于对来自 ‘real world’ 的数据进行检测算法。

2017-12-08 09:06:55 438

转载 【Scikit-Learn 中文文档】特征提取 - 数据集转换 - 用户指南 | ApacheCN

模块 sklearn.feature_extraction 可用于提取符合机器学习算法支持的特征,比如文本和图片。Note 特征特征提取与 特征选择 有很大的不同:前者包括将任意数据(如文本或图像)转换为可用于机器学习的数值特征。后者是将这些特征应用到机器学习中。4.2.1. 从字典类型加载特征官方文档: http://scikit-learn.org/stable/

2017-12-08 09:06:12 401

转载 【Scikit-Learn 中文文档】模型持久化 - 模型选择和评估 - 用户指南 | ApacheCN

模型持久化

2017-12-07 17:03:06 140

转载 【Scikit-Learn 中文文档】寻求帮助 - 关于科学数据处理的统计学习教程 - scikit-learn 教程 | ApacheCN

中文文档: http://sklearn.apachecn.org/cn/stable/tutorial/statistical_inference/finding_help.html英文文档: http://sklearn.apachecn.org/en/stable/tutorial/statistical_inference/finding_help.html

2017-12-07 16:59:48 182

转载 【Scikit-Learn 中文文档】把它们放在一起 - 关于科学数据处理的统计学习教程 - scikit-learn 教程 | ApacheCN

模型管道化

2017-12-07 16:58:47 280

转载 【Scikit-Learn 中文文档】无监督学习: 寻求数据表示 - 关于科学数据处理的统计学习教程 - scikit-learn 教程 | ApacheCN

聚类: 对样本数据进行分组

2017-12-07 16:56:53 215

转载 【Scikit-Learn 中文文档】模型选择:选择估计量及其参数 - 关于科学数据处理的统计学习教程 - scikit-learn 教程 | ApacheCN

模型选择:选择估计量及其参数

2017-12-07 16:55:44 210

转载 【Scikit-Learn 中文文档】监督学习:从高维观察预测输出变量 - 关于科学数据处理的统计学习教程 - scikit-learn 教程 | ApacheCN

监督学习解决的问题监督学习 在于学习两个数据集的联系:观察数据 X 和我们正在尝试预测的额外变量 y (通常称“目标”或“标签”), 而且通常是长度为 n_samples 的一维数组。scikit-learn 中所有监督的 估计量 <https://en.wikipedia.org/wiki/Estimator> 都有一个用来拟合模型的 fit(X, y) 方法,和根据给定的没有标签观察值 X 返回预测的带标签的 y 的 predict(X) 方法。

2017-12-07 16:51:05 206

转载 【Scikit-Learn 中文文档】机器学习: scikit-learn 中的设置以及预估对象 - 关于科学数据处理的统计学习教程 - scikit-learn 教程 | ApacheCN

cikit-learn可以从一个或者多个数据集中学习信息,这些数据集合可表示为2维阵列,也可认为是一个列表。列表的第一个维度代表 样本 ,第二个维度代表 特征 (每一行代表一个样本,每一列代表一种特征)。

2017-12-07 16:48:57 175

转载 【Scikit-Learn 中文文档】使用 scikit-learn 介绍机器学习 - scikit-learn 教程 | ApacheCN

一般来说,一个学习问题通常会考虑一系列 n 个 样本 数据,然后尝试预测未知数据的属性。 如果每个样本是 多个属性的数据 (比如说是一个多维记录),就说它有许多“属性”,或称 features(特征) 。我们可以将学习问题分为几大类:监督学习 , 其中数据带有一个附加属性,即我们想要预测的结果值( 点击此处 转到 scikit-learn 监督学习页面)。这个问题可以是:分类 : 样本属于两个或更多个类,我们想从已经标记的数据中学习如何预测未标记数据的类别。 分类问题的一个例子是手写数字识别,其目的是

2017-12-07 16:47:30 248

转载 【Scikit-Learn 中文文档】预测延迟 / 预测吞吐量 / 技巧和窍门 - 计算性能 - 用户指南 | ApacheCN

对于某些 applications (应用),estimators(估计器)的性能(主要是 prediction time (预测时间)的 latency (延迟)和 throughput (吞吐量))至关重要。考虑 training throughput (训练吞吐量)也可能是有意义的,但是在 production setup (生产设置)(通常在脱机中运行)通常是不太重要的。我们将在这里审查您可以从不同上下文中的一些 scikit-learn estimators(估计器)预期的数量级,并提供一些 o

2017-12-07 16:46:23 213

转载 【Scikit-Learn 中文文档】大规模计算的策略: 更大量的数据 - 用户指南 | ApacheCN

外核(或者称作 “外部存储器”)学习是一种用于学习那些无法装进计算机主存储(RAM)的数据的技术。这里描述了一种为了实现这一目的而设计的系统:一种用流来传输实例的方式一种从实例中提取特征的方法增量式算法

2017-12-07 16:44:47 156

转载 【Scikit-Learn 中文文档】模型评估: 量化预测的质量 - 模型选择和评估 - 用户指南 | ApacheCN

Model selection (模型选择)和 evaluation (评估)使用工具,例如 model_selection.GridSearchCV 和 model_selection.cross_val_score ,采用 scoring 参数来控制它们对 estimators evaluated (评估的估计量)应用的指标。

2017-11-30 16:30:03 600

转载 【Scikit-Learn 中文文档】优化估计器的超参数 - 模型选择和评估 - 用户指南 | ApacheCN

超参数,即不直接在估计器内学习的参数。在 scikit-learn 包中,它们作为估计器类中构造函数的参数进行传递。典型的例子有:用于支持向量分类器的 C 、kernel 和 gamma ,用于Lasso的 alpha 等。搜索超参数空间以便获得最好 交叉验证 分数的方法是可能的而且是值得提倡的。

2017-11-30 16:28:28 250

转载 【Scikit-Learn 中文文档】交叉验证 - 模型选择和评估 - 用户指南 | ApacheCN

学习一个预测函数的参数,并在相同数据集上进行测试是一种错误的做法: 一个仅给出测试用例标签的模型将会获得极高的分数,但对于尚未出现过的数据 它则无法预测出任何有用的信息。 这种情况称为“过拟合”(overfitting). 为了避免这种情况,在进行(监督)机器学习实验时,通常取出部分可利用数据作为实验测试集(test set): X_test, y_test。需要强调的是这里说的“实验(experiment)”并不仅限于学术(academic),因为即使是在商业场景下机器学习也往往是从实验开始的。

2017-11-30 16:25:54 233

转载 【Scikit-Learn 中文文档】神经网络模型(无监督)- 无监督学习 - 用户指南 | ApacheCN

Restricted Boltzmann machines (RBM)(限制玻尔兹曼机)是基于概率模型的无监督非线性特征学习器。当用 RBM 或 RBMs 中的层次结构提取的特征在馈入线性分类器(如线性支持向量机或感知机)时通常会获得良好的结果。该模型对输入的分布作出假设。目前,scikit-learn 只提供了 BernoulliRBM,它假定输入是二值的,或者是 0 到 1 之间的值,每个值都编码特定特征被激活的概率。RBM 尝试使用特定图形模型最大化数据的可能性。所使用的参数学习算法( Stoch

2017-11-30 16:24:27 226

转载 【Scikit-Learn 中文文档】密度估计 - 无监督学习 - 用户指南 | ApacheCN

密度估计在无监督学习,特征工程和数据建模之间划分了界线。一些最流行和最有用的密度估计方法是混合模型,如高斯混合( sklearn.mixture.GaussianMixture ), 和基于邻近的方法( sklearn.neighbors.KernelDensity ),如核密度估计。 clustering 一节中更充分地讨论了高斯混合,因为此方法也用作为一种无监督聚类方案。

2017-11-30 16:23:00 227

转载 【Scikit-Learn 中文文档】流形学习 - 监督学习 - 用户指南 | ApacheCN

高维数据集可能非常难以可视化。 虽然可以绘制两维或三维数据来显示数据的固有结构,但等效的高维图不太直观。 为了帮助可视化数据集的结构,必须以某种方式减小维度。通过对数据的随机投影来实现降维的最简单方法。 虽然这允许数据结构的一定程度的可视化,但是选择的随机性远远不够。 在随机投影中,数据中更有趣的结构很可能会丢失。

2017-11-27 14:50:06 682

转载 【Scikit-Learn 中文文档】高斯混合模型 - 无监督学习 - 用户指南 | ApacheCN

sklearn.mixture 是一个应用高斯混合模型进行非监督学习的包,支持 diagonal,spherical,tied,full四种协方差矩阵 (注:diagonal指每个分量分布有各自不同对角协方差矩阵,spherical指每个分量分布有各自不同的简单协方差矩阵, tied指所有分量分布有相同的标准协方差矩阵,full指每个分量分布有各自不同的标准协方差矩阵) ,它对数据进行抽样,并且根据数据估计模型。同时包也提供了相关支持,来帮助用户决定合适的分量分布个数。

2017-11-27 14:49:09 382

转载 【Scikit-Learn 中文文档】神经网络模块(监督的)- 监督学习 - 用户指南 | ApacheCN

**多层感知器(MLP)**是一种监督学习算法,通过在数据集上训练来学习函数 f(\cdot): R^m \rightarrow R^o,其中 m 是输入的维数,o 是输出的维数。 给定一组特征 X = {x_1, x_2, ..., x_m} 和标签 y ,它可以学习用于分类或回归的非线性函数。 与逻辑回归不同的是,在输入层和输出层之间,可以有一个或多个非线性层,称为隐藏层。 图1 展示了一个具有标量输出的单隐藏层 MLP。

2017-11-27 14:48:04 361

转载 【Scikit-Learn 中文文档】概率校准 - 监督学习 - 用户指南 | ApacheCN

执行分类时, 您经常希望不仅可以预测类标签, 还要获得相应标签的概率. 这个概率给你一些预测的信心. 一些模型可以给你贫乏的概率估计, 有些甚至不支持概率预测. 校准模块可以让您更好地校准给定模型的概率, 或添加对概率预测的支持.精确校准的分类器是概率分类器, 其可以将 predict_proba 方法的输出直接解释为 confidence level(置信度级别). 例如,一个经过良好校准的(二元的)分类器应该对样本进行分类, 使得在给出一个接近 0.8 的 prediction_proba 值的样本中

2017-11-27 14:46:07 210

转载 【Scikit-Learn 中文文档】半监督学习 - 监督学习 - 用户指南 | ApacheCN

半监督学习 适用于在训练数据上的一些样本数据没有贴上标签的情况。 sklearn.semi_supervised 中的半监督估计, 能够利用这些附加的未标记数据来更好地捕获底层数据分布的形状,并将其更好地类推到新的样本。 当我们有非常少量的已标签化的点和大量的未标签化的点时,这些算法表现均良好。

2017-11-27 14:44:53 617

转载 【Scikit-Learn 中文文档】特征选择 - 监督学习 - 用户指南 | ApacheCN

在 sklearn.feature_selection 模块中的类可以用来对样本集进行特征选择(feature selection)和降维(dimensionality reduction ),这将会提高估计器的准确度或者增加他们在高维数据集上的性能。

2017-11-23 17:10:10 1250

转载 【Scikit-Learn 中文文档】多类和多标签算法 - 监督学习 - 用户指南 | ApacheCN

sklearn.multiclass 模块采用了 元评估器 ,通过把``多类`` 和 多标签 分类问题分解为 二元分类问题去解决。这同样适用于多目标回归问题。Multiclass classification 多类分类 意味着一个分类任务需要对多于两个类的数据进行分类。比如,对一系列的橘子,苹果或者梨的图片进行分类。多类分类假设每一个样本有且仅有一个标签:一个水果可以被归类为苹果,也可以 是梨,但不能同时被归类为两类。Multilabel classification 多标签分类 给每一个样本分配一系

2017-11-23 17:09:04 741

转载 【Scikit-Learn 中文文档】集成方法 - 监督学习 - 用户指南 | ApacheCN

集成方法 的目标是把使用给定学习算法构建的多个基估计器的预测结果结合起来,从而获得比单个估计器更好的泛化能力/鲁棒性。集成方法通常分为两种:平均方法,该方法的原理是构建多个独立的估计器,然后取它们的预测结果的平均。一般来说组合之后的估计器是会比单个估计器要好的,因为它的方差减小了。示例: Bagging 方法, 随机森林, …相比之下,在 boosting 方法 中,基估计器是依次构建的,并且每一个基估计器都尝试去减少组合估计器的偏差。这种方法主要目的是为了结合多个弱模型,使集成的模型更加强大。示

2017-11-23 17:07:55 313

转载 【Scikit-Learn 中文文档】决策树 - 监督学习 - 用户指南 | ApacheCN

Decision Trees (DTs) 是一种用来 classification 和 regression 的无参监督学习方法。其目的是创建一种模型从数据特征中学习简单的决策规则来预测一个目标变量的值。

2017-11-23 17:06:49 257

转载 【Scikit-Learn 中文文档】朴素贝叶斯 - 监督学习 - 用户指南 | ApacheCN

朴素贝叶斯方法是基于贝叶斯定理的一组有监督学习算法,即“简单”地假设每对特征之间相互独立。 给定一个类别 y 和一个从 x_1 到 x_n 的相关的特征向量, 贝叶斯定理阐述了以下关系:

2017-11-23 17:05:52 206

转载 【Scikit-Learn 中文文档】交叉分解 - 监督学习 - 用户指南 | ApacheCN

交叉分解模块主要包含两个算法族: 偏最小二乘法(PLS)和典型相关分析(CCA)。这些算法族具有发现两个多元数据集之间的线性关系的用途: fit method (拟合方法)的参数 X 和 Y 都是 2 维数组。

2017-11-22 16:33:03 275

转载 【Scikit-Learn 中文文档】高斯过程 - 监督学习 - 用户指南 | ApacheCN

高斯过程 (GP) 是一种常用的监督学习方法,旨在解决*回归问题*和*概率分类问题*。高斯过程模型的优点如下:预测内插了观察结果(至少对于正则核)。预测结果是概率形式的(高斯形式的)。这样的话,人们可以计算得到经验置信区间并且据此来判断是否需要修改(在线拟合,自适应)在一些区域的预测值。通用性: 可以指定不同的:ref:内核(kernels)<gp_kernels>。虽然该函数提供了常用的内核,但是也可以指定自定义内核。高斯过程模型的缺点包括:它们不稀疏,例如,模型通常使用整个样本/特征信

2017-11-22 16:31:52 366

转载 【Scikit-Learn 中文文档】最近邻 - 监督学习 - 用户指南 | ApacheCN

sklearn.neighbors 提供了 neighbors-based (基于邻居的) 无监督学习以及监督学习方法的功能。 无监督的最近邻是许多其它学习方法的基础,尤其是 manifold learning (流行学习) 和 spectral clustering (谱聚类)。 受监督的 neighbors-based (基于邻居的) 学习分为两种: classification (分类)针对的是具有离散标签的数据,regression (回归)针对的是具有连续标签的数据。最近邻方法的原理是从训练样本

2017-11-22 16:29:32 268

转载 【Scikit-Learn 中文文档】随机梯度下降 - 监督学习 - 用户指南 | ApacheCN

随机梯度下降(SGD) 是一种简单但又非常有效的方法,主要用于凸损失函数下对线性分类器的学习,例如(线性) 支持向量机 和 Logistic 回归 。 尽管 SGD 在机器学习社区已经存在了很长时间, 但是最近在 large-scale learning (大规模学习)方面 SGD 获得了相当大的关注。SGD 已成功应用于文本分类和自然语言处理中经常遇到的大规模和稀疏的机器学习问题。考虑到数据是稀疏的,本模块的分类器可以轻易的处理超过 10^5 的训练样本和超过10^5的特征。Stochastic Gr

2017-11-22 16:28:16 229

转载 【Scikit-Learn 中文文档】支持向量机 - 监督学习 - 用户指南 | ApacheCN

支持向量机 (SVMs) 可用于以下监督学习算法 分类, 回归 and 异常检测.支持向量机的优势在于:在高维空间中非常高效.即使在数据维度比样本数量大的情况下仍然有效.在决策函数(称为支持向量)中使用训练集的子集,因此它也是高效利用内存的.通用性: 不同的核函数 核函数 与特定的决策函数一一对应.常见的 kernel 已经提供,也可以指定定制的内核.支持向量机的缺点包括:如果特征数量比样本数量大得多,在选择核函数 核函数 时要避免过拟合,而且正则化项是非常重要的.支持向量机不直接提供概

2017-11-22 16:27:19 222

离线安装nginx-1.12.1文档以及依赖包

zip文件中包含了, 离线安装nginx-1.12.1所需要的所有包; 以及ginx的安装文档, 并且带有安装截图, 应该比较详细了~

2017-12-27

文本挖掘技术05-聚类

文本挖掘是抽取有效、新颖、有用、可理解的、散布在文本文件中的有价值知识,并且利用这些知识更好地组织信息的过程。1998年底,国家重点研究发展规划首批实施项目中明确指出,文本挖掘是“图像、语言、自然语言理解与知识挖掘”中的重要内容。

2017-12-08

文本挖掘技术01

文本挖掘是抽取有效、新颖、有用、可理解的、散布在文本文件中的有价值知识,并且利用这些知识更好地组织信息的过程。1998年底,国家重点研究发展规划首批实施项目中明确指出,文本挖掘是“图像、语言、自然语言理解与知识挖掘”中的重要内容。

2017-12-08

零基础学习openstack(完整篇)【中级篇】

openstack是什么?能干什么?涉及的初衷是什么?由什么来组成?刚接触openstack,说openstack不是一个软件,而是由多个组件进行组合,这是一个更深层次的理解,当我们看到dashboard的时候,我们或许对openstack感觉有一点感性认识了。dashboard可以理解为openstack与用户交流的一个窗口,而dashboard对于真正的使用者来讲,它的功能上面有一定的局限性。而对于初学者通过它,可能会对openstack有一定的了解。openstack能干什么,可以搭建公有云,私有云,企业云。

2017-12-08

ZeroC Ice权威指南

《ZeroC Ice权威指南》是业界第一本关于Ice这个知名开源分布式RPC中间件的纸质书籍,全书内容涵盖了分布式系统架构概述、RPC原理、Ice基础源码研读、高级进阶、多语言调用、性能调优、SSL安全调用、IceGrid运维与开发、分布式部署、移动应用开发实战等精彩内容。《ZeroC Ice权威指南》从浅到深、从原理到背后地进行源码分析,从讲解Demo到解决实际项目开发中的具体技术问题,带领读者一路探究Ice那些不为人知的奥秘,扫清Ice用于企业系统开发的技术困难;并带领读者从零开始开发一个在线订票系统的Android应用,可直接调用后端运行于IceGrid上的订票服务,订票服务则采用常规的Spring+Hibernate+Ice架构实现具体的业务逻辑,从而让读者体验基于Ice的移动应用的全栈开发过程;最后,关于互联网架构师深造的内容,有助于读者更深刻地理解分布式系统的原理和架构,并规划自我提升的目标和方向。, 与很多技术类书籍不同的是,《ZeroC Ice权威指南》不是简单地罗列知识点和简单代码,而是在指导学习的过程中,不断抛出一些高质量代码,如客户端封装、服务端框架、服务调用拦截监控等可立即应用于生产的代码,而且全书的大部分内容都是密切围绕生产实践中要解决的技术问题而展开的。无论是用于自我提升技术水平和拓展视野,还是用于具体指导当前的大型(互联网)项目开发,本书都是非常值得研读的精品,可以说,每一个有志于成长为互联网架构师的IT人及希望转型互联网开发的工程师和技术经理都值拥有《ZeroC Ice权威指南》。

2017-12-08

Phoenix安装文档

Phoenix是一个HBase的开源SQL引擎。你可以使用标准的JDBC API代替HBase客户端API来创建表,插入数据,查询你的HBase数据。 Phoenix是构建在HBase之上的SQL引擎。你也许会存在“Phoenix是否会降低HBase的效率?”或者“Phoenix效率是否很低?”这样的疑虑,事实上并不会,Phoenix通过以下方式实现了比你自己手写的方式相同或者可能是更好的性能(更不用说可以少写了很多代码): 作者:献给记性不好的自己 链接:http://www.jianshu.com/p/9d3e938081d2 來源:简书 著作权归作者所有。商业转载请联系作者获得授权,非商业转载请注明出处。

2017-12-08

Shell脚本专家指南

《Shell脚本专家指南》旨在为Linux、Unix以及OSx系统管理员提供短小精悍且功能强大的shell实现解决方案,教会读者如何使用现有调试器调试shell脚本。全书分为3个部分:脚本技术基础、系统交互和高级技术、有用的脚本实例。主要内容包括如何使小到中型的系统管理任务自动化,分析系统数据并编辑配置文件,使用bash和ksh等编写IAnux、Unix和OSX应用程序的脚本文件等。, 《Shell脚本专家指南》面向中高级的shell程序员,以及需要解决日常问题的系统管理员,但假定读者能够读懂一般的shell代码。

2017-12-08

springmvc, mybatis, spring项目整合实例.

springmvc, mybatis, spring项目整合实例. 包含文件上传, 数据校验, 全局类型转换等. 下载后, 直接导入IDE即可.

2015-06-29

struts-2.3.20-jfreechart插件源码

struts-2.3.20-jfreechart插件源码

2015-03-30

struts-2.3.20-josn插件源码

struts-2.3.20-josn插件源码

2015-03-30

spring-framework-3.0.5.RELEASEdependencies.zip

pring-framework-3.0.5.RELEASE-dependencies,总大小125MB. 权限不够只能每次上传45M,分三次上传. 在压缩的时候使用了2345压缩工具,设置压缩分卷大小为45M, 第一部分和第二部分的后缀名不是zip.需要3部分都下载完后,在解压缩. 第三部分 --->spring-framework-3.0.5.RELEASEdependencies.zip

2014-08-01

spring-framework-3.0.5.RELEASEdependencies.z02

pring-framework-3.0.5.RELEASE-dependencies,总大小125MB. 权限不够只能每次上传45M,分三次上传. 在压缩的时候使用了2345压缩工具,设置压缩分卷大小为45M, 第一部分和第二部分的后缀名不是zip.需要3部分都下载完后,在解压缩. 这是第二部分,spring-framework-3.0.5.RELEASEdependencies.z02.

2014-08-01

spring-framework-3.0.5.RELEASEdependencies.z01

pring-framework-3.0.5.RELEASE-dependencies,总大小125MB. 权限不够只能每次上传45M,分三次上传. 在压缩的时候使用了2345压缩工具,设置压缩分卷大小为45M, 第一部分和第二部分的后缀名不是zip.需要3部分都下载完后,再解压缩.

2014-08-01

js对表格进行排序

利用纯js对表格进行排序,动态扩展性能好.并且可按照字符串,日期,图片,数字排序.

2014-03-28

javascript帮助文档

w3c javascript的帮助文档,很全. 并且说明了各种浏览下是否支持.

2014-03-27

java注解模板

java注解模板,很详细. 在myeclipse-->prefenrece--->java---->codestype--->codetemplate ---->import即可.

2014-03-26

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除