6 九师兄

尚未进行身份认证

我要认证

暂无相关简介

等级
TA的排名 201

【Docker】ERROR: Could not find a version that satisfies the requirement pytest==5.0.1

[lcc@lcc ~/soft/es/elasticsearch-HQ-3.5.12]$ pip install -r requirements.txtDEPRECATION: Python 2.7 reached the end of its life on January 1st, 2020. Please upgrade your Python as Python 2.7 is no longer maintained. pip 21.0 will drop support for Python 2

2020-09-29 22:07:26

Mac终端:pip command not found

1.概述背景:pip是python的包管理工具,在Python3.66的安装包中,easy_install.py是默认安装的,而pip需要我们手动安装[lcc@lcc ~/soft/es/elasticsearch-HQ-3.5.12]$ pip install -r requirements.txt-bash: pip: command not found[lcc@lcc ~/soft/es/elasticsearch-HQ-3.5.12]$ sudo easy_install pipPass

2020-09-29 22:05:34

【Docker】elasticsearch 监控工具 elasticsearch-HQ

1.概述elasticsearch-HQ是一个实用、直观、便捷的elasticsearch集群管理、监控工具。安装方式分两种,python和docker,个人倾向docker安装,操作步骤比较简单。2.python安装1、准备环境:python 3.4+ 2、https://github.com/ElasticHQ/elasticsearch-HQ下载ZIP包 3、将ZIP包解压后执行如下命令: pip install -r requirements.txt pyt

2020-09-29 22:03:49

【Docker】elasticsearch 监控工具 elasticsearch-HQ Unable to create connection to: http://localhost:9200

1.背景参考:启动[lcc@lcc ~/soft/sbt/sbt-1.2.8]$ docker run -d -p 5000:5000 elastichq/elasticsearch-hq但是点击后连接报错[lcc@lcc ~/soft/sbt/sbt-1.2.8]$ docker logs -f 76a7bd01f76a0fcab6094e8ab27c4e033220f6d0cc90d37686c77722dc4c265fNoneNone2020-09-29 08:47:1

2020-09-29 22:02:42

【ElasticSearch 】ElasticSearch监控工具 cerebro

1.概述作者:十毛tenmao链接:https://www.jianshu.com/p/433d821f9667最近在调研一下es的监控工具。最近ElasticSearch使用中出现好多异常情况,一直都是命令行直接排查问题,不够直观。网络上大部分都推荐Kopf,Bigdesk,但是都已经是过时的工具,多年都没有更新了。ps: kopf的github首页就表明该项目不再维护,推荐使用cerebro;bigdesk也只支持ElasticSearch1.3及以下版本而且cerebro的使用特别简单

2020-09-29 22:01:31

【Java】finally 语句块不被执行的几种情况

执行顺序try { doSomething(); return success; } catch (Exception e) { return failure; } finally { System.out.println("this finally block always print out");}上述示例的语句执行顺序如下:执行 try 语句块,如果未出现异常,则在执行 return 语句之前,执行 finally 语句块;在运行

2020-09-28 21:36:17

【Kafka】Kafka ERROR [ConsumerFetcherThread-console-consumer], Error for partition [xx,5] to broker 10

1.背景kafka环境页面上看着正常,如下在控制台里发数据也正常,但是消费数据的时候如下 [root@1 bin]# ./kafka-console-consumer.sh --topic topic_lcc --zookeeper xxx:2181{metadata.broker.list=xxx:19093, request.timeout.ms=30000, client.id=console-consumer-1552, security.protocol=PLAINTEXT}[20.

2020-09-28 21:35:36

【Java】Java调用shell脚本

1.概述java 执行shell2.utils类package com.shell.java;import java.io.InputStreamReader;import java.io.LineNumberReader;public class JaveShellUtil { public static int ExecCommand(String command) { int retCode = 0; try { Pro

2020-09-28 21:35:21

【Guava】Guava Cache的refresh和expire刷新机制

1.概述转载:https://www.cnblogs.com/liuxiaochong/p/13613071.html总览参考:【Guava】Google Guava本地高效缓存2.思考和猜想首先看一下三种基于时间的清理或刷新缓存数据的方式:expireAfterAccess: 当缓存项在指定的时间段内没有被读或写就会被回收。expireAfterWrite:当缓存项在指定的时间段内没有更新就会被回收。refreshAfterWrite:当缓存项上一次更新操作之后的多久会被刷新。 考虑到时

2020-09-27 21:20:39

【guava】GuavaCache缓存失效的时候做一些操作 RemovalListener

1.概述转载:https://blog.csdn.net/chen_kkw/article/details/81144169以为需要我使用guava缓存我的数据库连接,但是因为设置了1分钟失效就关闭,但是关闭的时候,我希望能做些操作,最好是关闭连接,代码如下private static class MyRemovalListener implements RemovalListener<Integer, Integer> { @Override public voi

2020-09-27 21:19:34

【Kafka】Kafka Streams简介

1.概述Kafka在0.10.0.0版本以前的定位是分布式,分区化的,带备份机制的日志提交服务。而kafka在这之前也没有提供数据处理的顾服务。大家的流处理计算主要是还是依赖于Storm,Spark Streaming,Flink等流式处理框架。Kafka Streams 是一个用来处理流式数据的库,属于Java类库,它并不是一个流处理框架,和Storm,Spark Streaming这类流处理框架是明显不一样的。那这样一个库是做什么的,能应用到哪些场合,如何使用。 Kafka于0.10.0.0版本

2020-09-27 21:18:48

【Flink】Flink Dump of the process-tree for container Exit code is 143

1.背景flink任务报错这个如下2020-09-27 16:38:36,063 INFO org.apache.flink.yarn.YarnResourceManager - Received new container: container_e01_1599223128774_0023_01_000492 - Remaining pending container requests: 02020-09-27 16:38:36,063 INFO org.

2020-09-27 21:18:13

【Spring】Spring boot的ApplicationContextAware 实现获取service

1.概述有时候,我们一个普通的java类,想用Spring Boot的注解的service,一般情况下我们是这样的@Servicepublic class ManServiceImpl implements ManService { @Autowired private HelloService helloService;}但是这个要求我们的service也必须是一个被spring boot管理的类,假设我的类不是一个被管理的类呢?public class ManServi

2020-09-27 21:17:33

【Kafka】Kafka幂等性原理及实现剖析

1.概述转载:https://www.cnblogs.com/smartloli/p/11922639.html最近和一些同学交流的时候反馈说,在面试Kafka时,被问到Kafka组件组成部分、API使用、Consumer和Producer原理及作用等问题都能详细作答。但是,问到一个平时不注意的问题,就是Kafka的幂等性,被卡主了。那么,今天笔者就为大家来剖析一下Kafka的幂等性原理及实现。2.内容2.1 Kafka为啥需要幂等性?Producer在生产发送消息时,难免会重复发送消息。Pro.

2020-09-27 21:17:04

【Kafka】Elasticsearch 与 Kafka 整合剖析

1.概述转载:https://www.cnblogs.com/smartloli/p/6978645.html目前,随着大数据的浪潮,Kafka 被越来越多的企业所认可,如今的Kafka已发展到0.10.x,其优秀的特性也带给我们解决实际业务的方案。对于数据分流来说,既可以分流到离线存储平台(HDFS),离线计算平台(Hive仓库),也可以分流实时流水计算(Storm,Spark)等,同样也可以分流到海量数据查询(HBase),或是及时查询(ElasticSearch)。而今天笔者给大家分享的就是Ka.

2020-09-27 21:16:42

【Kafka】kafka 0.10.0 版本低级消费 API

1.概述在 Kafka 中,官方对外提供了两种消费 API,一种是高等级消费 API,另一种是低等级的消费 API。转载并且微改:https://www.cnblogs.com/smartloli/p/5241067.html2.内容在使用过 Kafka 的高级消费 API 后,我们知道它是一种高度抽象的消费 API,使用起来简单,方便,但是对于某些特殊的需求我们可能要用到第二种更加底层的 API。那么,我们首先需要知道低级消费 API 的作用。它能帮助我们去做那些事情:一个消息进行多次读取.

2020-09-27 21:15:44

【Elasticsearch】Elasticsearch analyzer

1.概述什么是analysis?分析是Elasticsearch在文档发送之前对文档正文执行的过程,以添加到反向索引中(inverted index)。 在将文档添加到索引之前,Elasticsearch会为每个分析的字段执行许多步骤:Character filtering (字符过滤器): 使用字符过滤器转换字符Breaking text into tokens (把文字转化为标记): 将文本分成一组一个或多个标记Token filtering:使用标记过滤器转换每个标记Token inde

2020-09-26 19:24:43

【Elasticsearch】Elasticsearch之别名

1.概述别名解决的问题在运行的集群中可以从一个索引切换到另一个索引可以给多个索引进行分组可以与路由搭配使用2.别名的相关操作准备数据阶段PUT index_lcc1/doc/1{ "title":"我想要睡你"}PUT index_lcc2/doc/1{ "title":"你却拿我当兄弟"}PUT index_lcc3/doc/1{ "title":"不过,我不介意"}2.1 创建别名创建别名 给l1索引创建别名index_lcc1_laiasP.

2020-09-26 14:19:47

【Java】java JMX之ObjectName

1.概述转载:https://blog.csdn.net/yunlong34574/article/details/46563187ObjectName 就是存储了一个domain(域)下的一些属性,属性的存储采取key-value的方式来存储,这个类的一个精华所在就是domian及属性(key或者value)都是支持正则的,比如:*表示匹配所有,?表示匹配一个字符。2.ObjectName注释翻译ObjectName 表示一个Mbean的对象名称,或者是表示一个能够匹配几个Mbean的正则,Ob.

2020-09-26 13:49:03

【Kafka】Kafka如何彻底删除Kafka中的topic

1.概述工作中因为各种原因, 例如topic中消息堆积的太多,或者kafka所在磁盘空间满了等等,可能需要彻底清理一下kafka topic,那么如何彻底删除topic?但是注意无论怎么删除,第一步是设置kafkaauto.create.topics.enable=falsedelete.topic.enable=true不然会出新奇奇怪怪的问题。比如生产者在发送数据的时候,你删除topic,因为设置了自动创建topic,你会发现,删除不掉,还有其他奇奇怪怪的问题。如果不设置delete.t

2020-09-26 13:31:02

查看更多

勋章 我的勋章
  • GitHub
    GitHub
    绑定GitHub第三方账户获取
  • 专栏达人
    专栏达人
    授予成功创建个人博客专栏的用户。专栏中添加五篇以上博文即可点亮!撰写博客专栏浓缩技术精华,专栏达人就是你!
  • 持之以恒
    持之以恒
    授予每个自然月内发布4篇或4篇以上原创或翻译IT博文的用户。不积跬步无以至千里,不积小流无以成江海,程序人生的精彩需要坚持不懈地积累!
  • 1024勋章
    1024勋章
    #1024程序员节#活动勋章,当日发布原创博客即可获得
  • 1024超级勋章
    1024超级勋章
    授予原创文章总数达到1024篇的博主,感谢你对CSDN社区的贡献,CSDN与你一起成长。
  • 勤写标兵Lv4
    勤写标兵Lv4
    授予每个自然周发布9篇以上(包括9篇)原创IT博文的用户。本勋章将于次周周三上午根据用户上周的博文发布情况由系统自动颁发。
  • 分享达人
    分享达人
    成功上传6个资源即可获取