自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(114)
  • 收藏
  • 关注

原创 MongoDB(MongoDB安装,基本概述,基本操作,与hive,spark整合)

MongoDB一.MongoDB基本概念1.什么是MongoDB2.MongoDB特点3.MongoDB数据模型4.MongoDB安装(1)配置yum源(2)通过yum进行安装(3)启动(4)MongoDB工具安装二.MongoDB操作1.MongoDB基本命令(1)启动MongoDB(2)查看MongoDB状态(3)查看MongoDB版本(4)启动client Shell命令2.MongoDB的database操作(1)创建(2)删除当前数据库(3)查看所有数据库3.集合操作(1)创建(2)查询(3)删除

2021-03-16 10:31:57 541 1

原创 Kafka API应用(Producer API,Consumer API,java代码,scala代码,消息发送流程,消息消费流程)(二)

Kafka API应用一.kafka常用API1.Producer API(1)消息发送的Java代码(2)消息发送的Scala代码(3)消息发送流程2.Consumer API(1)消息消费的Java代码(2)消息消费Scala代码(3)消息消费流程(4)偏移量1)自动提交Automatic Commit2)手动提交偏移量一.kafka常用APIkafka包括常用API包括:Producer API(Kafka Java Clients):允许应用程序将记录流发布到一个或多个Kafka主题

2021-02-18 15:56:54 350

原创 Kafka(基本术语,分区策略,副本策略,存储策略,ZooKeeper作用,副本同步,容灾,高吞吐原因,负载均衡)(一)

Kafka一.Kafka基础1.Kafka核心概念(1)术语解释(2)分区策略(3)副本策略(4)存储策略2.ZooKeeper与Kafka(1)Broker注册并监控状态(2)Topic注册(3)生产者负载均衡(4)offset维护3.副本同步4.容灾5.高吞吐(1)顺序读写(2)零拷贝(3)分区(4)批量发送(5)数据压缩(6)Consumer的负载均衡6.负载均衡一.Kafka基础1.Kafka核心概念(1)术语解释Kafka集群由不同的Broker节点组成,每个Broker都有唯一的id(如

2021-02-05 17:17:44 412

原创 Flume(简介,特点,架构,原理,组件,工作流程,拦截器,flume可靠性)

25.Flume一.Flume简介1.Flume是什么?Apache Flume是一个分布式的,可靠性的,可用的数据收集系统,它可以有效地收集,聚合和移动大量的日志数据,这些数据可以从许多不同的来源转移到一个集中的数据存储中。Apache Flume不仅仅限于日志数据集合。由于数据源是可定制的,所有Flume可用于传输大量事件数据,包括但不限于网络流量数据,社交媒体生成的数据,电子邮件消息以及几乎所有可能的数据源。2.Flume特点(1)可靠性Flume的核心是把**数据从数据源收集过来,再送

2021-02-03 15:47:58 1354

原创 Spark Graphx 项目实战(航班飞行网图分析)

航班飞行网图分析一.需要的技能点二.任务描述三.数据探索1.下载数据2.数据格式四.航班飞行网图问题分析1.构建航班飞行网图2.统计航班飞行网图中机场与航线的数量3.计算最长的飞行航线4.找出最繁忙的机场5.找出最重要的飞行航线6.找出最便宜的飞行航线五.代码实现一.需要的技能点Spark GraphX APISpark GraphX PageRankSpark GraphX Pregel二.任务描述需求概述:探索航班飞行网图数据构建航班飞行网图使用Spark GraphX完成下列任

2021-01-23 16:57:58 953 1

原创 Spark Graphx Pregel(pregel参数详解,pregel调用实现过程的详细解释)

Spark Graphx Pregel一.Pregel概述1.什么是pregel?2.pregel应用场景二.Pregel源码及参数解释1.源码2.参数详细解释(1)initialMsg(2)maxIteration(3)activeDirection(4)vprog(5)sendMsg(6)mergeMsg三.Pregel计算顶点5 到 其他各顶点的 最短距离1.图信息(1)顶点信息(2)边信息2.Pregel原理分析(1)调用pregel方法之前(2)当调用pregel方法开始(3)第一次迭代开始(4)

2021-01-23 15:46:06 2128

原创 Spark Graphx--连通分量

连通分量1.什么是连通分量2.计算连通分量的方法3.示例1.什么是连通分量连通分量是一个子图,其中任何两个顶点通过一条边或一系列边相互连接,其顶点是原始图顶点集的子集,其边是原始图边集的子集2.计算连通分量的方法class Graph[VD, ED] { def connectedComponents(): Graph[VertexID, ED]}3.示例即去掉了与其他顶点无关的那个顶点信息package cn.kgc.spark.graphximport org.apache.

2021-01-17 16:53:43 819

原创 简述PageRank算法原理(pagerank基本思想,终止点问题,陷阱问题,Spark Graphx调用pagerank API)

PageRank算法原理一.PageRank基本概念1.什么是pagerank?2.pagerank基本思想二.PageRank算法1.基本原理2.问题(1)终止点问题(2)陷阱问题3.完整的PageRank算法(1)完整的PageRank算法思想(2)完整算法数据说明(3)算法公式三.Spark Graphx调用pagerank API四.其他补充1.PR值的决定因素2.获得高pagerank值的方法一.PageRank基本概念1.什么是pagerank?PageRank对网页排名的算法,曾是Goo

2021-01-17 16:45:52 6234

原创 项目实战—教育平台大数据分析系统

项目实战—教育平台大数据分析系统一.数据准备1.日志数据字段数据字典2.日志文件test.log二.项目需求三.项目介绍项目需求数据源技术栈四.完整代码一.数据准备1.日志数据字段数据字典链接:https://pan.baidu.com/s/1r4x_DnP4OyNF2kwmjfJMgQ提取码:mbvq2.日志文件test.log链接:https://pan.baidu.com/s/1vPYydqzSKiHOY7AGyZVLvw提取码:fukb二.项目需求使用Spark完成下列日志分析项目

2021-01-16 15:38:50 1936 2

原创 Scala OOP(面向对象,抽象类,单例对象,伴生对象,样例类,泛型类,依赖注入)(三)

Scala OOP一.Scala面向对象编程概述1.Scala 是纯粹的面向对象的语言2.Scala 大量重用了 Java 中的类型3.Scala OOP 比较 Java OOP 的主要差异二.类和对象1.类的定义2.类的实例化3.类的继承三.抽象类四.单例对象1.object与 class2.伴生(1)伴生关系(2)伴生类(3)伴生对象五.特质1.含义2.用法3.特点六.依赖注入1.自身类型(1)trait中的自身类型(2)class中的自身类型2.this别名3.依赖注入七.样例类八.泛型类1.类型边界

2021-01-11 20:05:09 315

原创 使用idea练习Spark SQL经典练习50题

使用idea练习Spark SQL经典练习50题一.准备文件(1)课程表(course.txt)(2)成绩表(score.txt)(3)学生表(student.txt)(4)教师表(teacher.txt)二.创建DataFrame1.创建SparkSession2.创建表的样例类3.创建RowRDD4.创建DataFrame三.练习题代码四.练习题过程及其对应运行结果(1)查询"01"课程比"02"课程成绩高的学生的信息及课程分数(2)查询"01"课程比"02"课程成绩低的学生的信息及课程分数(3)查询平

2021-01-09 17:40:16 2016

原创 Scala函数(函数的定义,匿名函数,高阶函数,内嵌函数,柯里化函数,隐式参数,隐式函数,闭包)(二)

Scala函数一.Scala函数1.函数定义2.函数调用2.1 传值调用2.2传名调用2.3参数默认值2.4命名参数二.匿名函数三.高阶函数1.函数作为参数2.函数作为返回值3.函数字面量短格式(匿名函数精简格式)4.各个内置高阶函数四.内嵌函数1.内嵌函数的作用五.柯里化函数六.隐式参数七.隐式函数1.隐式转换2.类型增强八.闭包一.Scala函数1.函数定义def functionName ([参数名:参数类型],…) [: return type]={函数主体}如果省略函数名称则变为匿名

2021-01-07 19:37:08 424

原创 HBase 优化(五)

HBase 优化一.高可用二. RowKey 设计1.生成随机数、hash、散列值2.字符串反转3.字符串拼接三.内存优化四.基础优化1.允许在 HDFS 的文件中追加内容2.优化 DataNode 允许的最大文件打开数3.优化延迟高的数据操作的等待时间4.优化数据的写入效率5.设置 RPC 监听数量6.优化 HStore 文件大小7.优化 hbase 客户端缓存8.指定 scan.next 扫描 HBase 所获取的行数9.flush、compact、split 机制一.高可用在 HBase 中 HM

2021-01-07 16:37:48 137

原创 HBase 管理(Region自动拆分,预拆分,强制拆分,Region合并,HFile的合并)(四)

HBase 管理一.HBase管理1.Region管理1.1Region的自动拆分(1)ConstantSizeRegionSplitPolicy(2)IncreasingToUpperBoundRegionSplitPolicy(0.94 版本后默认)(3)KeyPrefixRegionSplitPolicy(4)DelimitedKeyPrefixRegionSplitPolicy(5)BusyRegionSplitPolicy(6)DisabledRegionSplitPolicy1.2Region的

2021-01-07 16:18:55 1570

原创 Phoenix集成 HBase和HBase与Hive集成(三)

Phoenix集成 HBase和HBase与Hive集成一.Phoenix集成 HBase1.Phoenix字段类型2.操作(1)启动(2)创建表(3)查看表(4)查看表的所有列(5)插入数据(6)查询数据(7)删除数据(8)表关联操作(9)退出二.HBase与Hive的集成1.Hive(1)数据仓库(2)用于数据分析、清洗(3)基于 HDFS、MapReduce2.HBase(1)数据库(2)用于存储结构化和非结构化的数据(3)基于HDFS(4)延迟较低,接入在线业务使用3.HBase与Hive集成使用(

2021-01-07 13:57:54 280

原创 Phoenix安装及与HBase的集成

Phoenix安装及与HBase的集成一.Phoenix安装1.前置环境2.Phoenix安装部署(1)解压Phoenix到指定目录(2)配置环境变量3.Phoenix集成HBase4.Phoenix服务的启动一.Phoenix安装1.前置环境首先保证Zookeeper、Hadoop集群的正常部署,并启动。2.Phoenix安装部署使用的版本为phoenix-4.14.0-cdh5.14.2。下载地址http://archive.cloudera.com/cdh5/cdh/5/(1)解压Phoe

2021-01-05 19:53:00 196

原创 HBase Shell操作和HBase API操作(创建表,插入数据,查看数据,删除表等操作)(二)

HBase Shell操作和HBase API操作一.HBase Shell操作1.进入HBase客户端命令行2.查看帮助命令3.查看当前数据库中有哪些表4.创建表5.插入数据到表6.插入多行数据7.扫描查看表8.查看表结构9.更新指定字段的数据10.查看"指定行"或"指定列族:列"的数据11.统计表数据行数12.删除数据13.清空表数据14.删除表15.变更表信息16.获取多版本数据二.HBase API操作1.环境准备2.HBase API一.HBase Shell操作1.进入HBase客户端命令行

2021-01-05 19:36:13 2421

原创 HBase架构原理(HBase架构,HBase数据存储结构,HBase原理(读流程,写流程))(一)

HBase架构原理HBase架构原理一.HBase架构1.Client:客户端2.ZooKeeper3.HMaster4.HRegionServer5.HDFS6.Write-Ahead Logs7.HRegion8.Store9.MemStore10.HFile二.HBase数据存储结构1.RowKey2.Column Family3.Cell4.Time Stamp三.HBase原理1.元数据存储2.读流程3.写流程4.数据Flush过程HBase架构原理一.HBase架构HBase是Master

2021-01-04 19:31:23 346

原创 Hive常用设置命令(不显示info信息,开启动态分桶,设置本地模式,显示当前数据库,设置reduce个数)

Hive常用设置命令Hive常用设置命令1.不显示 info 信息2.设置 hive 属性在命令行显示当前数据库3.开启动态分区设置4.开启动态分桶5.order by可以按照位置编号排序6.设置reduce个数7.设置本地模式缩短运行时间Hive常用设置命令可以在hive-site.xml中进行长久设置1.不显示 info 信息set hive.server2.logging.operation.level=NONE2.设置 hive 属性在命令行显示当前数据库set hive.cli.p

2020-12-23 18:43:51 1720 3

原创 NoSQL(NoSQL概念,优点,与RDB对比,基本概念,分类,与BI,大数据关系)

一.NoSQL1.什么是NoSQLNoSQL:not only SQL,非关系型数据库NoSQL是一个通用术语指不遵循传统RDBMS模型的数据库数据是非关系的,且不使用SQL作为主要查询语言解决数据库的可伸缩性和可用性问题不针对原子性或一致性问题注:非原子性:字段可拆2.为什么使用NoSQL(NoSQL优点)高并发读写高存储量高可用性高扩展性低成本3.NoSQL和关系型数据库对比对比NoSQL关系型数据库常用数据库HBase、MongoDB、R

2020-12-22 11:19:40 398

原创 hive优化(expalin执行计划,本地模式,数据倾斜,并行执行,严格模式,JVM重用,推测执行)(五)

hive优化一.explain(执行计划)1.基本语法2.示例二.Fetch抓取(默认已开启)三.本地模式四.表的优化1.小表、大表join2.大表jion大表(1)空key过滤(2)空key转换3.MapJoin(默认已开启)(1)开启 MapJoin 参数设置(2)MapJoin工作机制(3)示例演示4.Group by5.Count(Distinct)去重统计6.笛卡尔积7.行列过滤8.动态分区调整9.分桶或分区五.数据倾斜1.调整Map数(1)小文件进行合并,减少map数(默认开启)(2)复杂文件增

2020-12-22 08:28:51 271

原创 项目实战-电子商务消费行为分析

电子商务消费行为分析一.简单介绍1.需要技能点2.需求概述二.前提条件三.问题分析1.Customer表2.Transaction表3.Store表4.Review表5.数据结构四.数据准备和了解1.数据获取2.检查行数和header行3.上传数据到HDFS4.创建适当的外部表来保存数据5.查看并了解数据五.数据清洗1.Clean and Mask customer_details2.Clean transaction_details into partition table3.Clean store_re

2020-12-21 17:42:04 1188

原创 Hive函数(内置函数(字符串函数,数学函数,日期函数,集合函数,条件函数,聚合函数,表生成函数)和自定义函数(自定义函数创建流程,临时函数,永久函数)))(四)

Hive函数(内置函数和自定义函数)一.内置函数1.字符串函数(1)ascii(2)base64(3)concat(4)concat_ws(5)format_number(6)substr,substring(7)instr(8)length(9)locate(10)printf(11)str_to_map(13)unbase64(14)upper,ucase(15)lower,lcase(16)trim,ltrim,rtrim(17)regexp_replace(18)regexp_extract(19)

2020-12-17 19:07:36 629

原创 hive表实现行转列和列转行

hive表行转列和列转行t1itemnumA1,2,3,4B2,5,1行转列(lateral view explode)--使用侧视图lateral view explode进行行转列create table t3 as with r1 as (select item ,nums from t1 lateral view explode(split(num,",")) t as nums) select * from r1;select * from t3;

2020-12-17 15:16:40 323

原创 Hive基础(数据类型,数据结构,数据库操作,数据表操作,内部表,外部表,临时表,装载数据,分区表,分桶表,视图,侧视图)(二)

Hive基础(数据类型,数据结构,数据库操作,数据表操作,内部表,外部表,临时表,装载数据,分区表,分桶表,视图,侧视图)八.hive数据类型1.基本数据类型(类似于SQL数据类型)2.集合数据类型九.hive数据结构十.数据库增删改查1.创建数据库2.使用数据库3. 查看数据库信息4.修改数据库信息5.查看当前数据库6. 删除数据库7.删除带表的数据库(强制删除)8.过滤显示查询的数据库9.显示当前数据库十一.数据表(table)1.建表语法(1)字段解释说明(2)Storage SerDe(3)Hive

2020-12-14 19:24:37 186

原创 hive初级练习50题(详细过程)

hive初级练习50题一.建库和建表1.表信息(1)课程表(course.txt)(2)成绩表(score.txt)(3)学生表(student.txt)(4)教师表(teacher.txt)2.建库建表二.练习50题(详细过程)1.查询"01"课程比"02"课程成绩高的学生的信息及课程分数2.查询"01"课程比"02"课程成绩低的学生的信息及课程分数3.查询平均成绩大于等于60分的同学的学生编号和学生姓名和平均成绩4.查询平均成绩小于60分的同学的学生编号和学生姓名和平均成绩 (包括有成绩的和无成绩的)5

2020-12-12 14:40:35 2464 3

原创 Hadoop优化(MapReduce优化方法数据输入,map,reduce,数据倾斜进行调优)(八)

Hadoop优化一.MapReduce优化需要考虑的点1.计算机性能2.I/O操作优化二.MapReduce优化方法1.数据输入2.Map 阶段3.Reduce阶段4.数据倾斜问题5.常用的调优参数(1)资源相关参数(2)容错相关参数(mapreduce)一.MapReduce优化需要考虑的点MapReduce程序效率取决于以下几点:1.计算机性能CPU,内存,磁盘健康,网络2.I/O操作优化(1)数据倾斜(2)map和reduce数设置不合理(3)map运行时间太长,导致reduce等待过

2020-12-11 13:56:01 264

原创 MapReduce详细工作流程解析

MapReduce工作流程一.流程示意图二.流程详解1.split阶段2.map阶段3.Shuffle阶段4.Reduce阶段5.注意三.各个阶段的工作机制1.InputFormat数据输入1.1FileInputFormat抽象类1.1.1FileInputFormat源码解析1.1.2FileInputFormat切片大小的参数配置1.1.3获取切片信息1.1.4总结1.2FileInputFormat实现类1.2.1TextInputFormat1.2.2KeyValueTextInputFormat

2020-12-10 18:57:54 7195 1

原创 HDFS支持的文件格式(SequenceFile,Avro,RCFile,Parquet)(七)

支持的文件格式一.支持的文件格式一.支持的文件格式SequenceFile 以二进制键值对的形式存储数据,支持三种记录存储方式。➢ 无压缩:io 效率较差,相比压缩,不压缩的情况下没有什么优势。➢ 记录级压缩:对每条记录都压缩,这种压缩效率比较一般。➢ 块级压缩:这里的块不同于 hdfs 中的块的概念.这种方式会将达到指定块大小的二进制数据压缩为一个块。Avro 将数据定义和数据一起存储在一条消息中,其中数据定义以 JSON 格式存储,数据以二进制格式存储。Avro 标记用于将大型数据集分割

2020-12-09 16:00:25 1641

原创 DataNode工作机制(心跳机制,掉线判断时限参数)(六)

DataNode工作机制数据节点。就是Slave,实际存储数据块的节点,Namenode下达命令,DataNode执行实际操作。1、存储管理用户的文件块数据2、定期向 namenode 汇报自身所持有的 block 信息(通过心跳信息上报)​ 一个数据块在DataNode上以文件形式存储在对应服务器的磁盘上。包括两个文件,一个是数据本身,一个是元数据包括数据块的长度,块数据的校验和,以及时间戳。​ DataNode 启动后向 NameNode 注册,通过后,周期性(1 小时)的

2020-12-09 15:30:31 1187

原创 HDFS-NN和SNN的关系(nn,snn工作机制,fismage,edits解析,checkpoint时间设置,NN故障处理,安全模式)(五)

HDFS-NameNode和SecondaryNameNode的关系一.NN和SNN工作机制1.第一阶段:NameNode启动2.第二阶段:Secondary NameNode工作二.Fsimage和Edits解析1.概念2.使用oiv查看fsimage文件(1)查看oiv和oev命令(2)基本语法(3)示例3.oev查看edits文件(1)基本语法(2)示例三.checkpoint时间设置四.NamNode故障处理1.方法一:将SecondaryNameNode中数据拷贝到NameNode存储数据的目录2

2020-12-09 15:04:01 638

原创 Zookeeper分布式环境搭建

Zookeeper分布式环境搭建一.分布式安装部署1.前置条件2.集群规划3.解压安装4.配置zoo.cfg文件5.集群操作二.配置参数解读1.tickTime2.initLimit:LF初始通信时限3.syncLimit:LeaderFollwer同步通信时限4.dataDir5.clientPort一.分布式安装部署1.前置条件安装三台linux虚拟机jdk安装完成三台机器防火墙已经关闭2.集群规划在hadoop001、hadoop002和hadoop003三个节点上部署Zookeep

2020-12-07 09:44:29 947

原创 HDFS的Shell操作(二)

HDFS的Shell操作1.基本语法2.命令大全3.常用命令1.基本语法bin/hdfs dfs 具体命令2.命令大全[root@hadoop101 hadoop]$ bin/hdfs dfs[-appendToFile <localsrc> ... <dst>] [-cat [-ignoreCrc] <src> ...] [-checksum <src> ...] [-chgrp [-R] GROUP PATH...] [-chmod [

2020-12-06 21:04:07 129

原创 HDFS概述产生背景,优缺点以及HDFS组成架构(一)

HDFS概述产生背景,优缺点以及HDFS组成架构05.HDFS一.HDFS概述1.为什么出现HDFS?2.什么是分布式文件系统?3.HDFS概念4.HDFS优缺点(1)优点(2)缺点二.HDFS组成架构1.Client2.NameNode3.DataNode4.Secondary NameNode三.HDFS文件块05.HDFS一.HDFS概述1.为什么出现HDFS?随着数据量越来越大,需要存储和处理的数据量也就越来越大。我们操作使用操作系统的存储空间是有限的。因此需要把多个操作系统综合成一个大的操

2020-12-06 20:53:44 228

原创 Exception in thread “main“ java.lang.NoSuchFieldError: IBM_JAVA

问题报错:Exception in thread “main” java.lang.NoSuchFieldError: IBM_JAVA原因:是你的java依赖不完整,你丢失了jar包hadoop-auth-2.6.0.jar或更新的版本。字段IBM_JAVA位于java类PlatformName.class中,该类位于hadoop-auth-2.2.0.jar中的org.apache.hadoop.util包中。解决:重新在pom文件中下载hadoop-auth-2.2.0.jar包...

2020-12-02 11:35:35 1098

原创 Flume拦截器(正则过滤拦截器,使用idea自定义拦截器)

Flume拦截器一.使用正则拦截器(去掉首行)二.自定义拦截器1.创建maven工程2.在idea中自定义编写拦截器3.打成jar包传到$FLUME_HOME/lib 目录下4.编写agent文件5.执行结果一.使用正则拦截器(去掉首行)需求:使用Spooling directory source监督符合格式的文件进行上传(格式:user_年-月-日.csv);使用正则拦截器去除首行;使用file channel进行缓存;以规定的文件格式()上传到HDFS上规定文件夹下[root@hadoop

2020-12-01 19:47:38 645

原创 Flume配置(NetCatSource,ExecSource,SqoolingDirectory,MemoryChannel, FileChannel,LoggerSink,HDFS Sink )

Flume组件的配置示例一.Flume组件的配置示例1.NetCat TCP Source,Memory Channel,Logger Sink1)NetCat TCP Source2)Memory Channel3)Logger Link2.Exec Source,Memory Channel,Logger Sink1)Exec Source2)Memory Channel3.Spooling Directory Source,File Channel,Logger Link1)Spooling Dire

2020-11-30 21:49:30 378

原创 Flume简介及安装

Flume简介及安装一.Flume简介1.什么是Flume?2.Flume架构二.Flume安装及环境配置1.准备安装包flume-ng-1.6.0-cdh5.14.0.tar.gz2.解压flume安装包3.修改配置文件一.Flume简介1.什么是Flume?flume 作为 cloudera 开发的实时日志收集系统,用于将多种来源的日志以流的方式传输至Hadoop或者其他目的地2.Flume架构Client:客户端,数据产生的地方,如Web服务器Event:事件,指通过Agent传输的单个

2020-11-30 21:40:52 116

原创 设置环境变量的意义

设置环境变量的意义1.什么是环境变量2.JAVA_HOME:3.PATH:4.CLASSPATH:参考博客:https://www.cnblogs.com/qiaoweiwei/p/9967710.html1.什么是环境变量环境变量(environment variables)一般是指在操作系统中用来指定操作系统运行环境的一些参数。在Windows和DOS操作系统中的path环境变量,当要求系统运行一个程序而没有告诉它程序所在的完整路径时,系统除了在当前目录下面寻找此程序外,还应到path中指定的路径

2020-11-29 15:07:45 617

原创 Linux 下安装 JDK 和 MySQL

Linux 下安装 JDK 和 MySQL一.Linux系统下的jdk安装和环境变量配置1.设置Linux系统静态IP地址:2.重启网络配置3.停止防火墙4.查看并关闭防火墙5.连接MobaXterm6.查看系统是否自带 jdk7.安装JDK8.修改配置文件、配置jdk环境9.使环境生效10.查看是否配置成功二.Linux系统MySQL安装和配置1.安装前检测系统是否自带安装 MySQL2.上传安装包到/opt目录下3.安装依赖包perl,new-tools,autoconf4. 卸载自带的 mariadb

2020-11-28 14:33:59 303

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除