自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(187)
  • 资源 (1)
  • 收藏
  • 关注

原创 记录一次frp失效bug

突然frp连不上去了,发现硬盘占用超过98%,估计是硬盘塞满了,清理了硬盘就好了。另外阿里云安全组记住开放所有协议,不只是tcp协议

2022-02-11 10:35:36 689 1

原创 linux查找大文件

find / -type f -print0 | xargs -0 du -h | sort -rh | head -n 10

2022-02-11 10:07:51 775

原创 智能家居解决方案

最近装修房子,首先注意的是安装全屋光纤和cat7类线的布网。这里有坑,如果你家不是大别野,就不要用七类线,太粗了,不过本着一次装修战未来的准备,我还是入坑了。七类线非常粗不适合布线。第二个是智能灯泡的选择,可以选择的余地很大。第一个方案,智能开关,用小米控制智能开关,这种解决方案最简单,不是破坏性装修,改造一下开关就ok,不过小米目前没有双控单开的解决方案,毕竟智能只需要一个开关,吼一嗓子就OK了。何必像传统那样两个开关控制。这里有坑,如果你选择智能开关方案,水电改造的时候就只改水就好了,电路用开发商给

2022-02-10 20:27:14 2717

原创 esxi网卡直通

之前在esxi安装了openwrt,那么如何设置openwrt为主路由,esxi接到openwrt下面设置为静态ip地址,并且除了wan口走esxi外,其他的流量都走openwrt,提高网络速度。有四个网口 eth0、eth1、eth2、eth3规划是eth0 不直通,eth1 eth2 eth3 直通给openwrt,从eth1,eth2,eth3中选择一个openwrt的wan口,剩下两个为lan口,eth0最后也改成lan口。网线接eth0安装openwrt,设置br-lan的ip地址为192.

2022-02-10 20:12:54 7215

原创 esxi里面安装openwrt和其他虚拟机

esxi安装openwrt

2022-02-10 16:39:21 6579

原创 esxi的安装

使用ventoy安装,找台windows安装ventoy,按照文档格式化U盘,然后将esxi的iso直接拖入分区里面,卸载U盘,插入待安装的电脑。一般intel的网卡兼容性好,直接进入ventoy,选择esxi的iso,按照指引先进行硬件检查,格式化硬盘,安装,拔掉U盘,启动即可。直到系统会显示一个ip地址访问。输入root,你设置的密码就可以登入了。找一个激活码激活,就可以愉快使用虚拟化平台了。注意螃蟹网卡有坑,需要找esxi6.7版本的加入realtek网卡驱动的iso安装包,否则会提示找不

2022-02-10 16:18:19 1635

原创 openwrt安装

openwrt安装

2022-02-10 16:07:07 4338

原创 zerotier

zerotier异地组网

2022-02-10 15:59:41 4732

原创 pymongo cusor not found

get_collection(XXXX).find({}, timeout=False)find({}, no_cursor_timeout=True)

2021-06-28 16:49:11 79

原创 设置静态固定ip地址

archlinux设置固定ipcd /etc/netctl/Ip adds 查看网卡idvim 网卡idTYPE=EthernetPROXY_METHOD=noneBROWSER_ONLY=noBOOTPROTO=“static” # 使用静态IP地址,默认为dhcpIPADDR=“192.168.28.5” # 设置的静态IP地址NETMASK=“255.255.255.0” # 子网掩码GATEWAY=“192.168.28.1” # 网关地址D

2021-06-21 09:59:44 402 1

原创 hive 窗口函数

CREATE TABLE tmp.COSTITEM( NAME STRING,ORDERDATE DATE,COST STRING);– 数据加INSERT INTO tmp.COSTITEM VALUES (‘jack’,‘2020-01-01’,‘10’);INSERT INTO tmp.COSTITEM VALUES (‘tony’,‘2020-01-02’,‘15’);INSERT INTO tmp.COSTITEM VALUES (‘jack’,‘2020-02-03’,

2021-03-01 16:24:37 83

原创 redis python zset

conn=redis.StrictRedis(host=‘192.168.80.41’,port=6379,db=0)conn.zadd(‘znames’,100,‘jiang’)conn.zadd(‘znames’,20,‘wolson’)#向有顺集合中增加一个元素jiang、它的分值为100 print(conn.zscore('znames','jiang')) #获取jiang这个元素的分值 print(conn.zrange('znames',0,-1,de

2021-02-09 14:10:19 295

原创 pyspark-mongo-input-output

1.创建pyspark与mongodb的连接,首先加载依赖包,其有三种方式:1)直接将其放在在安装spark的jars目录下;2)在spark_submit中,添加依赖包信息;3)在创建spark的对象的时候添加依赖信息,具体案例如下图所示spark = SparkSession .builder .appName(‘mongo connection’) .config(“spark.mongodb.input.uri”, “mongodb://节点:端口号/dev.myCollection?

2021-01-21 17:07:22 131

原创 elasticsearch date格式问题

JSON中没有date类型,es中的date可以由下面3种方式表示:①格式化的date字符串,例如"2018-01-01"或者"2018-01-01 12:00:00"②一个long型的数字,代表从1970年1月1号0点到现在的毫秒数③一个integer型的数字,代表从1970年1月1号0点到现在的秒数在es内部,date被转为UTC,并被存储为一个长整型数字,代表从1970年1月1号0点到现在的毫秒数date类型字段上的查询会在内部被转为对long型值的范围查询,查询的结果类型是字符串。假如插

2021-01-14 22:54:05 1411

原创 hive 中文comment乱码解决

在metastroe(1)修改表字段注解和表注解alter table COLUMNS_V2 modify column COMMENT varchar(256) character set utf8;alter table TABLE_PARAMS modify column PARAM_VALUE varchar(4000) character set utf8;(2)修改分区字段注解alter table PARTITION_PARAMS modify column PARAM_VALUE

2020-11-16 16:49:56 122

原创 安装docker后遇到permision问题

通过将用户添加到docker用户组可以将sudo去掉,命令如下sudo groupadd docker #添加docker用户组sudo gpasswd -a $USER docker #将登陆用户加入到docker用户组中newgrp docker #更新用户组

2020-11-05 16:30:34 147

原创 pymongo分片

#!/usr/bin/python# -*- coding: UTF-8 -*-import timefrom pymongo import MongoReplicaSetClientfrom pymongo import MongoClient# 连接单机# single mongo# c = MongoClient(host="192.168.89.151", port=27017) # okay# 连接集群# mongo clusterc = MongoClient('mongod

2020-10-20 13:59:41 171

原创 sklearn特征选择,交叉验证,超参数搜索,流水线

from sklearn.datasets import load_breast_cancerfrom sklearn.feature_selection import RFECVfrom sklearn.model_selection import GridSearchCVfrom sklearn.model_selection import train_test_splitfrom sklearn.ensemble import RandomForestClassifierX, y = lo

2020-10-10 10:50:56 273

原创 sklearn网格搜索

""" 网格搜索 通过不同参数组合尝试训练网络 获得最优参数、最优模型"""import numpy as npimport sklearn.naive_bayes as nbimport matplotlib.pyplot as mpimport sklearn.svm as svmimport sklearn.model_selection as msimport sklearn.metrics as sm# 加载数据data = np.loadtxt("./mul

2020-10-09 16:55:44 1372 1

原创 XGBoost Library (libxgboost.dylib) could not be loaded for mac

brew install xgboost Updating Homebrew...==> Downloading https://mirrors.tuna.tsinghua.edu.cn/homebrew-bottles/bottles/libomp-10.0.0.catalina######################################################################## 100.0%==> Downloading https://

2020-10-09 16:39:08 605

原创 archlinux常用的包管理器

pacman -Sy abc 和源同步后安装名为abc的包pacman -S abc 从本地数据库中得到abc的信息,下载安装abc包pacman -Sf abc 强制安装包abcpacman -Ss abc 搜索有关abc信息的包pacman -Si abc 从数据库中搜索包abc的信息pacman -Syu

2020-09-29 15:24:00 1536

原创 pykafka consumer

from pykafka import KafkaClientclient = KafkaClient(hosts="localhost:9092")topic = client.topics['maoyan_wish']consumer = topic.get_simple_consumer(consumer_group='test', auto_commit_enable=True, consumer_id='test')for message in consumer: if messa

2020-09-27 15:27:37 302

原创 python kafka 生产

from pykafka import KafkaClientclass KafkaProduct(): def __init__(self,hosts,topic): """ 初始化实例 :param hosts: 连接地址 :param topic: """ self.__client = KafkaClient(hosts=hosts) self.__topic = self

2020-09-27 15:21:51 115

原创 kafka-python 停止消费mac安装kafka

brew install kafka==> zookeeperTo have launchd start zookeeper now and restart at login: brew services start zookeeperOr, if you don't want/need a background service you can just run: zkServer start==> kafkaTo have launchd start kafka now a

2020-09-27 15:15:50 164

原创 date string 转化为weekday

def transform_date_to_weekday(date_str): day = datetime.datetime.strptime(date_str,"%Y%m%d") weekday = datetime.datetime.isoweekday(day) return weekday

2020-09-27 10:27:10 215

原创 mongodb导入hive

.背景公司希望使用MongoDB作为后端业务数据库,使用Hadoop平台作为数据平台。最开始是先把数据从MongoDB导出来,然后传到HDFS,然后用Hive/MR处理。我感觉这也太麻烦了,现在不可能没有人想到这个问题,于是就搜了一下,结果真找到一个MongoDB Connector for Hadoop1.版本一定要按它要求的来,jar包去http://mvnrepository.com/下载就可以了,使用Hive只需要三个:mongo-hadoop-core-1.5.1.jarmongo-had

2020-09-25 15:21:32 468

原创 pymongo常用

Python 直接连接mongodb数据库进行查询操作1、安装所需模块使用到的是pymongo模块,安装方法:pip3 install pymongo2、环境验证import pymongo3、连接数据库import pymongodef operating_mongodb():client = pymongo.MongoClient('ip_address', port)db_auth = client.databasedb_auth.authenticate("userna

2020-09-25 10:15:38 159

原创 cvid-19实时数据

from datetime import datetimeimport timeimport requestsclass Spider: def get_json(self,url): headers = { 'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/73.0.3683.86 Safari/537

2020-09-17 11:45:25 1481 1

原创 解决mac上mariadb不能远程访问的问题

mysql -uusername -ppassword -h127.0.0.1 ERROR 1698 (28000): Access denied for user 'andrew'@'localhost'找到mariadb的安装位置whereis mariadb没有反应which mariadb /usr/local/bin/mariadb查看具体的位置andrew@hackintosh:~#ll /usr/local/bin/mariadblrwxr-xr-x 1 and

2020-09-16 00:26:12 367

原创 pymongo读取数据然后转化为pandas dataframe

def _connect_mongo(host, port, db,username=None, password=None): """ A util for making a connection to mongo. """ if username and password: mongo_uri = "mongodb://%s:%s@%s:%s/%s" % (username, password, host, port, db) conn = pymongo

2020-09-10 10:55:58 1666

原创 centos7安装mongodb

MongoDB 4.2企业版使用.rpm包(推荐)1.配置存储库创建一个/etc/yum.repos.d/mongodb-enterprise.repo文件,以便可以使用以下yum命令直接安装MongoDB Enterprise。内容如下 :[mongodb-enterprise]name=MongoDB Enterprise Repositorybaseurl=https://repo.mongodb.com/yum/redhat/$releasever/mongodb-enterprise/

2020-09-09 13:51:22 93

原创 Upgrade after a crash is not supported. The redo log was created with Maria的解决办法

关于[InnoDB] Unsupported redo log format (0). The redo log was created before MySQL 5.7.9的解决办法利用mkdir和cp命令进行备份,mkdir backupcp /var/lib/mysql/ib_logfile0 /backupcp /var/lib/mysql/ib_logfile1 /backup然后删除备份前的这两个文件,rm /var/lib/mysql/ib_logfile0rm /var/lib

2020-09-08 19:32:13 4594 2

原创 mongodb 设置远程可以访问

1、首先修改mongodb的配置文件 让其监听所有外网ip编辑文件:/etc/mongodb.conf修改后的内容如下:bind_ip = 0.0.0.0port = 27017auth=true2、sudo systemctl restart mongodb3、连接#本地连接/usr/local/mongodb/bin/mongo#远程连接/usr/local/mongodb/bin/mongo 127.0.0.1/admin -u username -p password4、

2020-09-08 19:15:59 690

原创 创建一个分布式矩阵

import org.apache.spark.mllib.linalg.Matricesimport org.apache.spark.mllib.util.MLUtilsimport org.apache.spark.{SparkContext, SparkConf}object MatrixLearning { def main(args: Array[String]) { val mx = Matrices.dense(2, 3, Array(1, 2, 3, 4, 5, 6)

2020-09-01 20:23:27 361

原创 scala-spark read csv data

import org.apache.spark.mllib.util.MLUtilsimport org.apache.spark.{SparkContext, SparkConf}object labeledPointLoadlibSVMFile { def main(args: Array[String]) { val conf = new SparkConf().setMaster("local").setAppName(this.getClass().getSimpleName

2020-09-01 20:16:09 363

原创 设置静态ip地址

hadoop集群防止重启以后ip修改所以要修改静态ip地址1.解释搭集群的时候,需要设置静态ip,防止ip变化带来的集群连接问题2.代码:(1)interfaces文件修改:hadoop@hadoop101~$ sudo vi /etc/network/interfaces[sudo] password for hadoop:# interfaces(5) file used by ifup(8) and ifdown(8)auto eth0iface eth0 inet static

2020-09-01 15:19:50 258

原创 linux挂载其他硬盘

原来的硬盘是1TB的ssd现在不是很够用,买了一块3TB的机械硬盘,如何设置开机自启自动挂载。查看硬盘andrew@130manjaro:~#sudo fdisk -l [sudo] andrew 的密码:Disk /dev/nvme0n1:953.87 GiB,1024209543168 字节,2000409264 个扇区磁盘型号:HS-SSD-C2000 单元:扇区 / 1 * 512 = 512 字节扇区大小(逻辑/物理):512 字

2020-09-01 15:16:48 729

原创 scala-spark reduce,reduceByKey,sorted,lookup,take,saveAsTextFile

import java.text.SimpleDateFormatimport java.util.Dateimport org.apache.spark._object Reduce_demo { def main(args: Array[String]): Unit = { val conf = new SparkConf().setAppName("Transformation1").setMaster("local") val spark = new SparkConte

2020-09-01 00:43:56 215

原创 spark-scala transforamtion union join distinct

import org.apache.spark._import org.apache.spark.network.netty.SparkTransportConfobject Transformation { def main(args:Array[String]): Unit ={ val conf =new SparkConf().setAppName("Transformation1").setMaster("local") val spark=new SparkContex

2020-09-01 00:38:58 162

原创 scala-hadoop-hdfs-spark交互

import org.apache.spark._//import java.util._;import scala.util.Randomimport java.text.SimpleDateFormatimport java.util.Dateimport scala.math._object RDDparallelizeSaveAsFile { def main(args:Array[String]) { // val conf = new SparkConf().s.

2020-09-01 00:32:18 91

mac_lagou.ipynb

拉钩爬取程序拉钩爬取程序

2019-12-09

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除