5 ukakasu

尚未进行身份认证

我要认证

暂无相关简介

等级
TA的排名 2w+

kafka消息长度限制

更改为10M客户端代码增加:max_request_size=10485760,服务端配置:replica.fetch.max.bytes=10485760,message.max.bytes=10485760

2020-09-16 14:37:26

Pedestrian Attribute Recognition

目录行人属性识别主要挑战数据集RAPPETAPA-100k评价指标mAexample-based evaluation主流方法及未来方向相关工作HydraPlus...

2020-08-25 15:46:31

Keras限制tf后端的gpu显存用量

训练模型## keras example importsfrom keras.models import Sequentialfrom keras.layers import Dense, Dropoutfrom keras.layers import Embeddingfrom keras.layers import LSTM ## extra imports to set GPU optionsimport tensorflow as tffrom keras import bac.

2020-08-21 15:44:14

nifi mysql CDC to mysql

https://community.cloudera.com/t5/Community-Articles/Change-Data-Capture-CDC-with-Apache-NiFi-Part-1-of-3/ta-p/246623https://community.cloudera.com/t5/Community-Articles/Change-Data-Capture-CDC-with-Apache-NiFi-Part-2-of-3/ta-p/246519https://commun..

2020-08-21 15:25:57

redis哨兵模式配置

redis配置redis1#bind 127.0.0.1 protected-mode nodaemonize yesappendonly yes loglevel noticelogfile "/home/redis-5.0.2/logs/redis.log"dir "/home/redis-5.0.2"redis2#bind 127.0.0.1 protected-mode nodaemonize yes appendonly yes slaveof re

2020-08-11 15:51:12

milvus高可用搭建

**- 基于keepalived部署milvus高可用问题:双写冷备:两个写节点不能同时启动,否则会导致数据重复,通过增加与网关的连通性来解决可能同时启动的问题,但不能完全保证没有特殊情况的存在。另外宕机时可能会导致数据丢失。一写一读:可以同时启动,但是写节点宕机时,数据不能写入。** - 基于minio的共享存储,写入速度比本地磁盘慢,如果数据量较大需要适当减小index_file_size,默认1024M,可设置为512M。**一、milvus安装docker pull milvus新建目录

2020-08-11 15:39:40

minio对象存储搭建

一、ntp 服务器1 安装ntpyum install ntp1.1 服务端配置vi /etc/ntp.confrestrict 192.168.16.0 mask 255.255.255.0 nomodify notrapserver ntp1.aliyun.comserver time1.aliyun.comrestrict ntp1.aliyun.com nomodify notrap noqueryrestrict time1.aliyun.com nomodify notra

2020-08-11 15:30:31

AsyncProxyPool代理池中间件

import requestsfrom scrapy.downloadermiddlewares.retry import RetryMiddlewarefrom scrapy.utils.response import response_status_messageimport base64import logginglogger = logging.getLogger(__name...

2019-06-26 14:01:43

机器学习导图

2019-04-04 17:02:54

设计最优数据输入管道

设计最优数据输入管道使用 prefetch 函数去重叠 数据读取器 和 数据消耗器的工作。推荐在输入管道的末端添加 prefetch(n) (n是batch size),以重叠 CPU 上的变换 及 GPU/TPU设备上的训练。 dataset = dataset.batch(batch_size=FLAGS.batch_size) dataset = dataset.pre...

2019-01-07 17:16:11

使用TensorFlow Dataset 加速数据处理及训练

使用TensorFlow Dataset 加速数据处理及训练https://github.com/aymericdamien/TensorFlow-Examples/blob/master/notebooks/5_DataManagement/tensorflow_dataset_api.ipynbimport tensorflow as tffrom tensorflow.examples...

2019-01-07 17:13:11

应用TensorFlow构建lstm

应用TensorFlow构建lstmimport tensorflow as tffrom tensorflow.contrib import rnnfrom tensorflow.examples.tutorials.mnist import input_datamnist = input_data.read_data_sets("/tmp/data/", one_hot=True)...

2019-01-04 15:48:36

应用TensorFlow高级API构建卷积神经网络(2)--api解释

tf.estimator.inputs.numpy_input_fndef numpy_input_fn(x, y=None, batch_size=128, num_epochs=1, shuffle=None, ...

2019-01-03 09:40:07

应用TensorFlow高级API构建卷积神经网络(1)--代码

应用TensorFlow高级API构建卷积神经网络两个卷积层,两个全连接层输入 [sample * 28 * 28 * 1 ] (灰度图)[ 28 * 28 1 ] --> (32个卷积核,每个大小551,sample方式卷积) --> [ 28 * 28 * 32] --> (池化 22 ,步长2)–> [14 *14 *32][ 14 * 14 32] -...

2019-01-03 09:36:55

应用TensorFlow构建卷积神经网络

应用TensorFlow构建卷积神经网络两个卷积层,两个全连接层输入 [sample * 28 * 28 * 1 ] (灰度图)[ 28 * 28 1 ] --> (32个卷积核,每个大小551,sample方式卷积) --> [ 28 * 28 * 32] --> (池化 22 ,步长2)–> [14 *14 *32][ 14 * 14 32] ...

2019-01-03 09:32:00

应用TensorFlow高级api构建全连接神经网络(2)--api解释

tf.layers.densetf.layers.dense( inputs, units, activation=None, use_bias=True, kernel_initializer=None, bias_initializer=tf.zeros_initializer(), kernel_regularizer=None, ...

2019-01-03 09:30:21

应用TensorFlow高级api构建全连接神经网络(1)--代码

应用TensorFlow高级api构建全连接神经网络https://github.com/aymericdamien/TensorFlow-Examples/blob/master/notebooks/3_NeuralNetworks/neural_network.ipynbimport numpy as npimport tensorflow as tffrom tensorflow....

2018-12-29 16:04:12

应用TensorFlow构建全连接神经网络

应用TensorFlow构建全连接神经网络https://github.com/sjchoi86/tensorflow-101/blob/master/notebooks/mlp_mnist_xavier.ipynbimport numpy as npimport tensorflow as tffrom tensorflow.examples.tutorials.mnist import...

2018-12-29 16:02:09

TensorFlow深度神经网络配置

建议DNN配置名称配置权重初始化He initialization激活函数ELU归一化Batch Normalization正则化dropout优化器Adam学习速率调整None全连接层from tensorflow.contrib.layers import fully_connectedwith tf.name_scop...

2018-12-29 15:55:12

9 前向神经网络

9 前向神经网络01 常用激活函数Sigmoid激活函数Tanh激活函数ReLU激活函数02 梯度消失Sigmoid激活函数将输入z映射到区间(0, 1) , 当z很大时, f(z)趋近于1; 当z很小时, f(z)趋近于0。 其导数在z很大或很小时都会趋近于0, 造成梯度消失的现象。Tanh激活函数相当于Sigmoid的平移, 同样会出现梯度消失。03 ReLU激活函数的...

2018-12-25 09:42:57

查看更多

勋章 我的勋章
  • 持之以恒
    持之以恒
    授予每个自然月内发布4篇或4篇以上原创或翻译IT博文的用户。不积跬步无以至千里,不积小流无以成江海,程序人生的精彩需要坚持不懈地积累!
  • 1024勋章
    1024勋章
    #1024程序员节#活动勋章,当日发布原创博客即可获得
  • 勤写标兵Lv1
    勤写标兵Lv1
    授予每个自然周发布1篇到3篇原创IT博文的用户。本勋章将于次周周三上午根据用户上周的博文发布情况由系统自动颁发。