自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(42)
  • 收藏
  • 关注

原创 【清华大学开源软件镜像站】

一些常用的软件,使用量比较大的软件或工具,下载速度较慢的,可以试试清华镜像,在网站里搜索一下试试。

2024-03-29 10:19:37 231

转载 安装独立显卡后,显示器数据线应该接到那个接口?是主板上的接口还是独立上的接口?

有独立显卡的机箱,怎样外接显示器?接口应该怎样接?

2024-02-21 10:44:34 198

转载 Python版本VTK官方文档教程学习(三)

介绍如何在一个Renderwindow中使用多个Renderer。在Step1中有提到,在一个Renderwindow中可以同时显示多个Renderer,简单来说就是一个渲染窗口中可以显示一个或多个不同的场景。可以想象一下3DSlicer、Rhino等等从三视图的角度同时观察同一个模型的情况,大概是这个意思。

2023-12-12 17:32:09 187

转载 8051系列单片机汇编语言指令速查表(汇编语言的111条指

8051系列单片机汇编语言指令速查表(汇编语言的111条指_纳兰容若的左手_新浪博客 http://blog.sina.com.cn/s/blog_6486c0b30100gqew.html编号 指令名称 指令助记符 指令说明数据传送类指令1 一般传送 MOV A, #data 将立即数#data送累加器A2 MOV direct, #data 将立即数#data送片内RAM direct地址单元内3 Mov Rn, #data 将立即数#data送寄存器Rn4 Mov @Ri, #.

2022-02-17 14:21:19 5377

原创 【Keil C51】使用 watch1 来查看变量的值

在使用Keil C51,进行软件调试时,对变量观察的办法如下:在变量处单击右键,选择添加至watch1窗口,即可看到R6变量在代码调试运行时,具体的数值变化。

2022-02-17 14:13:55 3087

原创 汇编 DA A 十进制调整指令

【转载】小伙伴们求同去《汇编 DA A十进制调整指令》, 一起来围观吧 https://blog.csdn.net/m0_58836581/article/details/121525715?utm_source=app&app_version=4.20.0&code=app_1562916241&uLinkId=usr1mkqgl919blen二进制加法指令不能完全适用BCD码十进制的加法运算,故应对压缩的BCD码的加法结果需要进行有条件的修正。出错原因及调整方法BCD码(4

2022-02-11 13:50:14 3915 3

原创 汇编指令:左移RL和RLC区别

转载:https://www.cnblogs.com/zhangfan2014/p/4583947.html汇编指令RL和RLC区别RL是左移指令,参加左移的是8个位RLC是带进位位的左移,参加左移的共有9个位设A=0100_0001,C=1;如果执行RL , 则A=1000_0010,C=1(A所有位左移一位,最低位补零,C不参加移位操作,保持原值不变)如果执行RLC, 则A=1000_0011,C=0 (A的最高位移到C,C原值移到A最低位)...

2022-02-06 20:36:22 5059

原创 python 深度学习模型训练 多GPU下如何调用

查看GPU状态和信息nvidia-smi1在这里插入图片描述在这里插入图片描述定时刷新状态,-n(秒),每秒刷新一次watch -n 1 nvidia-smi1指定可见GPU终端跑程序指定GPUCUDA_VISIBLE_DEVICES=0 python XXX.py1或者在python文件中加入import osos.environ[“CUDA_VISIBLE_DEVICES”] = “0”12多块GPU可选os.environ[“CUDA_VISIBLE_DEVICES”

2021-07-16 16:48:23 1009

原创 argsort()返回数据从小到大的“索引值”

a=np.array([3,5,1,2,2,6])a.argsort()#output:array([2, 3, 4, 0, 1, 5])argsort返回数据从小到大的索引值a=np.array([3,5,1,2,2,6])a.argsort()[::-1]#output:array([5, 1, 0, 4, 3, 2])这样可以返回从大到小索引值import numpy as nptop_k=3arr = np.array([91, 33, 92, 24, 25])top_k_

2021-06-02 21:51:54 367

转载 Keras.layers各种层介绍,网络层、卷积层、池化层 等

【转载】Keras.layers各种层介绍 - 心冰之海 - bk园 https://www.cnblogs.com/lhxsoft/p/13534667.html文章导航一、网络层1、常用网络层1.1、Dense层(全连接层)1.2、Activation层 ,激活层1.3、dropout层,“随机丢弃层”1.4、Flatten层,“压平层”1.5、Reshape层,“重塑张量形状 层”2、卷积层Convolutional2.1、Conv1D层,一维卷积层3、池化层Pooling3.1、MaxPoo.

2021-05-20 17:31:01 1656

转载 【tensorflow-keras-BatchNormalization】BatchNormalization批量标准化层

标准化层 Normalization - Keras 中文文档 https://keras.io/zh/layers/normalization/#batchnormalizationkeras.layers.BatchNormalization(axis=-1, momentum=0.99, epsilon=0.001, center=True, scale=True, beta_initializer='zeros', gamma_initializer='ones', moving_me.

2021-05-20 12:06:00 1193

转载 【tensorflow-keras-GRU】keras.layers.GRU 门限循环单元网络(Gated Recurrent Unit)

循环层 Recurrent - Keras 中文文档 https://keras.io/zh/layers/recurrent/#gruGRUkeras.layers.GRU(units, activation='tanh', recurrent_activation='hard_sigmoid', use_bias=True, kernel_initializer='glorot_uniform', recurrent_initializer='orthogonal', bias_initi.

2021-05-19 23:44:08 3239

转载 【tensorflow】Sequential 模型方法

深入学习Keras中Sequential模型及方法 - 战争热诚 - bky https://www.cnblogs.com/wj-1314/p/9579490.htmlSequential 序贯模型序贯模型是函数式模型的简略版,为最简单的线性、从头到尾的结构顺序,不分叉,是多个网络层的线性堆叠。Keras实现了很多层,包括core核心层,Convolution卷积层、Pooling池化层等非常丰富有趣的网络结构。我们可以通过将层的列表传递给Sequential的构造函数,来创建一个Seque.

2021-05-19 22:38:41 1051

转载 【tensorflow】Sequential 模型方法 compile, model.compile

Sequential 顺序模型 API - Keras 中文文档https://keras.io/zh/models/sequential/compile(optimizer, loss=None, metrics=None, loss_weights=None, sample_weight_mode=None, weighted_metrics=None, target_tensors=None)用于配置训练模型。参数optimizer: 字符串(优化器名)或者优化器对象。详见 opt.

2021-05-19 19:37:31 1266

转载 【tensorflow】model.fit() fit函数

【转载并参考】model.fit() fit函数_a1111h的博客-CSDN博客 https://blog.csdn.net/a1111h/article/details/82148497fit( x, y, batch_size=32, epochs=10, verbose=1, callbacks=None,validation_split=0.0, validation_data=None, shuffle=True, class_weight=None, sample_weight=N.

2021-05-18 22:02:05 5250 2

原创 树莓派清华镜像源“stretch”更换为“buster”,解决tensorflow、h5py安装包下载报错问题

【部分转载】 树莓派想使用 aptitude 解决依赖包问题,但是使用 apt-get 安装 aptitude 时出现依赖包错误怎么办?_FightingBoom的博客-CSDN博客 https://blog.csdn.net/fightingboom/article/details/1068790191 问题描述按照网上教程:为树莓派更换国内镜像源,更换树莓派镜像源为国内的 清华源 后,换国内镜像源是为了pip 下载各种工具包速度更快,但是正是这部分都按照别人的教程,没有注意到是否与自己的树莓派.

2021-05-15 16:35:38 1609 1

转载 【Python-pywt】 小波变化库—Pywavelets 学习笔记

(转载) [Python ]小波变化库——Pywavelets 学习笔记_nanbei2463776506的博客-CSDN博客 https://blog.csdn.net/nanbei2463776506/article/details/64124841?utm_medium=distribute.pc_relevant.none-task-blog-2%7Edefault%7EBlogCommendFromBaidu%7Edefault-6.control&dist_request_id=16.

2021-04-28 00:56:35 8165

转载 【TensorFlow】tf.nn.softmax_cross_entropy_with_logits中的“logits”到底是个什么意思?

tf.nn.softmax_cross_entropy_with_logits中的“logits”到底是个什么意思?_玉来愈宏的随笔-CSDN博客 https://blog.csdn.net/yhily2008/article/details/80262321tf.nn.softmax_cross_entropy_with_logits函数是TensorFlow中常用的求交叉熵的函数。其中函数名中的“logits”是个什么意思呢?它时不时地困惑初学者,下面我们就讨论一下。1.什么是logits?.

2021-04-24 20:21:13 313

转载 【TensorFlow】tf.nn.softmax_cross_entropy_with_logits 函数:求交叉熵损失

【TensorFlow】tf.nn.softmax_cross_entropy_with_logits的用法_xf__mao的博客-CSDN博客 https://blog.csdn.net/mao_xiao_feng/article/details/53382790#在计算loss的时候,最常见的一句话就是tf.nn.softmax_cross_entropy_with_logits,那么它到底是怎么做的呢?首先明确一点,loss是代价值,也就是我们要最小化的值tf.nn.softmax_cro.

2021-04-24 19:16:50 292

原创 神经网络中Epoch、Iteration、Batch_size相关理解和说明

神经网络的有监督学习,实现权值更新一般有三种典型方案。随机梯度下降法(SGD): 计算每个训练数据的误差,并立即调整权重。如果我们有 100 个训练数据点,SGD 将调整权重100 次。在批处理方法中,针对训练数据的所有误差,计算每个权重更新,并且使用权重更新的 平均值 来调整权重。该方法使用所有的训练数据,只执行一次更新操作。小批量处理:从 100 个训练数据中挑选出 20 个随机的数据,小批量处理方法将被应用于这 20 个数据的处理。在这个例子中,总共进行 5 次加权调整才能完成所有数据的训练

2021-04-23 19:36:46 780

原创 【numpy】中,对axis【轴】axis=0 axis=1的理解

版权声明:下文一部分为CSDN博主「贾辛洪」的原创文章,遵循CC 4.0 BY-SA版权协议,转载请附上原文出处链接及本声明。原文链接:https://blog.csdn.net/jiaxinhong/article/details/81772392首先请看一下官方帮助的解释:轴用来为超过一维的数组定义的属性,二维数据拥有两个轴:- 第0轴,沿着行的方向,垂直往下,- 第1轴,沿着列的方向,水平延伸。注意看,官方对于0和1的解释是轴,也就是坐标轴。而坐标轴是有方向的,所以千万不要用行和列的思.

2021-04-22 23:15:25 668

原创 【tensorflow】中 tf.reduce_mean函数:求均值

参考文章:版权声明:本文其中一部分参考了CSDN博主「-牧野-」的原创文章,转载请附上原文出处链接及本声明。原文链接:https://blog.csdn.net/dcrmg/article/details/79797826tf.reduce_mean 函数用于计算张量tensor沿着指定的数轴(tensor的某一维度)上的的平均值,主要用作降维或者计算tensor(图像)的平均值。tf.reduce_mean 函数reduce_mean( input_tensor, axis=.

2021-04-22 02:00:49 1227 1

转载 【TensorFlow】占位符:tf.placeholder,与feed_dict

TensorFlow占位符:tf.placeholder_w3cschool https://www.w3cschool.cn/tensorflow_python/tensorflow_python-w7yt2fwc.htmltf.placeholder 函数:插入一个张量的占位符,这个张量将一直被提供.placeholder( dtype, #数据类型。常用的是tf.float32,tf.float64等数值类型 shape=None,#数据形状。默认是None,就是一.

2021-04-21 17:49:12 404

原创 【python-numpy 】中的随机打乱数据方法np.random.shuffle

描述:shuffle() 方法将序列的所有元素随机排序。#实验可得每次shuffle后数据都被打乱,这个方法可以在机器学习训练#的时候在每个epoch结束后将数据重新洗牌进入下一个epoch的学习import tensorflow.compat.v1 as tftf.disable_v2_behavior()import numpy as npnum = np.arange(30)print("从数值范围[0-30)创建数组") print(num)np.random.shuf

2021-04-20 23:35:56 2662 1

转载 【Python-numpy】range()、np.arange()、np.linspace()、np.logspace()的使用和区别,list和array不同

1.【Python】range()、np.arange()、np.linspace()、np.logspace()的使用和区别_秋天-CSDN博客本文链接:https://blog.csdn.net/duanlianvip/article/details/1001027972.python 中 array 和 list 的区别 - 知乎 https://zhuanlan.zhihu.com/p/261636002?utm_source=wechat_session

2021-04-20 22:13:31 1351

转载 【python】中的“.T”操作:转置

python中的“.T”操作 - 回忆瞬间 - 博客园 https://www.cnblogs.com/peixu/p/7991715.html其实就是对一个矩阵的转置。看代码:aarray([[1, 2, 3], [4, 5, 6], [7, 8, 9]])a.Tarray([[1, 4, 7], [2, 5, 8], [3, 6, 9]])...

2021-04-20 16:06:27 6665

转载 【tensorflow】tf.layers.conv1d函数解析(一维卷积)

TensorFlow函数:tf.layers.Conv1D_w3cschool https://www.w3cschool.cn/tensorflow_python/tensorflow_python-283f2t0b.html功能1D卷积层(例如,时间卷积).一维卷积一般用于处理文本数据,常用语自然语言处理中定义:tf.layers.conv1d(inputs,filters,kernel_size,strides=1,padding='valid',data_format='.

2021-04-19 22:26:05 7349 2

转载 【tensorflow】全连接层函数tf.layers.dense()原理

TensorFlow全连接层函数tf.layers.dense()原理 - jian shu https://www.jianshu.com/p/3855908b4c29最近在用TensorFlow实现CNN网络时用到了全连接层,在网上看了很多有关全连接层实现的代码,发现相当一部分人都还是倾向于自己构造权重矩阵W和偏移矩阵b,利用矩阵乘法实现全连接层。而TensorFlow中封装了全连接层函数tf.layers.dense(),但是官方文档中并没有解释其详细原理。网上有部分博客对此提及,但也少有涉.

2021-04-19 17:08:06 3816 2

转载 【Python】中小括号()、中括号[]、花括号{}的区别详解

Python3中小括号()、中括号[]、花括号{}的区别详解_python_ https://www.jb51.net/article/199741.htm在Python语言中最常见的括号有三种,分别是:小括号()、中括号[ ]、花括号{ };其作用也不相同,分别用来代表不同的Python基本内置数据类型。小括号()Python中的小括号():代表tuple元祖数据类型,元祖是一种不可变序列。示例>>> a = (12,23)>>> a(12, 23.

2021-04-19 16:11:53 1791

转载 【python-numpy】工具包中np.random.choice()的用法详解及其参考

本文为CSDN博主「ImwaterP」的原创文章,转载请附上原文出处链接及本声明。原文链接:https://blog.csdn.net/ImwaterP/article/details/96282230处理数据时经常需要从数组中随机抽取元素,这时候就需要用到np.random.choice()。然而choice用法的官方解释并不详细,尤其是对replace参数的解释,例子也不是很全面。因此经过反复实验,我较为详细的总结出了他的用法,并给出了较为详细的使用代码例子。官方解释:https://docs.

2021-04-18 23:36:09 693

转载 【tensorflow】tf.reshape函数说明:重塑张量

函数原型:tf.reshape( tensor, shape, name=None)功能改变张量(tensor)的形状。tensor形参传入一个tensor。shape传入一个向量,代表新tensor的维度数和每个维度的长度。如果传入[3,4,5],就会返回一个内含各分量数值和原传入张量 一模一样的345尺寸的张量。如果shape传入的向量某一个分量设置为-1,比如[-1,4,5],那么这个分量代表的维度尺寸会被自动计算出来。用法一,一个尺寸为1 9的张量转化为3 *

2021-04-17 22:12:50 1642

转载 深度学习TensorFlow取名由来,张量的理解

以下部分为CSDN博主「麦地与诗人」的原创文章,转载请附上原文出处链接及本声明。原文链接:https://blog.csdn.net/YPP0229/article/details/94321792内容摘录自张玉宏的《深度学习之美》,作为自己的学习笔记!TensorFlow为什么要取这么一个名字呢?这自然也是有讲究的 。Tensor Flow的命名源于其运行原理:“Tensor”的本意是“张量”,“张量”通常表示多维矩阵。在深度学习项目中,数据大多都高于二维,所以利用深度学习处理的数据的核心.

2021-04-17 18:35:05 434

转载 初识Python之安装—anaconda pycharm区别

转自anaconda pycharm区别-Python学习网https://www.py.cn/tools/anaconda/15823.htmlanaconda pycharm区别Anaconda简介:Anaconda指的是一个开源的Python发行版本,其包含了conda、Python等180多个科学包及其依赖项。 因为包含了大量的科学包,Anaconda 的下载文件比较大(约 531 MB),如果只需要某些包,或者需要节省带宽或存储空间,也可以使用Miniconda这个较小的发行版(仅包含.

2021-03-07 16:05:11 563

转载 break与continue的区别

break与continue的区别:点我戳原文链接:在循环体内,break语句和continue语句的区别在于:使用break语句是跳出当前循环,并执行当前循环之后的语句;而continue语句是终止当前循环,并继续执行下一次循环。...

2020-12-23 22:00:36 82

原创 【C语言】switch…case无break情况(2)

菜鸡自学注意case后是否有break。当满足条件的case后无break时,运行此case后的所有语句,既后面的case,default都失效了,保留其他代码。int i; for(i=0;i<3;i++) switch(i) { case 0: printf("i=%d case 0\n",i); case 1: printf("i=%d case 1\n\n",i); default : printf("i=%d default\n\n\n"

2020-12-21 16:49:51 2840

原创 【C语言】while后接分号“ ;”的用法

菜鸡自学时刻注意while后是否有分号;不要被迷惑!while 不带分号;时 int y=10; int sum=0; while(y<13)//; { sum++; ++y; printf("y=%d;sum=%d\n",y,sum); } printf("\ny=%d;sum=%d",y,sum);while 与下面大括号内的循环体构成一个整体。每当满足while( )括号内的循环条件(既括号内值为非

2020-12-21 16:04:53 16365 12

转载 【C语言】%[修饰符] 格式字符

菜鸡自学????原链接:《C语言中%d,%s,%x,%f,%.100f,%的意思》, 一起来围观吧 https://blog.csdn.net/qq_32365567/article/details/55045942?utm_source=app格式说明由“%”和格式字符组成,如%d%f等。它的作用是将输出的数据转换为指定的格式输出。格式说明总是由“%”字符开始的。格式字符有d,o,x,u,c,s,f,e,g等。如%d整型输出,%ld长整型输出,%o以八进制数形式输出整数,%x以十六进制数形式输

2020-12-20 18:25:11 743 1

原创 【C语言】逗号运算符 ,

菜鸡自学C语言中,逗号运算符的优先级最低。 int a; int b; a = 3; b=++a,4-2,a+5; //优先级 printf("b1= %d\n",b); // b=++a=4; a = 3; //a值重新赋回来 b=(++a,4-2,a+5); //结合性 printf("b2= %d\n",b); // b=((++a)+5)=9; return 0;第一个b,后面赋值表达式中,自加“++”的优先级高于,逗

2020-12-20 17:30:19 2162 3

原创 【C语言】switch中无break的情况

菜鸡自学switch…case的三个规则:(1)既无成功匹配,又无default字句,那么swtich语句块什么也不做;(2)无成功匹配,但有default,那么swtich语句块做default语句块的事;(3)有成功匹配,没有break,那么成功匹配后,一直执行,直到遇到break。int x,y,z; x=0;y=0; z=1; switch(z) { case 0:y++; case 1:x++; //无break; case 2:x++;

2020-12-19 14:43:12 6031 1

原创 【C语言】x++与++x

x++与++x【菜鸡自学】int c=5; //printf(" c++=%d\n",c++);//6 if(c++>5)//此时返回递增前的数值 printf(" c=%d\n",c);// else {printf(" c=%d\n",c);//为之前的c++后的值6printf(" c--=%d\n",c--);//返回递减前的数值6,但是实际值为5printf(" --c=%d\n",--c);//返回递减后的数值5-1=4,实际值也为4

2020-12-19 14:15:55 2341 1

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除