3 爱学习的人工智障

尚未进行身份认证

暂无相关简介

等级
TA的排名 1w+

脚本语言

脚本语言就是一行行的文字命令,顺序执行文字命令得到最终的目标。

2020-05-06 07:05:14

小白学随机变量

随机变量的理解背景知识概率论研究目标随机试验概率分布数字特征产生背景定义背景知识概率论研究目标随机试验满足三个条件:(1)可重复性:相同条件下可重复进行。(2)每次试验的结果不唯一:从两方面理解,每次试验的结果不止一个,并且能事先明确所有可能的结果。如果结果唯一就是必然事件,例如:太阳东升西落。这是一个必然事件。(3)每次出现的结果都具有独立性:进行一次试验之前,不能确定哪一个结果...

2020-04-09 07:38:16

小白初学图像压缩算法(一)

图像压缩算法引言方法含义概念压缩比二级目录三级目录引言图像压缩算法的基础是信息论,由信息论的冗余度引入了压缩这个概念。本质是如何针对给定的数据,给定的场景,建立相应的模型,完成数据的压缩,同时保证图像的效果。方法香农的信息论,在不产生任何失真的前提下,通过合理的编码,对于每个信源符号分配不等长的码字,平均码长可以任意接近于信源的熵。含义将压缩算法和重构算法合并在一起,称之为压缩算法。...

2020-04-08 07:30:25

pytorch中contiguous()的理解

功能:将tensor的内存变为连续的。有些tensor并不是占用一整块内存,而是由不同的数据块组成,而tensor的view()操作依赖于内存是整块的,这时只需要执行contiguous()这个函数,把tensor变成在内存中连续分布的形式。注:在pytorch的最新版本0.4版本中,增加了torch.reshape(), 这与 numpy.reshape 的功能类似。它大致相当于 tenso...

2020-04-01 12:20:59

torch中view函数的用法

import torchimport numpyx = torch.tensor(2,2,2)t = x.view(1,8)#输出数组的大小为1*8t = x.view(-1,4)#输出数组的大小为2*4, -1表示自行判断t = x.view(8)#输出数组的大小为8*1t = x.view(-1)#输出数组的大小为1*8...

2020-04-01 12:14:52

图像分割中涉及的损失函数(主要用来处理样本不平衡)

图像分割中的损失函数前言解决办法损失函数1. log loss损失函数2. WBE loss3. Focal loss应用场景思想公式三级目录前言图像分割中的loss函数继承了深度学习模型中一般损失函数的所有特点,但是又有其自身的特点,即需要处理类别不平衡的问题,在进行图像分割中,往往图像中成为背景的像素值占绝大多数,而前景目标的像素只有很少一部分。注:以下链接详细介绍了深度学习模型中的一般...

2020-04-01 10:13:36

pytorch中nn.Conv2d卷积的padding的取值问题

明确卷积的计算公式:d = (d - kennel_size + 2 * padding) / stride + 1保证输入输出的分辨率大小一致,padding的取值:如果kernal_size = 3, padding = 1。kernal_size = 7, padding = 3.参考链接:https://blog.csdn.net/qq_26369907/article/det...

2020-03-31 06:31:56

Linux下运行Python代码遇到cannot connect to X server这个问题的解决办法

在Linux下运行Python代码遇到了这个问题。调查后发现,X server是Linux系统上提供图形用户界面的服务程序。当客户端主机Client访问服务器Server上的图形程序时,需要Server对该Client赋能访问图形程序的权限。所以原因是我在改opencv代码处理图片的时候,有一条cv2.imshow函数没有注释掉,这个函数在windows下可以直接调出窗口显示图片,在命令行下使...

2020-03-31 06:23:45

pytorch中交叉熵的妙用

注:对于图像分割而言,交叉熵的输入:通过深度学习模型的预测样本的输入为:SCHW,其中,S为样本数目,C为分类数目,H和W为图像样本尺寸。 样本标签的输入为:SH*W, 其中,S为样本数,H和W为图像样本尺寸。参考链接:https://blog.csdn.net/qq_22210253/article/details/85229988?depth_1-utm_source=distrib...

2020-03-31 06:20:58

一文读懂深度学习算法中的优化算法发展史

深度学习优化算法发展史优化算法的目的各种优化算法梯度下降法动量梯度法Adam优化算法优化算法的目的各种优化算法所有梯度算法都是基于梯度下降法进行演进的。主要分为三大阶段,第一阶段是梯度下降法,这个阶段的优化算法可以找到局部最优解,但是无法找到全局最优解,很容易陷入鞍点。第二阶段为动量梯度法,这个阶段的优化算法考虑了权重的优化方向,借鉴了动量的原理,可以在某种程度上跳出局部最优解,但是很容...

2020-03-23 19:45:19

pytorch损失函数之nn.CrossEntropyLoss()理解

功能:综合了softmax和交叉熵的功能。https://blog.csdn.net/geter_CS/article/details/84857220

2020-03-20 19:05:04

numpy数组转化为列表

使用**tolist()**完成数组转换,使用astype 能够指定数据类型from numpy import * #tolist astype a = array([1,2,3,4,5,6])print(a)print(a.tolist()) #将numpy中的数组转换为python中的列表print("-----------------------1111...

2020-03-20 17:31:27

matlabplit颜色控制

参考链接:https://blog.csdn.net/CD_Don/article/details/88070453?depth_1-utm_source=distribute.pc_relevant.none-task&utm_source=distribute.pc_relevant.none-task

2020-03-20 17:27:13

python字典和列表的相互转换

列表和字典的相互转换列表转化为字典字典转化为列表列表转化为字典使用zip函数完成转换a = ['a1','a2','a3','a4']b = ['b1','b2','b3']d = zip(a,b)print(dict(d)) # {'a1': 'b1', 'a2': 'b2', 'a3': 'b3'}字典转化为列表dit = {'name':'zxf', ...

2020-03-20 17:19:04

python中使用matlabplit绘制动态直方图

通过这样的动态作图,可以用来分析深度学习模型的性能。示例代码1:动态直方图import matplotlib.pyplot as pltfig, ax = plt.subplots()y1 = []for i in range(50): y1.append(i) # 每迭代一次,将i放入y1中画出来 ax.cla() # 清除键,清除所有的数值 #ax...

2020-03-20 17:09:23

如何在CSDN中编辑公式

使用......插入公式。(1)使用LATEX在线编辑器。(2)熟悉其语法之后,可以直接在CSDN界面编辑公式。示例:c=a+bc = a + bc=a+b参考链接:https://blog.csdn.net/lhp171302512/article/details/74943014...

2020-03-19 18:54:51

一文读懂深度学习模型中损失函数(均方误差,log loss和交叉熵)

误差函数理解定义功能与BP算法,激活函数的关系误差函数的特点常见误差函数均方误差函数公式应用场景pytorch实现代码交叉熵公式应用场景pytorch实现代码定义误差函数是关于模型输出和样本标签值之差的函数,通过对误差函数求导来调节权重参数。功能调节权重参数与BP算法,激活函数的关系误差函数的选择,不仅与要解决的问题有关,而且也和激活函数有关,然后通过对误差函数求导,利用BP调节模型中...

2020-03-19 18:48:50

pytorch中tensor和numpy互相转换

numpy转化为tensor.pytorch 基本函数中的 dim【详细说明】:以torch.argmax为例tensor转化为numpymodel_corr = model_corr.numpy()参考链接:https://blog.csdn.net/qianbin3200896/article/details/90233801?depth_1-utm_source=dis...

2020-03-19 14:53:33

pytorch 基本函数中的 dim说明

dim:表示维度,0:行,1:列示例代码:

2020-03-19 14:04:49

Python保留指定位数的小数

方法:’%.2f’ %f 方法(推荐)f = 1.23456print('%.4f' % f)print('%.3f' % f)print('%.2f' % f)format函数print(format(1.23456, '.2f'))print(format(1.23456, '.3f'))print(format(1.23456, '.4f'))ro...

2020-03-19 13:56:47

查看更多

勋章 我的勋章
  • 新人勋章
    新人勋章
    用户发布第一条blink获赞超过3个即可获得
  • 持之以恒
    持之以恒
    授予每个自然月内发布4篇或4篇以上原创或翻译IT博文的用户。不积跬步无以至千里,不积小流无以成江海,程序人生的精彩需要坚持不懈地积累!
  • 1024勋章
    1024勋章
    #1024程序员节#活动勋章,当日发布原创博客即可获得
  • 勤写标兵Lv3
    勤写标兵Lv3
    授予每个自然周发布7篇到8篇原创IT博文的用户。本勋章将于次周周三上午根据用户上周的博文发布情况由系统自动颁发。