3 WinstonYF

尚未进行身份认证

我要认证

一个注重外表的,天天保养的,呵护头发的,喜欢看文学的,空了卖海鲜的高级程序员

等级
TA的排名 15w+

[未完,还在写] 自己动手写一个 基于ROS用xacro文件新建自己的简单小车 搭载kinect

接下来写launch<launch> <arg name="model" default="$(find xacro)/xacro --inorder '$(find mrobot_description)/urdf/mrobot_with_kinect.urdf.xacro'" /> <arg name="gui" default="true" /> <param name="robot_description" command="$(arg mode

2020-07-08 17:28:41

在Ubuntu16.04下安装 labelImg

在Ubuntu16.04下安装 labelImg

2020-06-30 20:08:49

navigation

ROS与navigation教程-目录ROS 学习篇(八)机器人的导航功能--navigationSLAM建图与自主避障导航——3.ros-navigation机器人自主避障导航 古月(六)SLAM建图与自主避障导航——3.ros-navigation机器人自主避障导航...

2020-06-20 14:01:24

Two-Phase Kernel Estimation for Robust Motion Deblurring

声明:本文只是初步对这篇论文进行剖析和复现,会有一些不正确的地方,望各位仅作参考在github上找到的一个复现代码,但是作者失败了,我在此基础上修改,争取更接近成功 deblur两阶段稀疏核估计模糊过程建模为:B=I ⊗ k + ε,其中 I 是潜像,也就是 不是模糊状态的原图,k是模糊核,ε是图像噪声,⊗表示卷积,B是观察到的模糊图像论文中有许多关于PSF(点扩展估计函数)描述,P...

2020-04-26 09:55:30

pytorch 神经网络 Optimizer 优化器(SGD,Momentum,RMSprop,Adam)

要点几种优化器的讲解,请看莫烦的讲解(SGD,Momentum,RMSprop,Adam)这一篇主要讲解 SGD,Momentum,RMSprop,Adam的实战下图就是这节内容对比各种优化器的效果:伪数据import torchimport torch.utils.data as Dataimport torch.nn.functional as Ffrom torch.aut...

2020-04-19 19:52:13

批训练 DataLoader ,minibatch training,BATCH_SIZE,

要点Torch 中提供了一种帮你整理你的数据结构的好东西, 叫做 DataLoader, 我们能用它来包装自己的数据, 进行批训练.DataLoaderDataLoader 是 torch 给你用来包装你的数据的工具. 所以你要讲自己的 (numpy array 或其他) 数据形式装换成 Tensor, 然后再放进这个包装器中. 使用 DataLoader 有什么好处呢? 就是他们帮你有效地...

2020-04-16 16:13:22

最易懂的方式介绍 神经网络模型中的Epoch、Iteration、Batchsize

batchsize:简单点说,就是我们一次要将多少个数据扔进模型去训练,这个值介于1和训练样本总个数之间。batchsize太大或者太小都不好,如果该值太小,假设batchsize=1,每次用一个数据进行训练,如果数据总量很多时(假设有十万条数据),就需要向模型投十万次数据,完整训练完一遍数据需要很长的时间,训练效率很低;如果该值太大,假设batchsize=100000,一次将十万条数据扔进模...

2020-04-16 15:46:43

pytorch神经网络 训练好的模型保存提取

要点训练好了一个模型, 我们当然想要保存它, 留到下次要用的时候直接提取直接用, 这就是这节的内容啦. 我们用回归的神经网络举例实现保存提取.对整个网络保存我们快速地建造数据, 搭建网络:import torchfrom torch.autograd import Variableimport matplotlib.pyplot as plt#假数据# unsqueeze对数据维...

2020-04-15 10:05:43

pytorch使用torch.nn.Sequential快速搭建神经网络 torch.nn.Sequential与torch.nn.Module区别与选择

torch.nn.Sequential是一个Sequential容器,模块将按照构造函数中传递的顺序添加到模块中。另外,也可以传入一个有序模块。 为了更容易理解,官方给出了一些案例:# Sequential使用实例model = nn.Sequential( nn.Conv2d(1,20,5), nn.ReLU(), nn.Conv...

2020-04-14 10:33:22

pytorch区分类型 (分类) 莫烦版深度解析 classification 神经网络

要点这次我们也是用最简单的途径来看看神经网络是怎么进行事物的分类.下图是最终分类的效果建立数据集我们创建一些假数据来模拟真实的情况. 比如两个二次分布的数据, 不过他们的均值都不一样.import torchimport matplotlib.pyplot as pltimport torch.nn.functional as F# 数据n_data = torch.ones...

2020-04-12 12:28:46

Linux下搭建JDK与Tomcat,第一个JSP

https://www.jianshu.com/p/2b7aecdc8832

2020-04-09 10:23:15

Pytorch中的torch.cat()函数 按维数0拼接 按维数1拼接

cat( )的用法按维数0拼接(竖着拼)C = torch.cat( (A,B),0 )按维数1拼接(横着拼)C = torch.cat( (A,B),1 )按维数0拼接A=torch.ones(2,3) #2x3的张量(矩阵)print("A:\n",A,"\nA.shape:\n",A.shape,"\n")B=2*torch.ones(4,3) #4x3的张量(矩阵...

2020-03-24 20:40:48

torch.rand和torch.randn和torch.normal和torch.linespace()

torch.rand均匀分布torch.rand(*sizes, out=None) → Tensor返回一个张量,包含了从区间[0, 1)的均匀分布中抽取的一组随机数。张量的形状由参数sizes定义。参数:sizes (int…) - 整数序列,定义了输出张量的形状out (Tensor, optinal) - 结果张量import torchtorch.rand(2, 3)...

2020-03-24 20:01:41

pytorch报错 jupyter notebook 错误:RuntimeError: _th_normal not supported on CPUType for Long

错误:RuntimeError: _th_normal not supported on CPUType for Longimport torchtorch.normal(mean=0.5,std=torch.arange(1, 6))解决方案:tensor的数据类型换一下。import torchtorch.normal(mean=0.5,std=torch.arange(1, 6...

2020-03-24 19:51:57

pytorch 神经网络 关系拟合 (回归)

要点这次会来见证神经网络是如何通过简单的形式将一群数据用一条线条来表示. 或者说, 是如何在数据当中找到他们的关系, 然后用神经网络模型来建立一个可以代表他们关系的线条.建立数据集我们创建一些假数据来模拟真实的情况. 比如一个一元二次函数: y = a * x^2 + b, 我们给 y 数据加上一点噪声来更加真实的展示它....

2020-03-24 16:50:45

PyTorch中在反向传播前为什么要手动将梯度清零?optimizer.zero_grad()的意义

optimizer.zero_grad()意思是把梯度置零,也就是把loss关于weight的导数变成0.在学习pytorch的时候注意到,对于每个batch大都执行了这样的操作:optimizer.zero_grad() ## 梯度清零preds = model(inputs) ## inferenceloss = criterion(pr...

2020-03-23 17:58:50

Pytorch之parameters net.parameters()

1.预构建网络import torchimport matplotlib.pyplot as pltimport torch.nn.functional as F#torch.unsqueeze,torch.squeeze,torch.linspace我的之前文章有讲解#在torch中,只会处理2维的数据x=torch.unsqueeze(torch.linspace(-1,1,10...

2020-03-22 11:24:12

深度学习中的隐藏层

隐藏层的意义要说明隐藏层的意义,需要从两个方面理解,一个是单个隐藏层的意义,一个是多层隐藏层的意义。单个隐藏层的意义隐藏层的意义就是把输入数据的特征,抽象到另一个维度空间,来展现其更抽象化的特征,这些特征能更好的进行线性划分。举个例子,MNIST分类。输出图片经过隐藏层加工, 变成另一种特征代表 (3个神经元输出3个特征), 将这3个特征可视化出来。就有了下面这张图, 我们发现中间的隐藏...

2020-03-21 10:37:28

PyTorch中torch.linspace的详细用法

线性间距向量torch.linspace(start, end, steps=100, out=None) → Tensor返回一个1维张量,包含在区间start和end上均匀间隔的step个点。输出张量的长度由steps决定。参数:start (float) - 区间的起始点end (float) - 区间的终点steps (int) - 在start和end间生成的样本数out...

2020-03-20 12:43:21

pytorch学习 中 torch.squeeze() 维度进行压缩和torch.unsqueeze()维度进行扩充的用法

torch.squeeze()这个函数主要对数据的维度进行压缩,去掉维数为1的的维度,比如是一行或者一列这种,一个一行三列(1,3)的数去掉第一个维数为一的维度之后就变成(3)行。squeeze(a)就是将a中所有为1的维度删掉。不为1的维度没有影响。a.squeeze(N) 就是去掉a中指定的维数为一的维度。还有一种形式就是b=torch.squeeze(a,N) a中去掉指定的定的维数为一的...

2020-03-20 11:52:19

查看更多

勋章 我的勋章
  • 持之以恒
    持之以恒
    授予每个自然月内发布4篇或4篇以上原创或翻译IT博文的用户。不积跬步无以至千里,不积小流无以成江海,程序人生的精彩需要坚持不懈地积累!
  • 勤写标兵Lv2
    勤写标兵Lv2
    授予每个自然周发布4篇到6篇原创IT博文的用户。本勋章将于次周周三上午根据用户上周的博文发布情况由系统自动颁发。
  • 分享精英
    分享精英
    成功上传11个资源即可获取