4 小小谢先生

尚未进行身份认证

公众号:计算机视觉cv 知乎:https://www.zhihu.com/people/mo-ming-qi-miao-50-24/activities GitHub:https://github.com/xwr96

等级
TA的排名 3w+

从零开始学Pytorch(五)之欠拟合和过拟合

本文首发于微信公众号“计算机视觉cv”模型选择、过拟合和欠拟合训练误差和泛化误差训练误差(training error)指模型在训练数据集上表现出的误差,泛化误差(generalization error)指模型在任意一个测试数据样本上表现出的误差的期望,并常常通过测试数据集上的误差来近似。计算训练误差和泛化误差可以使用线性回归用到的平方损失函数和softmax回归用到的交叉熵损失函数。...

2020-02-25 22:35:27

GoogLenet网络解读及代码实现(Pytorch)

论文题目:Going deeper with convolutions论文链接:https://arxiv.org/abs/1409.4842论文研究目标利用赫布理论和多尺度处理直觉设计一种增加深度和宽度的提高内部计算资源利用率的(同时保持了计算预算不变)网络。网络主要结构...

2020-02-22 21:59:51

从零开始学Pytorch(四)之softmax与分类模型

softmax的基本概念分类问题一个简单的图像分类问题,输入图像的高和宽均为2像素,色彩为灰度。图像中的4像素分别记为x1,x2,x3,x4x_1, x_2, x_3, x_4x1​,x2​,x3​,x4​。假设真实标签为狗、猫或者鸡,这些标签对应的离散值为y1,y2,y3y_1, y_2, y_3y1​,y2​,y3​。我们通常使用离散的数值来表示类别,例如y1=1,y2=2,y3...

2020-02-21 12:02:23

从零开始学Pytorch(三)之多层感知机的实现

多层感知机的基本知识我们将以多层感知机(multilayer perceptron,MLP)为例,介绍多层神经网络的概念。隐藏层下图展示了一个多层感知机的神经网络图,它含有一个隐藏层,该层中有5个隐藏单元。表达公式设小批量样本X∈Rn×d\boldsymbol{X} \in \mathbb{R}^{n \times d}X∈Rn×d,nnn为批量大小,ddd为1输入个数。假设多层感知机...

2020-02-19 23:10:37

从零开始学Pytorch(零)之安装Pytorch

本文首发于公众号”计算机视觉cv“Pytorch优势  聊聊为什么使用Pytorch,个人觉得Pytorch比Tensorflow对新手更为友善,而且现在Pytorch在学术界使用的得更多,大有逆袭Tensorflow之势。最近两年的顶会文章中,代码用Pytorch的比Tensorflow多。大家如果对Tensorflow也感兴趣,完全可以学习了Pytorch之后继续学习Tens...

2020-02-15 21:29:48

Pytorch相关函数详解

一、backward()pytorch中的自动求导函数。一个神经网络有N个样本,经过这个网络把N个样本分为M类,那么此时backward参数的维度应该是【N *M】。正常来说backward()函数是不需要传入函数的,有时候也需要传入参数,现在来了解backward()需要传入的参数具体含义。不需要传入参数的例子如果out.backward()中的out是一个标量的话(相当于一个神经...

2020-02-15 16:35:06

从零开始学Pytorch之线性回归

线性回归主要内容包括: 线性回归的基本要素 线性回归模型从零开始的实现 线性回归模型使用pytorch的简洁实现 线性回归的基本要素模型为了简单起见,这里我们假设价格只取决于房屋状况的两个因素,即面积(平方米)和房龄(年)。接下来我们希望探索价格与这两个因素的具体关系。线性回归假设输出与各个输入之间是线性关系:数据集我们通常收集一系列的真实数据,例...

2020-02-14 15:27:23

特征工程系列学习(一)简单数字的奇淫技巧(下)

对数转换实战  让我们看看在监督学习中对数转换如何执行。我们将使用上面的两个数据集。对于 Yelp 评论数据集, 我们将使用评论的数量来预测商户的平均评级。对于 Mashable 的新闻文章, 我们将使用文章中的字数来预测其流行程度。由于输出是连续的数字, 我们将使用简单的线性回归作为模型。我们在没有对数变换和有对数变换的特色上,使用 Scikit Learn 执行10折交叉验证的线性回归。模...

2020-02-13 21:32:24

resnet论文解读及代码实现

ResNet是2015年ImageNet比赛的冠军,将识别错误率降低到了3.6%,这个结果甚至超出了正常人眼识别的精度。通过观察学习vggnet等经典神经网络模型,我们可以发现随着深度学习的不断发展,模型的层数越来越多,网络结构也越来越复杂。那么是否加深网络结构,就一定会得到更好的效果呢?从理论上来说,假设新增加的层都是恒等映射,只要原有的层学出跟原模型一样的参数,那么深模型结构就能达到原模型...

2020-02-09 18:13:41

特征工程系列学习(一)简单数字的奇淫技巧

标量、向量、空间  单个数字特征也称为标量。标量的有序列表称为向量。向量位于向量空间中。在绝大多数机器学习应用中, 对模型的输入通常表示为数字向量。向量可以被可视化为空间中的一个点。(有时人们从原点到那一点画一条线和一个箭头。在这本书中,我们将主要使用这一点。例如,假设我们有一个二维向量????=[1,−1]。也就是说,向量包含两个数,在第一方向????1中,向量具有1的值,并且在第二方向????2中,它具有−...

2020-02-06 22:39:04

动态滤波网络论文解读

论文题目:Dynamic Filter Networks论文链接:https://arxiv.org/pdf/1605.09673.pdfsummary在传统的卷积层中,经过训练后的学习滤波器保持不变。相反本篇论文引入了一种动态过滤器网络,根据输入动态生成,但是却没有过多地增加模型参数的数量。动态滤波网络组成总体框架如下图所示:动态滤波网络由过滤生成网络和动态过滤层组...

2020-02-03 17:33:51

OpenAI高调站队Pytorch,怎样学Pyorch?

Tensorflow和Pytorch框架之争由来已久,近日人工智能领军企业OpenAI公开表示全面转向Pytorch,并统一自家所有模型的框架标准。OpenAI高调站队Pytorch  对于深度学习框架的使用,整个人工智能学界主要分为两大阵营,分别是Pytoch和Tensorflow。两大框架一直不相上下。学术界一般用Pytorch,更适合学术研究;而工业界一般用Tensorflo...

2020-02-02 21:28:37

特征工程系列学习(零)引言

本文首发于微信公众号“计算机视觉cv”特征工程  机器学习将数据拟合到数学模型中来获得结论或者做出预测。这些模型吸纳特征作为输入。特征就是原始数据某方面的数学表现。在机器学习流水线中特征位于数据和模型之间。特征工程是一项从数据中提取特征,然后转换成适合机器学习模型的格式的艺术。这是机器学习流水线关键的一步,因为正确的特征可以减轻建模的难度,并因此使流水线能输出更高质量的结果。从业者们认...

2020-02-01 17:50:11

从零开始学keras之使用预训练的卷积神经网络

想要将深度学习应用于小型图像数据集,一种常用且非常高效的方法是使用预训练网络。 预训练网络(pretrained network)是一个保存好的网络,之前已在大型数据集(通常是大规模图像分类任务)上训练好。如果这个原始数据集足够大且足够通用,那么预训练网络学到的特征的空间层次结构可以有效地作为视觉世界的通用模型,因此这些特征可用于各种不同的计算机视觉问题,即使这些新问题涉及的类别和原始任务完全不同...

2020-01-18 18:56:25

从零开始学keras之kaggle猫狗识别分类器

使用很少的数据来训练一个图像分类模型,这是很常见的情况,如果你要从事计算机视觉方面的职业,很可能会在实践中遇到这种情况。“很少的”样本可能是几百张图像,也可能是几万张图像。来看一个实例,我们将重点讨论猫狗图像分类,数据集中包含 4000 张猫和狗的图像(2000 张猫的图像,2000 张狗的图像)。我们将 2000 张图像用于训练,1000 张用于验证,1000张用于测试。本节将介绍解决这一问题的...

2020-01-17 18:36:40

从零开始学keras之卷积神经网络介绍

卷积神经网络简介我们将深入讲解卷积神经网络的原理,以及它在计算机视觉任务上为什么如此成功。但在此之前,我们先来看一个简单的卷积神经网络示例,即使用卷积神经网络对 MNIST 数字进行分类,这个任务我们在第 2 章用密集连接网络做过(当时的测试精度为 97.8%)。虽然本例中的卷积神经网络很简单,但其精度肯定会超过第 2 章的密集连接网络。下列代码将会展示一个简单的卷积神经网络。它是Con...

2020-01-16 19:01:48

从零开始学keras之过拟合与欠拟合

在预测电影评论、主题分类和房价回归中,模型在留出验证数据上的性能总是在几轮后达到最高点,然后开始下降。也就是说,模型很快就在训练数据上开始过拟合。过拟合存在于所有机器学习问题中。学会如何处理过拟合对掌握机器学习至关重要。机器学习的根本问题是优化和泛化之间的对立。优化(optimization)是指调节模型以在训练数据上得到最佳性能(即机器学习中的学习),而泛化(generalization)是...

2020-01-11 20:32:05

从零开始学Pytorch之数据操作

import torchtorch.manual_seed(0)torch.cuda.manual_seed(0)print(torch.__version__)输出pytorch的版本号创建Tensor创建一个5x3的未初始化的Tensor:x = torch.empty(5, 3)print(x)输出为:tensor([[0.0000e+00, 1.0842e-1...

2020-01-10 18:46:58

从零开始学keras之预测房价

前面讲的都是分类问题,其目标是预测输入数据点所对应的单一离散的标签。另一种常见的机器学习问题是回归问题,它预测一个连续值而不是离散的标签,例如,根据气象数据预测明天的气温,或者根据软件说明书预测完成软件项目所需要的时间。注意:不要将回归问题与 logistic 回归算法混为一谈。令人困惑的是,logistic 回归不是回归算法,而是分类算法。波士顿房价预测本节将要预测 20 世纪 70...

2020-01-09 19:00:48

Ubuntu18.04安装opencv出现的一系列问题解决方法(持续更新~)

$ sudo make 出现以下问题1、this file requires compiler and library support for the iso c++ 2011 standard解决方法:在工程主目录的CMakeLists.txt中添加如下,可以编译成功:SET( CMAKE_CXX_FLAGS "-std=c++11 -O3")2、~/opencv_contri...

2020-01-08 17:20:59

查看更多

勋章 我的勋章
  • GitHub
    GitHub
    绑定GitHub第三方账户获取
  • 签到达人
    签到达人
    累计签到获取,不积跬步,无以至千里,继续坚持!
  • 技术圈认证
    技术圈认证
    用户完成年度认证,即可获得
  • 新人勋章
    新人勋章
    用户发布第一条blink获赞超过3个即可获得
  • 持之以恒
    持之以恒
    授予每个自然月内发布4篇或4篇以上原创或翻译IT博文的用户。不积跬步无以至千里,不积小流无以成江海,程序人生的精彩需要坚持不懈地积累!
  • 勤写标兵Lv2
    勤写标兵Lv2
    授予每个自然周发布4篇到6篇原创IT博文的用户。本勋章将于次周周三上午根据用户上周的博文发布情况由系统自动颁发。