3 nine_mink

尚未进行身份认证

算法,代码,语言,软件

等级
TA的排名 7w+

怎么写一份好的简历

赵本山的一个小品里说:猫走不走直线取决于耗子。一个求职者简历好不好,完全取决于招聘者。有些人觉得自己的简历做的不错,为什么一投出去就石沉大海,杳无音信?很大的原因是你的简历并没有吸引住招聘者的眼球。没有吸引住招聘者的眼球,又在很大程度上是因为你只从自己的眼光来看自己的简历,而没有从招聘者的立场看待自己的简历。无论你的简历做的多么精美,你都要清楚一点,招聘者在筛选简历时根本没时间把你的简历看个遍。...

2020-04-30 23:12:26

通俗理解BN(Batch Normalization)

1. 深度学习流程简介1)一次性设置(One time setup)- 激活函数(Activation functions)​ - 数据预处理(Data Preprocessing)​ - 权重初始化(Weight Initialization)​ - 正则化(Regularization:避免过拟合的一种技术)​ - 梯度检查(Gradient che...

2020-04-01 22:04:04

B站吴恩达深度学习视频笔记(34)——为什么正则化可以防止过拟合

为什么正则化有利于预防过拟合呢?(Why regularization reduces overfitting?)为什么正则化有利于预防过拟合呢?为什么它可以减少方差问题?我们通过两个例子来直观体会一下。左图是高偏差,右图是高方差,中间是Just Right,这几张图我们在前面课程中看到过。现在我们来看下这个庞大的深度拟合神经网络。我知道这张图不够大,深度也不够,但你可以想象这是一个过...

2020-04-01 19:19:42

B站吴恩达深度学习视频笔记(33)——正则化的解释

正则化(Regularization)深度学习可能存在过拟合问题——高方差,有两个解决方法,一个是正则化,另一个是准备更多的数据,这是非常可靠的方法,但你可能无法时时刻刻准备足够多的训练数据或者获取更多数据的成本很高,但正则化通常有助于避免过拟合或减少你的网络误差。如果你怀疑神经网络过度拟合了数据,即存在高方差问题,那么最先想到的方法可能是正则化,另一个解决高方差的方法就是准备更多数据,...

2020-04-01 18:30:51

B站吴恩达深度学习视频笔记(32)——神经网络训练的方差和偏差分析

这一节我们学习在神经网络学习训练时出现的结果进行分析,偏差和方差的表现和优化,仔细看好咯~偏差,方差(Bias /Variance)几乎所有机器学习从业人员都期望深刻理解偏差和方差,这两个概念易学难精,即使你自己认为已经理解了偏差和方差的基本概念,却总有一些意想不到的新东西出现。关于深度学习的误差问题,另一个趋势是对偏差和方差的权衡研究甚浅,你可能听说过这两个概念,但深度学习的误差很少权衡二...

2020-04-01 17:57:37

B站吴恩达机器学习视频笔记(31)——网络训练验证测试数据集的组成介绍

从今天开始我们进入新的一个大方向了,改善深层神经网络:超参数调试、正则化以及优化,首先进入深度学习的一个新层面,先认识下在深度学习中的数据集的分类。之前可能大家已经了解了神经网络的组成的几个部分,那么我们将继续学习如何有效运作神经网络,内容涉及超参数调优,如何构建数据,以及如何确保优化算法快速运行,从而使学习算法在合理时间内完成自我学习。训练,验证,测试集(Train / Dev / Test...

2020-04-01 15:16:57

B站吴恩达深度学习视频笔记(30)——深度学习与大脑的区别

深度学习和大脑有什么关联性吗?回答是:关联不大。那么人们为什么会说深度学习和大脑相关呢?当你在实现一个神经网络的时候,那些公式是你在做的东西,你会做前向传播、反向传播、梯度下降法,其实很难表述这些公式具体做了什么,深度学习像大脑这样的类比其实是过度简化了我们的大脑具体在做什么,但因为这种形式很简洁,也能让普通人更愿意公开讨论,也方便新闻报道并且吸引大众眼球,但这个类比是非常不准确的。一个神...

2020-03-31 22:50:42

B站吴恩达深度学习视频笔记(29)——为什么要使用深度神经网络?

为什么使用深层表示?(Why deep representations?)我们都知道深度神经网络能解决好多问题,其实并不需要很大的神经网络,但是得有深度,得有比较多的隐藏层,这是为什么呢?我们一起来看几个例子来帮助理解,为什么深度神经网络会很好用。首先,深度网络在计算什么?如果你在建一个人脸识别或是人脸检测系统,深度神经网络所做的事就是,当你输入一张脸部的照片,然后你可以把深度神经网络的...

2020-03-31 22:46:54

B站吴恩达深度学习视频笔记(28)——深度神经网络说明以及向前传播向后传播实现

深层神经网络(Deep L-layer neural network)目前为止我们已经学习了只有一个单独隐藏层的神经网络的正向传播和反向传播,还有逻辑回归,并且你还学到了向量化,这在随机初始化权重时是很重要。目前所要做的是把这些理念集合起来,就可以执行你自己的深度神经网络。复习下前面21个笔记的内容:逻辑回归,结构如下图左边。一个隐藏层的神经网络,结构下图右边:注意,神经网络的层数是这...

2020-03-31 22:32:49

神经网络中的隐藏层

问题神经网络中隐层有确切的含义吗?还是说神经网络的内部结构只能是黑盒,我们无从得知自己训练的每一个隐层节点权重的确切含义呢。一层隐层网络就是一层特征层次,每一个神经元可以类似看作一个特征属性。先解释一层隐层网络就是一层特征层次这一点,有一点拗口。这在传统的神经网络中还不是很明显,在CNN中尤为明显。要明白这一点,首先得理解感受野。感受野是指CNN卷积核在卷积过程中关注的区域,比如第一层5×...

2020-03-31 22:22:49

手动实现用L2正则化防止过拟合

版权声明:本文为博主原创文章,遵循 CC 4.0 BY-SA 版权协议,转载请附上原文出处链接和本声明。本文链接:https://blog.csdn.net/liangyihuai/article/details/78811664在神经网络中,正则化的作用是防止过拟合,本文将结合一个实例来讲解神经网络中的L2正则化,并手动(不使用框架)实现出来。先来看代码运行结果:增加L2正则化之前...

2020-03-26 20:04:49

神经网络的权重初始化为什么要随机

在神经网络中,我们知道输入层的节点个数在就是输入数据个特征(feature)个数,在隐藏层,节点的个数也代表着数据在经过处理之后新”提取“出来的数据特征(feature),一个隐藏层的节点个数越多,意味着这一层所提取的新特征越多。用下面这个图片说明上图中输入层的有两个节点,表示只有两个特征输入神经网络中,经过第一个隐藏层处理之后,变成了四个新特征(因为隐藏层有四个节点),最后再对这四个新特征处...

2020-03-26 19:54:04

[比较具体]机器学习中的激活函数

前言之前我发过一个通俗易懂的激活函数讲解,现在对于那一篇讲激活函数的博文,我再做一个补充。这篇博文讲激活函数更加具体,对于如何使用激活函数,以及如何实现激活函数,都有很大的帮助。激活函数使用一个神经网络时,需要决定使用哪种激活函数用隐藏层上,哪种用在输出节点上。到目前为止,之前的笔记中只用过sigmoid激活函数,但是,有时其他的激活函数效果会更好。Sigmoid和Tanh函数在神经网...

2020-03-26 18:29:06

B站吴恩达深度学习视频笔记(15-27)——卷积神经网络总结

卷积神经网络(也称作 ConvNets 或 CNN)是神经网络的一种,它在图像识别和分类等领域已被证明非常有效。 卷积神经网络除了为机器人和自动驾驶汽车的视觉助力之外,还可以成功识别人脸,物体和交通标志。如图1所示,卷积神经网络能够识别图片的场景并且提供相关标题(“足球运动员正在踢足球”),图2则是利用卷积神经网络识别日常物品、人类和动物的例子。最近,卷积神经网络在一些自然语言处理任务(如语句...

2020-03-26 18:00:57

B站吴恩达深度学习视频笔记(27)——为什么使用卷积

前言啊,不得不说吴恩达使用的例子非常难描述。所以我偷懒用Keras做了卷积的小例子。但是这节课要用到之前的例子了,所以我不得不把应该在上节课的例子再补上。哎,该来的还是要来,逃不掉的。卷积神经网络实例构建全卷积神经网络的构造模块我们已经掌握得差不多了,下面来看个例子。假设,有一张大小为32×32×3的输入图片,这是一张RGB模式的图片,你想做手写体数字识别。32×32×3的RGB图片中含有...

2020-03-26 16:46:32

B站吴恩达深度学习视频笔记(26)——简单卷积网络示例(使用了Keras框架)

本卷积网络包含:2维卷积层,卷积核数量为32,大小为3×3,激活函数为ReLU(卷积核数量为16的倍数)2维卷积层,卷积核数量为64,大小为3×3,激活函数为ReLU池化层,pool_size取2×2Flatten层把多维输入一维化全连接层 Dense(128, activation=‘relu’) ,神经元为128个Dropout(0.5) 在训练过程中每次更新参数时随机断开一定百...

2020-03-26 16:29:50

B站吴恩达深度学习视频笔记(25)——池化层(Pooling)

池化层除了卷积层,卷积网络也**经常使用池化层来缩减模型的大小,提高计算速度,同时提高所提取特征的鲁棒性,**我们来看一下。先举一个池化层的例子,然后我们再讨论池化层的必要性。假如输入是一个4×4矩阵,用到的池化类型是最大池化(max pooling)。执行最大池化的树池是一个2×2矩阵。执行过程非常简单,把4×4的输入拆分成不同的区域,我把这个区域用不同颜色来标记。对于2×2的输出,输出的...

2020-03-26 16:07:49

B站吴恩达深度学习视频笔记(24)——单层卷积网络

推荐阅读通俗理解卷积神经网络 单层卷积网络今天我们要讲的是如何构建卷积神经网络的卷积层,下面来看个例子。上节课,我们已经讲了如何通过两个过滤器卷积处理一个三维图像,并输出两个不同的4×4矩阵。假设使用第一个过滤器进行卷积,得到第一个4×4矩阵。使用第二个过滤器进行卷积得到另外一个4×4矩阵。最终各自形成一个卷积神经网络层,然后增加偏差,它是一个实数,通过Python的广播机制给这16...

2020-03-26 12:40:15

B站吴恩达深度学习视频笔记(23)——三维卷积

前言其实相对于卷积灰度图来说,三维卷积更贴近于我们的实际情况,毕竟我们拍摄到的照片都是彩色照片,这样就涉及我们在一开始几篇笔记里讲的RGB。三维卷积才是卷积真正应用的地方之一。三维卷积在上面笔记中你已经知道如何对二维图像做卷积了,现在看看如何执行卷积不仅仅在二维图像上,而是三维立体上。我们从一个例子开始,假如说你不仅想检测灰度图像的特征,也想检测RGB彩色图像的特征。彩色图像如果是6×6×...

2020-03-26 12:25:22

B站吴恩达深度学习视频笔记(22)——卷积步长讲解

卷积步长卷积中的步幅是另一个构建卷积神经网络的基本操作,让我向你展示一个例子。如果你想用3×3的过滤器卷积这个7×7的图像,和之前不同的是,我们把步幅设置成了2。你还和之前一样取左上方的3×3区域的元素的乘积,再加起来,最后结果为91。只是之前我们移动蓝框的步长是1,现在移动的步长是2,我们让过滤器跳过2个步长,注意一下左上角,这个点移动到其后两格的点,跳过了一个位置。然后你还是将每个元素...

2020-03-26 12:20:37

查看更多

勋章 我的勋章
  • 签到新秀
    签到新秀
    累计签到获取,不积跬步,无以至千里,继续坚持!
  • 阅读者勋章Lv1
    阅读者勋章Lv1
    授予在CSDN APP累计阅读博文达到3天的你,是你的坚持与努力,使你超越了昨天的自己。
  • 持之以恒
    持之以恒
    授予每个自然月内发布4篇或4篇以上原创或翻译IT博文的用户。不积跬步无以至千里,不积小流无以成江海,程序人生的精彩需要坚持不懈地积累!
  • 勤写标兵Lv4
    勤写标兵Lv4
    授予每个自然周发布9篇以上(包括9篇)原创IT博文的用户。本勋章将于次周周三上午根据用户上周的博文发布情况由系统自动颁发。
  • 原力探索
    原力探索
    参与《原力计划【第二季】——打卡挑战》的文章入选【每日精选】的博主将会获得此勋章。
  • 学习力
    学习力
    《原力计划【第二季】》第一期主题勋章 ,第一期活动已经结束啦,小伙伴们可以去参加第二期打卡挑战活动获取更多勋章哦。
  • 原力新人
    原力新人
    在《原力计划【第二季】》打卡挑战活动中,成功参与本活动并发布一篇原创文章的博主,即可获得此勋章。