自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(11)
  • 收藏
  • 关注

原创 理解Batch Normalization系列4——实践(清晰解释)

透彻理解:Batch Normalization是如何实现。

2020-01-20 16:38:48 496 2

原创 理解Batch Normalization系列3——为什么有效及11个问题(清晰解释)

Batch Normalization为什么有效,以及11个值得讨论的问题。...

2020-01-15 21:33:09 645 1

原创 理解Batch Normalization系列2——训练及评估(清晰解释)

Batch Normalization如何反向传播,如何评估,细节都在这里!

2019-12-09 13:58:53 516 2

原创 理解Batch Normalization系列1——原理(清晰解释)

冥思苦想,重度图解,满满诚意,让你完全彻底掌握Batch Normalization!

2019-12-08 16:10:12 582

原创 数据算法工程师常犯的六个错误

这是机器学习、数据算法工程师的常见病、多发病。

2019-10-30 00:17:00 285

原创 图表示学习入门3——图神经网络

什么是图神经网络?图和神经网络为什么要关联?怎么关联?一份浅显直觉的GNN入门教程。

2019-10-11 11:31:18 2765 1

原创 图表示学习入门2——Node2Vec

把图转换为语料,这么棒的想法,值得一看。15分钟完全理解Node2Vec及random walk!

2019-10-10 14:40:28 1952

原创 图表示学习入门1——导言

什么是图表示学习?10分钟帮你搞清楚。

2019-10-08 22:42:13 705

原创 直觉化深度学习教程——什么是前向传播

所谓前向传播,就是给网络输入一个样本向量,该样本向量的各元素,经过各隐藏层的逐级加权求和+非线性激活,最终由输出层输出一个预测向量的过程。看完这篇博客,你要是还不懂,一定是我哪里没写清楚,请联系我。文章目录@[toc]一个简化的例子加权和的计算激活值的计算矩阵化表示的好处一个简化的例子因为神经网络两层之间的连线、符号、上下标,确实让人头大,我们可以由一个简化的网络来计算出神经网络两层之间激...

2019-09-26 20:07:09 3672 2

原创 直觉化深度学习教程——偏置与激活函数之间的关系

我们看到成熟的神经网络时,往往能看到偏置bbb与激活函数Sigmoid或ReLU,但是它们是从何而来的呢?通过探究,我们将获得更深刻的认识。文章目录@[toc]偏置的前世今生偏置的由来偏置有什么意义激活函数的放飞自我激活函数有什么意义为什么要用激活函数偏置的前世今生偏置的由来用一张图就能说明白。来吧,少年,接图!图1.偏置的前世今生如果我的图做的有点杂乱,那咱们就稍微用用公式。回...

2019-09-26 09:55:38 1944

原创 直觉化深度学习教程——极致解读 M-P模型、感知器、多层感知器

往事不察,无以知来者。在追逐新潮概念(ResNet、Mask R-CNN、Bert、GPT等)的时候,最好先回顾一下最初的源头脉络。出发点并不是考古,而是为了从最基本的思维原型着手,建立直觉的认识。如果循着这个脉络,你会发现:神经网络的由来是如此的自然而然,每一步的迭代亦是如此朴素,却又意义深远。文章目录四个概念的关系M-P模型特点功能不足感知器(Perceptron)特点功能不足多层感知...

2019-09-24 00:33:08 1326

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除