- 博客(12)
- 资源 (2)
- 收藏
- 关注
原创 一图了解MobileNet的核心:Depthwise separable convolution
图(a)是标准的卷积神经网络,本层输入为Dk*Dk*M(也就是M张Dk*Dk的图),本层输出为Dk*Dk*N(也就是本层设置的输出通道为N)。图(b)和图(c)就是MobileNet的核心:Depthwise separable convolution操作了。首先针对输入Dk*Dk*M的M个通道做Dk*Dk*1的卷积(图b),之后再对这M个Dk*Dk*1做1*1*N的卷积,得到输出为Dk*Dk*N。从上图可以明显看出,这种操作降低了参数量,提高了计算速度,同时提出该结构的论文实验,证明了该结构可以较..
2021-02-16 11:06:04 207
原创 深度学习入门:一图理解CNN
上图是一个输入为7*7*3(也就是上一层的输出为3张7*7的图,也就是说上一层网络输入通道为3,对应到这一层输入通道为3),由于输入通道为3;输出为3*3*2,也就是输出通道为2,至于为什么输出的是3*3的图,是因为卷积步长为2,同时进行了padding(灰色那圈补零)。所以Filter W0 有三个分量,分别对应这三个输入通道,这三个通道分别做卷积乘,最后相加,再加上偏置(bias b0),得到ouput 第一个图的第一个数。由于本层的输出通道为2,所以除了Filter W0外,还行再来一...
2021-02-16 10:41:09 237
原创 pytorch 自定义数据读写函数
代码例子:from torch.utils.data import Dataset, DataLoaderimport osimport randomclass custom_dset(Dataset): def __init__(self): self.data = [1,2,3,4,5,6] def shuffle_data(self): ...
2019-08-30 14:37:22 236
转载 深度学习入门:优化算法
本文列举的优化方法用于训练模型,以求模型收敛于最优解。一、梯度下降法(Gradient Descent,GD)1、批量梯度下降(Batch Gradient Descent) 在每一轮的训练过程中,Batch Gradient Descent算法用整个训练集的数据计算cost fuction的梯度,并用该梯度对模型参数进行更新。优点:cost fuction若为凸函数,能够...
2019-07-08 17:16:30 368
转载 深度学习入门:前向传播与后向传播
神经网络算法的前向传播和后向传播,是机器学习课程中 神经网络算法的基础,可见我的机器学习算法分类,这里推荐两篇博客:一、前向传播(forward propagation,FP) 使用建立的神经网络模型,从第一层到最后一层,逐层计算,以得到最终的输出结果。基本原理参照:http://deeplearning.stanford.edu/wiki/index.php/%E7%A5%9E%E...
2019-07-08 17:11:29 1520
转载 2、深度学习入门级别 的 激活函数整理
激活函数的作用:1、主要作用是改变之前数据的线性关系,使网络更加强大,增加网络的能力,使它可以学习复杂的事物,复杂的数据,以及表示输入输出之间非线性的复杂的任意函数映射;2、另一个重要的作用是执行数据的归一化,将输入数据映射到某个范围内,再往下传递,这样做的好处是可以限制数据的扩张,防止数据过大导致的溢出风险。一、sigmoid函数公式:图像:特点:1、从图中可以...
2019-06-27 17:57:33 172
转载 1、深度学习入门级别 的 损失函数整理
一、L1、L2 中文称作L1正则化和L2正则化,或者L1范数和L2范数。L1正则化和L2正则化可以看做是损失函数的惩罚项。所谓『惩罚』是指对损失函数中的某些参数做一些限制。L1: =, 即各元素的绝对值之和 。作用:产生一个稀疏模型,可以用于特征选择,一定程度上也可以防止过拟合。L2:=,即各元素的平方值之和,。作用:防止过拟合。问题:是否可以组合L1、L2用于惩罚项,...
2019-06-27 17:51:50 207
转载 tensorflow可视化:tensorboard用法
关键代码:tf.summary.scalar("loss",cross_entropy)tf.summary.scalar("accuracy", accuracy)# Merge all summaries to a single operatormerged_summary_op = tf.summary.merge_all()sess.run(init)#日志文件保存地...
2019-06-25 13:58:38 86
转载 tensorflow 1.x 基本用法
一、TensorFlow 整体框架流程1、定义数据变量2、构造模型3、定义损失函数4、初始化变量5、启动图6、拟合模型二、TensorFlow 主要术语简介1、张量的阶、形状、数据类型在TensorFlow系统中,张量的维数来被描述为阶.但是张量的阶和矩阵的阶并不是同一个概念.张量的阶(有时是关于如顺序或度数或者是n维)是张量维数的一个数量描述.比如,下面的张量...
2019-06-25 13:46:06 253
转载 tensorflow 1.x GPU 版本安装
tensorflow 一般分为CPU版本和GPU版本,其中GPU版本可以用GPU加速程序运行。CPU版本安装比较简单,这里介绍的是GPU版本的安装方法:版本配置很重要,我安装的配置如下:python3.6+TensorFlow 1.9+CUDA9.0 + cudnn7.1。 CUDA9.0下载地址https://developer.nvidia.com/cuda-90-download-ar...
2019-06-25 13:25:12 2444
翻译 论文笔记:Additive Adversarial Learning for Unbiased Authentication
作者:摘要身份验证是一项旨在确认数据实例和个人身份之间真实性的任务。典型的身份验证应用包括人脸识别、行人识别、基于移动设备的身份验证等。最近出现的数据驱动的认证处理,可能遭遇非期望偏差,如模型经常在一个领域内训练(如,穿春装的人),但却要求应用在其他领域(如,他们将衣服改为夏服)。为了解决这个问题,我们提出了一个新的两段式方法,用来解决分类任务中领域不同的问题,乃至考虑多种类别的领域问...
2019-06-25 10:00:49 575
转载 Linux常用指令:不定期收集
下文是在使用Linux过程中遇到的指令,多是从网上琐碎收集起来的。做个笔记备份,如有雷同,我转载的。1、查看当前目录下有多少个文件 ls | wc -w2、文件重命名 mv test.txt wbk.txt3、查看gpu nvidia-smi4、解压zip unzip 文件名5、合并解压 cat ziptest.z* > google_bak.zip ...
2019-06-14 16:15:23 78
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人