11 shenxiaolu1984
尚未进行身份认证
暂无相关简介
Fang, Hui, and M. Zhang. “Creatism: A deep-learning photographer capable of creating professional work.” (2017).这篇论文借助有限的无标定数据,用深度网络在虚拟自然环境中完成“取景-调色-打光”的摄影过程。所涉及的理论并不复杂,但给出的过程详细,对解决实际问题很有启发。 这里可以看
YOLO目标检测算法详解
本文尝试用最简明直白的图示,帮助理解和记忆ReceptiveField的计算方法。什么是ReceptiveField?在CNN中,第n层特征图中一个像素,对应第1层(输入图像)的像素数,即为该层的ReceptiveField,简称RF。基本思路网络第1层输入,第n"role="presentation"style="position:relative;">nn
本文介绍推荐系统基础算法Factorization Machines的模型思想、计算与优化方法。
从便于理解的角度介绍共轭函数的概念并推导常用例子。
从便于理解的角度结合图示介绍对偶上升法。
2017年KDD最佳论文,解决高维时间信号的自动分割聚类问题,并给出基于python的源码。
Shrivastava, Ashish, et al. “Learning from simulated and unsupervised images through adversarial training.” IEEE Conference on Computer Vision and Pattern Recognition.2017概述本文是Apple在机器学习领域的首秀,同
介绍Improvedtechniquesfortraininggans中使用GAN进行半监督分类的方法
详解Google论文One Model To Learn Them All
介绍Deep Mind简单而强力的关系推理网络:A simple neural network module for relational reasoning。
介绍深度学习中内存的开销来源,以及降低内存需求的几种解决方案。
在训练较为复杂的RNN类型网络时,有时会采取正交方法初始化(orthogonal initialization)网络参数。本文用简单的例子介绍其中的原因。本文较大程度参考了这篇博客。简单例子RNN具有如下形式: ht=fh(W⋅ht−1+V⋅xt)h_t=f_h(W\cdot h_{t-1}+V\cdot x_t)yt=fy(U⋅ht)y_t = f_y(U\cdot h
本文参考Torch的dpnn包中Inception层的源码,讲解该模块参数含义以及网络结构。核心思想Inception模块的起点是类似下图的结构:通道从M变换到N,把多个不同尺寸的卷积结果串接(concat)起来。 由于M,N往往很大,这种结构的模型大小和运算量都不小。 卷积运算,输入M层,输出N层,核尺寸k。输入数据大小H*W。 卷积参数数量:weight + b
常用的方差(variance)、标准偏差(standardderivation)的内涵和计算方法有许多容易混淆之处,本文进行梳理。
从坐标变换角度介绍特征值的物理意义
本文不做数学推导,从物理意义上讲解拉格朗日乘子法。
有线性方程组Ax=bAx=b。本文以三维为例,讨论其物理意义。解的物理意义上述线性方程组包含若干个三元一次方程:a11x1+a12x2+a13x3=b1a_{11}x_1+a_{12}x_2+a_{13}x_3=b_1a21x1+a22x2+a23x3=b2a_{21}x_1+a_{22}x_2+a_{23}x_3=b_2a31x1+a32x2+a33x3=
解决行人识别中的Re-Identification问题:判断两次出现的人是否是同一个人。在Market 1501竞赛中名列榜首。
本文本着由浅入深原则介绍LSTM模块结构,使用流程图梳理公式,保证看完过目不忘,神清气爽。