2 这题我会啊

尚未进行身份认证

人工智能基本人工

等级
博文 96
排名 3w+

再学动态规划之 完全背包

LeetCode:https://leetcode.com/problems/coin-change/description/暴力搜索考虑当前index拿1张,2张,…时候,从index+1开始的最小张数。相加即可:importsysclassSolution(object):defget_small_number(self,coins,index,amoun...

2018-10-16 20:42:07

再学动态规划之 01背包

leetcode:https://leetcode.com/problems/partition-equal-subset-sum/description/写了之后,发现这题跟01背包还有点区别。但是写看这个吧。暴力搜索的方法。就是每个取或者不去。classSolution(object):defgetS(self,arr,index,target): if...

2018-10-15 17:43:23

再学动态规划之 上楼梯

leetcode:https://leetcode.com/problems/climbing-stairs/description/一道经典的动态规划题。听了左程云大神的课之后,重新审视一边动态规划。我们先假设不知道动态规划方法,我们这样思考:f(n)=f(n−1)+f(n−2)f(n)=f(n-1)+f(n-2)f(n)=f(n−1)+f(n−2)然后就很自然的写出下面的递归解法...

2018-10-14 19:51:29

论文笔记:Dual Path Networks

首先分析了ResNet 和 DenseNet。 借鉴RNN的表达方式。k: 当前处于哪个步t:第t步ht: 第t步的隐藏状态:在第k步中,提取第t状态特征的函数gk:第k步,转换聚合特征的函数 如果 , 那么可以写成:简化成:其中,。 如果, 那就是RNN。 如果不共享,就是ResNet。 如果  不满足,就是DenseNet ...

2018-09-04 20:08:47

论文笔记:Densely Connected Convolutional Networks

DenseBlock: 每一层只增加k=4 个feature map 然后跟前面的所有concat,再 BN-->ReLU-->Conv  (一般k=12) 整体结构: Dense Block之间是Conv和Pooling Bottlenecklayers:尽管每次只增加k个,但是到后来还是很大,所以,采用Bottleneck,即BN-ReL...

2018-09-04 20:07:03

python中逗号的三种用途

1.逗号在参数传递中的使用:这种情况不多说没有什么不解的地方就是形参或者实参传递的时候参数之间的逗号例如defabc(a,b)或者abc(1,2)2.逗号在类型转化中的使用主要是元组的转换例如:a=11b=(a)b11b=(a,)b...

2018-07-23 10:47:26

线性回归

《动手学深度学习》上的例子手动搭建一个能学线性回归的函数(神经网络)defdata_generate():'''产生真实数据,这里维度为2,个数1000。同时我们增加了扰动(测量误差)'''number_inputs=2#dimensionofinputnum_examples=1000true_w=[2,-3.4]...

2018-07-20 14:56:45

NDArray的一些性质

运算的内存开销前⾯例⼦⾥我们对每个操作新开内存来储存它的结果。例如即使是y=x+y我们也会新创建内存,然后再将y指向新内存。为了展⽰这⼀点,我们可以使⽤Python⾃带的id函数:如果两个实例的ID⼀致,那么它们所对应的内存地址相同;反之则不同。In[24]:before=id(y)y=y+xi...

2018-07-20 12:21:05

MXNet入门

按照官网60分钟入门Gluon来学的。ndarray定义手打普通数组:nd.array(((1,2,3),(5,6,7)))自动填充:nd.ones((2,3))随机填充:nd.random.uniform(-1,1,(2,3))指定数组填充:nd.full((2,3),2.0)ndarray也有属性:In:(X.shape,X.size...

2018-07-17 14:46:58

正确率计算

defacc(output,label):    #output:(batch,num_output)float32ndarray    #label:(batch,)int32ndarray  &

2018-07-17 13:35:23

caffe 同步与异步

主要是这两个遇到的问题,记录一下。cpu_data与gpu_data首先看到SyncedMemory的私有成员,有两个指针cpu_ptr_cpu_ptr_cpu\_ptr\_和gpu_ptr_gpu_ptr_gpu\_ptr\_。以及同步函数to_cpu()to_cpu()to\_cpu()to_gpu()to_gpu()to\_gpu()cpu_data与gpu_d...

2018-04-12 15:34:07

中心极限定理

中心极限定理中心极限定理指的是给定一个任意分布的总体。我每次从这些总体中随机抽取n个抽样,一共抽m次。然后把这m组抽样分别求出平均值。这些平均值的分布接近正态分布。实验验证写了代码做实验发现真的是这样。。这里简单的用了均匀分布importnumpyasnpimportmatplotlib.pyplotaspltrandom_data=n...

2018-03-06 17:00:43

偏差

摘自《deeplearning》

2018-03-05 22:06:06

特殊类型的矩阵和向量

网络电子版《深度学习》

2018-03-05 22:05:14

期望、方差和协方差

摘自网络电子版《深度学习》

2018-03-01 15:41:24

特征分解

摘自网络电子版《深度学习》

2018-03-01 10:31:32

线性相关和生成子空间

摘自网络电子版《深度学习》Ax=bAx=bAx=b

2018-02-28 16:51:08

主流卷积神经网络

DenseNet就没写了

2018-02-25 21:52:35

max pooling in caffe

我们来看maxpooling在caffe中怎么实现的吧reshape首先reshap的时候://Ifmaxpooling,wewillinitializethevectorindexpart.if(this->layer_param_.pooling_param().pool()==PoolingParameter_PoolMethod_MAX

2017-11-21 09:17:02

Convolution in Caffe

首先要知道,caffe里的卷积都是用的扩展之后的矩阵,“教学用”卷积方式,慢呀。具体就是im2col,思想如下:也就是说,把featuremap和kernel都拼成一个大的矩阵。注意此图有问题,有下面代码可以看出是其实是图中两个转置的相乘template<typenameDtype>voidBaseConvolutionLayer<Dtype>::forward_cpu_g

2017-11-20 11:35:43
奖章
  • 持之以恒
    持之以恒
    授予每个自然月内发布4篇或4篇以上原创或翻译IT博文的用户。不积跬步无以至千里,不积小流无以成江海,程序人生的精彩需要坚持不懈地积累!