4 mrcoderrev

尚未进行身份认证

我要认证

有朝一日我要踏上美利坚的大陆

等级
TA的排名 5k+

MapReduce

作用:MapReduce是一个用于处理和生成大型数据集的程序模型。实现:用户使用map函数处理输入的键值对来生成一组中间的键值对,使用reduce函数合并中间键值对中相同的键(中间数据是通过迭代的方式来提供给reduce函数的,这样就可以处理内存无法满足的大量数据)优点:运行时,系统负责划分数据,在一组机器上调度程序的执行,处理机器故障和管理所需机器间通信的细节,对使用人员友好不必去了解系统内部的细节。步骤:(1)用户程序中的MapReduce库首先将输入文件分成M份,每份的大小一般都是16-64

2020-06-17 12:00:20

linux common question record

Linux给用户添加sudo权限Ubuntu改坏sudoers后无法使用sudo的解决办法

2020-04-05 21:16:55

cs231n作业:Assignment2-Pytorch

import torchimport torch.nn as nnimport torch.optim as optimfrom torch.utils.data import DataLoaderfrom torch.utils.data import samplerimport torchvision.datasets as dsetimport torchvision.tran...

2020-03-14 22:27:56

cs231n作业:Assignment2-Convolutional Networks

def conv_forward_naive(x, w, b, conv_param): """ A naive implementation of the forward pass for a convolutional layer. The input consists of N data points, each with C channels, height H ...

2020-03-03 17:37:15

cs231n作业:Assignment2-Fully-Connected Neural Nets

fc_net.pyfrom builtins import rangefrom builtins import objectimport numpy as npfrom cs231n.layers import *from cs231n.layer_utils import *class TwoLayerNet(object): """ A two-layer fu...

2020-02-27 16:59:16

cs231n作业:Assignment2-Dropout

def dropout_forward(x, dropout_param): """ Performs the forward pass for (inverted) dropout. Inputs: - x: Input data, of any shape - dropout_param: A dictionary with the following...

2020-02-26 21:09:24

cs231n作业:Assignment2-Batch Normalization

from builtins import rangeimport numpy as npdef affine_forward(x, w, b): """ Computes the forward pass for an affine (fully-connected) layer. The input x has shape (N, d_1, ..., d_k) ...

2020-02-24 19:49:46

改善深层神经网络:超参数调试,正则化以及优化

11

2020-01-31 18:26:41

cs231n作业:Assignment1-Image features exercise

# Use the validation set to tune the learning rate and regularization strengthfrom cs231n.classifiers.linear_classifier import LinearSVMlearning_rates = [1e-9, 1e-8, 1e-7]regularization_strengths...

2020-01-20 09:56:22

cs231n作业:Assignment1- two_layer_net

from __future__ import print_functionfrom builtins import rangefrom builtins import objectimport numpy as npimport matplotlib.pyplot as pltfrom past.builtins import xrangeclass TwoLayerNet(obj...

2019-12-16 15:52:10

VGG:VERY DEEP CONVOLUTIONAL NETWORKS FOR LARGE-SCALE IMAGE RECOGNITION

VERY DEEP CONVOLUTIONAL NETWORKS FOR LARGE-SCALE IMAGE RECOGNITIONImageNet2014 定位第一,分类第二"VGG"代表,牛津大学的Oxford Visual Geometry GroupVGG 的特点:(1)小卷积核:作者将卷积核全部替换为3*3,极少用了1*1(2)小池化核:相比AlexNet的3*3的池化核,V...

2019-12-13 19:51:09

AlexNet:ImageNet Classification with Deep Convolutional Neural Networks

这个神经网络有6000万参数,和650000个神经元,包含5个卷积层(某些卷积层后面带有池化层)和3个全连接层,最后一个是1000维的softmax。为了防止过拟合,使用了dropout的正则化方法。使用了120万高分辨率图像分到1000个不同的类别中。使用了非饱和的神经元并对卷积操作进行了非常有效的GPU实现。cnn的前面部分,卷积-激活函数-降采样-标准化。AlexNet论文翻译—...

2019-12-01 10:14:16

cs231n作业:Assignment1-softmax

def softmax_loss_naive(W, X, y, reg): """ Softmax loss function, naive implementation (with loops) Inputs have dimension D, there are C classes, and we operate on minibatches of N exa...

2019-11-28 14:54:21

python中的浅拷贝和深拷贝

浅拷贝:(1)切片操作 [:](2)工厂函数,list(),dict()(3)使用copy模块中的copy函数构造方法或切片[:]做的是浅拷贝,即拷贝了最外层的容器(内存地址不一样),副本中的元素都是原容器中的引用(内存地址一样)。深拷贝:不仅拷贝最外层的容器,还会拷贝容器中的元素。相当于完全没有关系不可变对象:int,float,complex,long,str,unicode,...

2019-11-26 10:43:28

softmax/sigmoid tanh/ReLU/Leaky ReLU

softmaxσ(xi)=exi∑j=1j=nexj\sigma(x_i) = {\frac{e^{xi}}{\sum_{j=1}^{j=n}e^{xj}}}σ(xi​)=∑j=1j=n​exjexi​概率之和为1,元素之间相互关联抑制,取值被压缩到(0,1)可用于多分类问题。只有一个标签。sigmoid(logistic function)σ(xi)=11+exi\sigma(x_i)...

2019-11-24 22:12:28

leetcoder 48. Rotate Image(思维)

题意:将一个矩阵进行顺时针旋转自己的做法:直接推公式,x,y = y, n-1-x,弊端需要开一个标记数组class Solution: def rotate(self, matrix): """ Do not return anything, modify matrix in-place instead. """ dt ...

2019-11-24 20:59:54

目标检测骨干网发展

111

2019-11-24 11:52:44

LeNet-5 手写字体识别模型

手写字体识别模型LeNet5诞生于1994,是最早的神经网络之一。现在常用的LeNet-5(卷积池化当作一层的话,共5层)结构和Yann LeCun教授在1988年提出的结构在某些地方有区别,比如激活函数的使用,现在一般采用ReLU作为激活函数,输出层一般选择softmax。(论文RBF)性质:随着网络越来越深,图像的高度和宽度在缩小,但channel数量一直在增加。局限性:CNN能够从...

2019-11-23 17:05:56

cs231n作业:Assignment1-SVM

def svm_loss_naive(W, X, y, reg): """ Structured SVM loss function, naive implementation (with loops). Inputs have dimension D, there are C classes, and we operate on minibatches of N...

2019-11-21 22:38:36

线性分类(svm/softmax)/损失函数/优化

f(x,W)=Wx + bW:所有训练中的经验都存在W中bias:他不与训练数据交互,而只会给我们一些数据独立的偏好值。(例如,数据集的不平衡带来的差异 )优点:易于使用和理解缺点:难于解决多分类问题,在多模态数据中,比如一个类别出现在不同的领域空间中...

2019-11-19 22:32:42

查看更多

勋章 我的勋章
  • 持之以恒
    持之以恒
    授予每个自然月内发布4篇或4篇以上原创或翻译IT博文的用户。不积跬步无以至千里,不积小流无以成江海,程序人生的精彩需要坚持不懈地积累!
  • 勤写标兵Lv2
    勤写标兵Lv2
    授予每个自然周发布4篇到6篇原创IT博文的用户。本勋章将于次周周三上午根据用户上周的博文发布情况由系统自动颁发。