自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(19)
  • 收藏
  • 关注

原创 毛选-阶级分析

2020-09-10 10:38:24 378

原创 泰国 其他素材

2019-11-08 12:11:27 132

原创 RTR4

TRT的核心低延迟高吞吐吞吐和延迟需要tradeoff:推断(Inference)的batch size要小很多,仍然是latency的问题,因为如果batch size很大,吞吐可以达到很大,比如每秒可以处理1024个batch,500毫秒处理完,吞吐可以达到2048,可以很好地利用GPU;但是推断(Inference)不能做500毫秒处理,可以是8或者16,吞吐降低,没有办法很好地...

2019-06-28 19:41:21 554

原创 [paper reading]Innovations in Graph Representation Learning

1

2019-06-26 10:18:33 173

原创 为什么array的读写复杂度是O(1)

核心知识点:数据是存储在内存中的,内存的每一块区域都有特定的地址对应,那么如果我们知道具体的地址,直接可以以O(1)访问该地址对应的存储空间。解释:对于array,c++在定义的时候需要指定数据type,同时array也是连续内存存储的数据结构。比如我们需要访问第i个元素,那么指针地址为 start+(i-1)*4,其中start为array[0]的地址,所以我们可以直接访问start+(i-1...

2019-06-25 07:35:24 2641

原创 paddle-fuid部署加速方案-引擎

参考网页参考网页asd

2019-06-21 10:55:41 641

原创 关于warm_up学习率

numberbatchwarm_up_iterwarm_up_epochCOCO171182878*840004000*64/118287=2.16paiti_v1v2v3227208*82.16*22720/64=7662.16

2019-06-11 16:09:21 5902

原创 关于fuseBN的操作

Train Phasex是bn输入,mean,var,scale,offset是BN四个参数(x-mean)/var*scale+offset = x*(scale/var) + [offset-mean*(scale/var)]=>x*scale' + offset'其中scale' = scale/var offset' = offset-mean*(scale/var)...

2019-05-31 10:33:25 775

原创 精品入门教程record

爬虫系列爬虫从入门系列 https://foofish.net/understand-http.html

2019-05-24 10:35:54 136

原创 fully-connected转conv

fully-connected转conv具体操作假设fc输入(h,w,c),fc输出为(fc_out),那么fc的参数shape为(hwc, fc_out)。通过使conv得kernel覆盖fc的输入,即conv的kernel_size = h*w,kernel_num = fc_out,则conv输出shape为(1,1,fc_out)。通过这种方式fc和conv其实是可以转换的,如上con...

2019-05-22 19:52:50 224

原创 pt

获取梯度x = torch.ones(2, 2, requires_grad=True)y = x + 2z = y * y * 3out = z.mean()out.backward()print(x.grad)最底层的x需要grad,所以它的上层自然默认求梯度

2019-03-27 10:56:54 138

原创 PIL和opencv

from PIL import Image, ImageEnhanceimg = Image.open(img_path)img_np=np.array(img).astype('float32')img_np.shape = (HWC)img_np.transpose((2, 0, 1)img_np.shape = (CHW)PIL读取进来一般是RGB,如果不是可以转换。if i...

2019-03-26 17:04:29 520

原创 关于stop_gradient

paddle有个参数stop_gradient。结论对于op里面的参数,使用stop_gradient只影响这个参数本身,即只有这个参数不更新。对于op的输出,使用stop_gradient,则该点之前的所有层均不再更新。解释基本想法设简单的opout = op(x),一般op里面的参数不会依赖于输入x,out对x的梯度不会用到out对参数的梯度。所以参数设置stop_gr...

2019-03-26 14:18:47 4737

原创 test

| 型号 | CUDA compute capability |TFLOPS|RAM|Release Date|cost||–|--|

2019-03-08 09:57:18 73

原创 【深度思维】读书笔记

系统思维实例关于公司裁员控制成本背景:调查某部们员工25%时间摸鱼,裁掉25%员工,结果导致整个部门崩溃。系统动力图:+表示两者正相关,-表示负相关。说白了就是正反馈不断放大,如果是有利的那么就会产生日积跬步至千里的效果;如果是不利的就会导致整个系统的崩溃。判断系统整体的±,全部相乘。因此两个-即为+。一些题外话其实书里面的道理、方法我们都或多或少听说过,但是确很少刻意练习。...

2018-12-04 11:48:55 1624

翻译 [paper reading] Rethinking ImageNet Pre-training

abstact从随机初始化训练(from scratch)的det和seg模型与使用pretrained finetune的结果相似。随机初始化训练模型更加robustpretrained finetune加快了收敛速度,但对提升最终的performance没有约束作用(即没有优化作用)。Introduction使用ImageNet pre-training,再fine-tunin...

2018-11-23 13:43:36 260

原创 图像变换

OpenCV中提供的函数官方文档2D变换1避免采样误差:In fact, to avoid sampling artifacts, the mapping is done in the reverse order, from destination to the source. In case when you specify the forward mapping , the OpenCV...

2018-11-22 10:55:19 187

原创 换脸

看到一份换脸的code[^1]

2018-11-20 15:13:55 718

原创 我该写点什么

随想testtest

2018-11-20 14:58:55 101

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除