自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(17)
  • 收藏
  • 关注

原创 svdpi.h源码

** svdpi.h*/#endif#else#endif#if WIN32#endif#else#endif#endif#if WIN32#endif#else#endif#endif#endif#endif/**/uint32_t a;uint32_t b;#endif/**/

2024-04-11 19:53:39 538

原创 怎么理解反射可以动态地创建类的实例

之前对这个概念一直似懂非懂,看网上的答案是,通过new方法在编译时绑定类,而反射是程序运行时绑定类。这个回答是没问题,但是看完还是一脸懵逼。

2021-06-08 16:52:08 160

原创 yolo v3难点解析

1.特征图点位本身的坐标与点位上向量表示的坐标有什么联系?前者还原到原图,表示单元格中心点。后者是真实框或者预测框的中心点。在制作标签时,是把目标框归一化之后的中心点,乘以特征图尺寸取整之后映射到特征图点位上。这样的联动关系表示框中心点肯定就在单元格中心点附近,落在单元格内部。2.在制作标签时,同一个真实框,会不会被写入到不同尺度层或者同一尺度层不同anchor通道?为什么真实框与anch...

2019-03-12 21:33:44 1026

原创 损失函数里的from_logits=False是什么意思

logits表示网络的直接输出 。没经过sigmoid或者softmax的概率化。from_logits=False就表示把已经概率化了的输出,重新映射回原值。log(p/(1-p))

2019-03-11 15:27:12 13684

原创 tf.data 读取batch的完整实例

步骤:1.读取原始数据集2.在py_func中进行数据预处理,在map_batch中对数据打包,生成nextelement。3.构造迭代器4.获得迭代器的handle(初始地址)5.每次run一下nextelement。在数据集遍历完一遍之后,要初始化一下迭代器。#通过txt建立原始数据集train_dataset = tf.data.TextLineDataset("./dat...

2019-03-08 19:29:16 1978

原创 广播机制是怎么回事?

#广播机制的运用#需求:将一个形状为13x13x3x2的特征图每一个点位表示的2维向量,与10x2 十个二维向量按位相乘后求和。#广播机制的实质:广播机制是内容复制和按位运算,先把两个tensor的形状复制到一样,然后按位运算。#比如a=4x1x3和b=5x3之间做位运算,首先对比右边的形状,相同。然后对比倒数第二个,把A的1x3复制5份,变成4x5x3.再把B的5x3复制4份,变成4x...

2019-03-07 21:31:15 1357

原创 多维掩膜的使用方法

掩膜是用来从特征图中选取特定元素的工具。把掩膜放到原图引索里面,可以起到指示通道,指示坐标的作用。掩膜选取哪个通道,就把它放到原图对应通道的引索位置。import numpy as np#掩膜的用法#1.想把第0张图片,第一列所有大于0的2维向量给提出来a=np.random.normal(size=(5,4,2))mask=a[:,:,0]>0#锁定该区域,>0转化为...

2019-03-06 22:49:59 309

原创 control_flow_ops.while_loop函数循环

def loop_body(b, ignore_mask): true_box = tf.boolean_mask(y_true[l][b,...,0:4], object_mask_bool[b,...,0]) iou = box_iou(pred_box[b], true_box) best_iou = K.max(iou, axis=-1) ignore_m...

2019-03-06 21:14:38 3059 1

转载 如何使得公式居中,标号右对齐。同时在调换公式位置之后标号可以自动更新。

1.设置好一级二级三级标题2.为公式创建一个样例3.利用Tab位移和F9更新域https://blog.csdn.net/sinat_37710872/article/details/80166844

2019-03-06 14:42:12 850

原创 fastrcnn、yolo输出层的比较,以及anchor是啥

一、Fastrcnn里的anchor是啥https://blog.csdn.net/as472780551/article/details/81227408所谓anchor,就是特征图上的点预测的大小和长宽比例不同的K个框,这些框以该点对应到原图上的坐标点为中心。在Fastrcnn中,一个点预测9个框(9个anchor),这9个框的大小和比例都是事先设定好的。二、Fastrcnn...

2019-02-27 23:00:02 2079

转载 开了batch_norm,训练集acc很高,而测试集acc很低怎么解决

因为batch_norm的两个平移缩放参数在训练的时候没有更新,需要手动更新一下step = tf.get_variable("step", [], initializer=tf.constant_initializer(0.0), trainable=False) optimizer = tf.train.GradientDescentOptimizer(learning_rate=0....

2019-02-27 20:37:44 5839 1

原创 data_batch是如何实现的?

1.把图片地址列表、标签列表读入队列image = tf.train.slice_input_producer([train_list],num_epochs=1,shuffle=False)train_list可以是任意多个list,可以组合传也可以单独传,num_epochs用来控制整个数据集遍历几次。2.读取得到的image[0],做图片的预处理。#2.读取图片并解码i...

2019-02-23 12:03:14 3519

原创 finetune

finetune的含义是获取预训练好的网络的部分结构和权重,与自己新增的网络部分一起训练。下面介绍几种finetune的方法。完整代码:https://github.com/toyow/learn_tensorflow/tree/master/finetune一,如何恢复预训练的网络方法一:思路:恢复原图所有的网络结构(op)以及权重,获取中间层的tensor,自己只需要编写新的网...

2019-02-18 13:45:02 1787

原创 待解决的问题

通过saver=tf.train.import_meta_graph('./my_ckpt_save_dir/wdy_model-15.meta')是把以前的整个网络加载到新图里面,如何只加载我需要的部分呢。经过试验发现,经过finetune之后的网络,还是会保留以前的结构。 如果要继续训练之前的部分,需要注意优化器的名字别重名了,重新命名下。图下面有各个节点的名字可供查看。...

2019-02-17 21:06:14 251

原创 如何查看训练好的网络里面想要恢复的op的名字

https://blog.csdn.net/ying86615791/article/details/76215363with tf.Graph().as_default() as g: saver=tf.train.import_meta_graph('./my_ckpt_save_dir/wdy_model-15.meta')#把原网络载入到新图中 listvar=g.g...

2019-02-17 19:21:42 191

原创 踩坑历程

1.载入文件时,由于解码方式的不同,字典中的字符串可能会发送变化,导致找不到正确的字符串。2.找不到源码,在terminal里面,python环境下 输入hlep(slim.conv2),会出来函数的地址。3.return 的时候,会把返回的所有元素组成一个tuple (image) (image,y_true)当返回一个元素时,image的类型就是只含有一个元素的tuple...

2019-02-14 21:24:17 143

原创 有用的网站

数据集下载网站:http://dataju.cn/Dataju/web/homefinetune:https://blog.csdn.net/Alienge/article/details/81012363查重:https://www.paperyy.com/member_new/thesis/post.aspx获取文件的权限https://jingyan.baidu....

2019-02-14 20:21:12 284

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除