自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+

Invokar的博客

与君共勉呀(UESTC_CFM),github地址:https://github.com/qilong-zhang

  • 博客(185)
  • 收藏
  • 关注

原创 Patch-wise Attack for Fooling Deep Neural Network (ECCV2020)

Patch-wise Attack for Fooling Deep Neural Network (ECCV 2020)Hello,不知不觉我已经快一年没更新过博客啦,实在是因为有点忙,没时间写论文阅读笔记了。不过这次自己的论文中了,决定还是来分享一波顺便冒个泡哈哈哈哈。我们这篇论文的代码已经公开:https://github.com/qilong-zhang/Patch-wise-iterative-attack。欢迎大家阅读,如果觉得有帮助的话别忘记帮我点个星星哦,感谢大家的支持!谢谢~

2020-07-05 15:08:26 2254 39

原创 GAN:两者分布不重合JS散度为log2的数学证明

引言:不知道大家在初学GAN时,当遇到WGAN时,突然抛出一个结论:对于真实数据分布PrP_rPr​和生成数据分布PgP_gPg​,如果满足上述无法全维度重合的情况的话,则JSD(Pr∣∣Pg)=log⁡2JSD(P_r||P_g)=\log2JSD(Pr​∣∣Pg​)=log2其实当初我刚接触这个结论时,还是挺疑惑的,不知道如何用数学证明。在思考了一会后,找到了一个合理的证明思路,如果有误,...

2019-03-30 19:05:43 9425 44

原创 TexStudio查看侧栏中结构索引或者点击侧栏内容时卡死问题的解决方法

TexStudio查看侧栏中结构索引或者点击侧栏内容时卡死问题的解决方法大家在写Latex模板时,通常用的都是TexStudio软件,然而最近我终于解决了一直困扰我的卡死问题!!如上图,每当我想点开侧栏的结构索引中的egbib加入参考文献时,就会经常性的卡死。这个问题我一直不知道为什么,百度也没搜到解决方法呜呜呜~然而!!!最近我发现了问题所在!!!真相就是: 网易有道词典经过我的测试,最终发现是网易有道词典屏幕取词和滑屏翻译两个功能导致的冲突。所以,在需要点击左侧索引结构栏之前把这两个功

2020-07-05 16:53:28 2542 9

原创 【不小心误删了】

服务器无法显示GUI图片问题在解决这个问题的时候,可能很多人都搜到了用sudo的方法,但是在我们没有管理权限的情况下,这个问题也是能解决的。报错信息我的报错信息:MobaXterm X11 proxy: Unsupported authorisation protocolCould not open display localhost:18.0下面就以我的报错信息为例,展示解决的方法...

2019-10-06 18:58:39 6883 3

原创 [论文笔记] Universal Adversarial Perturbations Against Semantic Image Segmentation(ICCV 2017)

Universal Adversarial Perturbations Against Semantic Image Segmentation(ICCV 2017)文章简介:DataSet: Cityscapes区别: 与普通的单目标图片分类相比,多目标的语义分割任务会存在一个问题,就是某些target像素点的梯度方向可能正好与另外target像素点的梯度方向相反。而一般的交叉熵损失函数...

2019-08-20 09:48:50 1245

原创 [论文笔记]Universal adversarial perturbations(CVPR 2017)

Universal adversarial perturbations(CVPR 2017)文章简介:本文主要是介绍了一种universal的扰动,能让大部分图片加入该噪声后就能被误分类,扰乱一个新的数据点只需要向图像添加一个普遍的扰动(不需要解决优化问题/梯度计算)。其示意图如下Norm:2-范数: ξ=2000\xi=2000ξ=2000无穷范数: ξ=10\xi=10ξ=...

2019-08-14 15:35:16 3568

原创 [论文笔记]UNDERSTANDING AND ENHANCING THE TRANSFERABILITY OF ADVERSARIAL EXAMPLES(archive)

UNDERSTANDING AND ENHANCING THE TRANSFERABILITY OF ADVERSARIAL EXAMPLES(archive)文章简介在本研究中,作者系统地研究了两类可能影响对抗性例子迁移能力的因素。一是研究模型相关因素:network architecture, model capacity, test accuracy。二是利用损失函数的局部光滑性...

2019-08-09 20:47:46 1247

原创 [论文笔记]Curls & Whey: Boosting Black-Box Adversarial Attacks(CVPR 2019 Oral)

Curls & Whey: Boosting Black-Box Adversarial Attacks(CVPR 2019 Oral)文章简介:作者提出一种全新的black-box攻击方法Curls&Whey,该方法可以是迭代轨迹多样化并且可以压缩noise的幅度,此外,将插值算法与迭代攻击相结合,显著降低了balck-box场景中目标攻击的难度类型: black-b...

2019-08-09 10:16:08 2169 6

原创 [论文笔记]Rob-GAN: Generator, Discriminator, and Adversarial Attacker(CVPR 2019)

Rob-GAN: Generator, Discriminator, and Adversarial Attacker(CVPR 2019)文章简介:本文主要是将adversarial attack加入到GAN的训练过程中,来提升训练收敛的速度以及获得更好的生成器。DataSet: CIFAR-10, ImageNet data(subset)Key insights:如...

2019-08-08 10:56:17 1941 16

原创 [论文笔记]Decoupling Direction and Norm for Efficient Gradient-Based L2 Adversarial Attacks and Defenses

Decoupling Direction and Norm for Efficient Gradient-Based L2 Adversarial Attacks and Defenses(2019 CVPR Oral)文章简介:本文提出了一种有效的基于梯度的攻击方法DDN,通过对图像中添加的对抗性扰动的方向和范数进行解耦,从而在L2范数较低的情况下成功攻击目标网络。在2018 NIPS Ad...

2019-08-06 15:32:34 1812

原创 [论文笔记]AttGAN: Facial Attribute Editing by Only Changing What You Want(2017 CVPR)

AttGAN: Facial Attribute Editing by Only Changing What You Want(2017 CVPR)文章简介:本文研究面部属性编辑任务,其目的是通过操作单个或多个感兴趣的属性(如头发颜色、表情、胡须和年龄)来编辑面部图像。Dataset: CelebA比较算法: FaderNetwork, VAE/GAM, IcGAN等方法特点: 现有方...

2019-08-04 15:02:49 3368

原创 [论文笔记]Fader Networks: Manipulating Images by Sliding Attributes(2017 NIPS)

Fader Networks: Manipulating Images by Sliding Attributes(2017 NIPS)文章简介:本文介绍了一种新的encoder-decoder结构,该结构通过训练,将图像的显著信息与隐藏空间中的属性值直接分离,从而重构图像。Dataset: CelebA 、 Oxford-102Challenge: transformations是il...

2019-08-04 10:57:56 1666

原创 [论文阅读笔记]SEMANTIC ADVERSARIAL ATTACKS: PARAMETRIC TRANSFORMATIONS THAT FOOL DEEP CLASSIFIERS(ICCV)

SEMANTIC ADVERSARIAL ATTACKS: PARAMETRIC TRANSFORMATIONS THAT FOOL DEEP CLASSIFIERS(2019 ICCV)文章简介:本文的出发点不同于以前的方法(例如修改某几个像素点或者在原图上添加扰动),本文的对抗样本是通过修改输入图像中某些特殊的特征(例如戴上眼镜),从而产生语义自然的图片的同时,还能愚弄分类器。类型:w...

2019-07-28 15:31:14 1283

原创 [论文阅读笔记]Evading Defenses to Transferable Adversarial Examples by Translation-Invariant Attacks(CVPR)

Evading Defenses to Transferable Adversarial Examples by Translation-Invariant Attacks(2019 CVPR Oral)文章简介:本文的方法既可以untargeted attack,也可以targeted attack。提出一种translation-invariant攻击方法,被攻击的白盒模型的识别区域不...

2019-07-28 15:00:12 2366 6

原创 [论文阅读笔记]Trust Region Based Adversarial Attack on Neural Networks

Trust Region Based Adversarial Attack on Neural Networks(2019 CVPR)文章简介:Method: 本文主要采用Trust Region(信赖域) 优化算法, 该方法在处理非凸优化问题时是非常有用的。Dataset: Cifar-10、ImageNetCompared Algorithm: DeepFool、I-FGSM、Car...

2019-07-22 16:27:24 1022 2

原创 [论文阅读笔记]DeepFool: a simple and accurate method to fool deep neural networks

DeepFool: a simple and accurate method to fool deep neural networks(2016 CVPR)文章简介:本文为Adversary Attack方向的一篇经典论文。算法名为DeepFool,其目标是寻求最小的扰动来达到生成对抗样本的目标。下图第2行为DeepFool算法生成的扰动,第3行为FGSM算法生成的扰动。可以看到当生成的tar...

2019-07-21 10:15:51 4623 16

原创 [论文阅读笔记]Towards Evaluating the Robustness of Neural Networks(CW)

Towards Evaluating the Robustness of Neural Networks(C&W)(2017 Best Student Paper)文章简介:证明defensive distillation不能显著地提高模型的鲁棒性介绍了3种新的攻击算法,可以在distilled和undistilled神经网络达到100%的攻击成功率本文的攻击相比于以前的攻击通常...

2019-07-21 10:13:50 5603 4

原创 [论文阅读笔记]Towards Deep Learning Models Resistant to Adversarial Attacks

Towards Deep Learning Models Resistant to Adversarial Attacks(CVPR 2017)文章简述:本文主要是在研究防御的问题,并提出了PGD这种first-order攻击方法,其中增强模型robust的方法有以下两种:增大网络容量使用PGD方法进行对抗训练如何训练更加robust的模型?下面这个公式可以看成一个鞍点的问题,即i...

2019-07-21 10:09:35 8823

原创 [论文阅读笔记] Adversarial Examples Are Not Bugs, They Are Features

Adversarial Examples Are Not Bugs, They Are Features(CVPR 2019)文章核心:作者认为,对抗性样本的存在不是网络架构的问题,而是数据集的一个属性。(non−robust featurenon-robust\, featurenon−robustfeature)Adversarial vulnerabilit...

2019-07-21 10:08:30 4275 13

原创 [论文阅读笔记]The Limitations of Deep Learning in Adversarial Settings

The Limitations of Deep Learning in Adversarial Settings参考知乎CSDN文章概述: 与之前的基于提高原始类别标记的损失函数或者降低目标类别标记的损失函数的方式不同,这篇文章提出直接增加神经网络对目标类别的预测值。换句话说,之前的对抗样本的扰动方向都是损失函数的梯度方向(无论是原始类别标记的损失函数还是目标类别标记的损失函数),该论文生...

2019-07-21 10:06:08 1933

原创 [论文阅读笔记] Boosting Adversarial Attacks with Momentum

Boosting Adversarial Attacks with Momentum(CVPR2018)Source Code:https://github.com/dongyp13/Non-Targeted-Adversarial-Attackshttps://github.com/dongyp13/Targeted-Adversarial-Attacks.文章概述: 本文提出了一种基...

2019-07-21 10:04:03 3523

原创 [论文阅读笔记]Adversarial Transformation Networks: Learning to Generate Adversarial Examples

Adversarial Transformation Networks: Learning to Generate Adversarial Examples在现有的许多方法中,利用梯度信息进行攻击的方法占绝大多数,本文另辟蹊径,提出了另一种方法:训练一个深度网络,将原图作为输入,输出为对抗样本。其优化目标为:arg⁡min⁡θ∑Xi∈χβLχ(gf,θ(Xi),Xi)+LY(f(gf,θ(...

2019-07-21 10:01:15 2757 2

原创 [论文阅读笔记]Adversarial Examples that Fool both Computer Vision and Time-Limited Humans

Adversarial Examples that Fool both Computer Vision and Time-Limited Humans(CVPR2018)文中提出了首个可以欺骗人类的对抗样本。左图是猫右图是对抗样本,乍一眼看过去,感觉右图是狗。。下图在短时间内,人类容易把它看作是一条蛇(brief表示短时间判断,long表示长时间判断)代词说明:image: 从Imag...

2019-07-21 09:58:37 964

原创 [论文阅读笔记]Deep Neural Networks are Easily Fooled:High Confidence Predictions for Unrecognizable Images

Deep Neural Networks are Easily Fooled:High Confidence Predictions for Unrecognizable Images(CVPR2015)本文主要介绍深度神经网络的另一个缺陷:会将人类无法识别的图案以非常高的置信度归为某个label。当经过retrain的DNNs学会将负面例子分类为fool image时,即使经过多次再训练迭代,...

2019-07-21 09:57:23 1202

原创 Adversary Attack(对抗攻击)论文阅读笔记

引言:最近开始学习Adversary Attack(对抗攻击)有关的内容,于是便从Ian GoodFollow的论文开始读起,后面每篇博客都会列举三篇的阅读笔记,来记录学习的经历。如果有讲得不到位或者您有什么想要补充的话,欢迎留言哦~ 接下里将列举3篇论文:Explaining and Harnessing Adversarial Examples(ICLR2015)Adversa...

2019-05-10 15:55:19 4393

原创 person ReID(行人重识别)2018CVPR paper阅读笔记

使用的数据集介绍Market1501: It consistsof 12,936 images for training, and each person has17.2 images on average in the train set.DukeMTMC-reID: a subset of the DukeMTMC for image-based ReID.Its train set...

2019-05-08 09:05:29 1514

原创 [Python] numpy中运算符* @ mutiply dot的用法分析

引言:最近同学在做机器学习作业时,代码中遇到了* @ np.mutiply .dot这个几个numpy的运算,发现有点晕,于是我在这里做几个简单的对比,以及列举需要注意的问题 首先先给一个比较简单的用法解释:*:              &nbs...

2019-04-26 10:19:58 15438 3

原创 Python变量引用浅析

引言:对于刚接触Python语言的同学来说,可能不太了解Python中参数赋值的机制:在Python中,对一个变量的赋值,实际上是修改了数据的引用。 本文将在下面举几个例子来帮助说明该机制首先我们来证明一下,对于变量的赋值实际上是修改了数据的引用这个描述:从ipython的运行结果中,我们可以看出,当给一个变量赋值时,其实对于该变量a而言,只是一个标签(数据的引用),类似于下图而将以...

2019-04-09 11:02:30 5247

原创 Windows下使用sh指令的方法

引言:最近在github上找开源代码实现时,遇到了sh指令。然后发现window的cmd无法使用这个指令,因此本文就是为了介绍大家在windows环境下使用sh指令的方法,本文将介绍2种方法来帮助大家方法一:使用Git下载git,不过在这里下载速度比较慢。如果装了360软件管家的童鞋可以直接在宝库里面搜索git,这个下载速度比较快。记住安装的位置(我的默认位置为C:\Users\M...

2019-04-06 16:24:14 34438 14

原创 Tensorflow:tf.assign()函数的使用方法及易错点

引言:当大家在使用tf.assign()这个函数时,如果不是很了解这个函数的用法,很容易出错,而且似乎对应不同的tf版本其操作结果也会有细微的差别,本文是基于1.9.0版本的tf进行描述的,对于更新的版本而言应该结论是一样的,但对于比较旧的版本,可能就会有细微差别。首先我们看一下源码中的返回值说明:update = tf.assign(ref, new_value) # 平时的使...

2019-04-05 11:31:05 12706 4

原创 tensorflow.python.framework.errors_impl.NotFoundError: Failed to create a NewWriteableFile:

Tensorflow报错信息:tensorflow.python.framework.errors_impl.NotFoundError: Failed to create a NewWriteableFile: ./raccoon_dataset/tfrecords/raccoon.tfrecords : ϵͳ\udcd5Ҳ\udcbb\udcb5\udcbdָ\udcb6\udca8\udc...

2019-02-14 17:11:18 14428 21

原创 通俗易懂理解(梯度下降)优化算法:Momentum、AdaGrad、RMSProp、Adam

引言:在深度学习的任务目标中,通常我们希望我们的学习结果能够在损失函数上得到一个较好的结果,即朝着损失函数最小的方向前进。但是对于大部分深度学习任务而言,其优化的目标通常是一个非凸函数,其优化难度会比较大,所以也就出现了一系列的优化函数。接下来我会用比较通俗易懂的语言来介绍一些比较著名的优化算法回顾:梯度下降法(GD)与随机梯度下降法(SGD)的理解Note:本文的数学符号可能会与相关书...

2019-02-06 16:43:13 4339 4

原创 梯度下降法(GD)与随机梯度下降法(SGD)的理解

引言:在深度学习的任务目标中,通常我们希望我们的学习结果能够在损失函数上得到一个较好的结果,即朝着损失函数最小的方向前进。但是对于大部分深度学习任务而言,接下来我会用比较通俗易懂的语言结合算法实现来介绍GD、SGD梯度下降法(gradient descent):1. 数学理解首先我们知道梯度方向是函数增长最快的方向,梯度的反方向是函数减少最快的方向,而梯度下降法就是往梯度反方向前进...

2019-02-06 12:56:20 9101 1

原创 Jupyter notebook 打开网页无法显示

Jupyter Notebook问题:点击jupyter Notebook打开谷歌浏览器后,出现"该网页无法正常运作 localhost 目前无法处理此请求。"而无法显示寻找了很多办法也无法解决。一篇可能对您有帮助的博文(当然这个无法解决我的问题)我的解决方案:因为我之前使用过翻墙软件,可能是这个原因导致的这个问题。于是退出翻墙软件问题成功解决。。。结束语:希望大家能够通过以上方法...

2019-02-06 11:01:00 2921 1

原创 CSDN中Markdown新版编辑图片居中问题

最近又开始写博客了,但是好久没写之后发现CSDN的Markdown编辑器跟以前的有点区别了,以前能够使得图片居中的方法,现在已经行不通。而且,目前百度的大部分文章都是针对以前的编辑器的,不过,在我不懈努力之下终于找到了解决图片居中问题的方法。第一步:按照以往的方式上传图片。第二步图片上传完成后会出现这一串内容,接下来,复制我标出的部分,在Markdown编辑器中输入:&lt...

2019-02-01 21:20:50 884 2

原创 从tensorflow.examples.tutorials.mnist导入input_data出现错误并弹窗的解决方案

Tensorflow报错解决:import numpy as npimport sklearn.preprocessing as prepimport tensorflow as tffrom tensorflow.examples.tutorials.mnist import input_data # 报错我今天在使用tensorflow.examples.tutorials.mn...

2019-02-01 21:10:14 22968 3

原创 Word2Vec原理与Tensorflow实现

引言:Word2Vec也成为Word Embeddings,一般称为“词向量”或者“词嵌入”。笼统地说Word2Vec就是要把语言中字词转为向量形式的表达 接下来就是要来谈谈为什么要把字词转为向量的形式使用Word2Vec的原因:在之前我们一般会使用如上图一样的one-hot编码来表示一个对象,但是使用这个有一个问题,那就是我们对特征的编码往往都是随机的,没有提供任何关联信...

2019-02-01 14:07:20 876

原创 Tensorflow:NotFoundError (see above for traceback): Key style_weight/Variable not found in checkpoin

Tensorflow报错解决:NotFoundError (see above for traceback): Key style_weight/Variable not found in checkpoint在 saver.restore()加载的前面,需要添加 tf.reset_default_graph(),作用是 清除默认图的堆栈,并设置全局图为默认图删除ckpt存储位置的全部文...

2019-01-30 17:37:01 946

原创 ResNet(V2)结构以及Tensorflow实现

Tensorflow实现ResNet_V2引言:ResNet是由Kaiming He等4名华人提出,通过使用Residual Unit成功训练了152层的深度神经网络,在ILSVRC 2015比赛中获得冠军,取得了3.57%的top-5错误率,同时参数却比VGGNet少。之后很多方法都建立在ResNet的基础上完成的,例如检测,分割,识别等领域都纷纷使用ResNet。在ResNet推出不久,...

2019-01-26 16:47:33 3114 2

原创 GoogleInceptionNet(V3)简介以及Tensorflow实现

Tensorflow实现GoogleInceptionNet_V3引言:Google Inception Net首次出现在ILSVRC 2014的比赛中,并且有非常好的性能——top-5的错误率6.67%,后来又逐渐提出了Inception V2、Inception V3和Incepiton V4。本文实现的网络结构为Inception V3相关阅读:Tensorflow实现VGGNe...

2019-01-23 13:08:30 1106 5

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除