自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+

算法探索之路

送给大家最佳学习资源

  • 博客(186)
  • 资源 (1)
  • 收藏
  • 关注

原创 算法面试高频算法题(leetcode)详解 python3.7实现 最暴力、最佳的解题方法

很不错的内容呀

2019-11-21 20:31:01 3465 4

原创 Linux服务器上搭建深度学习环境(安装anaconda、创建虚拟环境、安装pytorch)

Linux上搭建深度学习

2024-04-08 14:34:05 449

原创 预训练模型的使用torchvision.model和timm

当使用torchvision.models中的模型时,通常会加载预训练的权重,这些权重是在ImageNet上训练得到的。除了加载并使用预定义的模型,timm还提供了其他的功能,如自定义模型、模型集成、模型骨干架构提取等。通过上述代码,您可以方便地查看timm库中包含的所有模型,并选择最适合您项目需求的模型来进行使用。总而言之,timm是一个很有用的工具,可以帮助你快速实现各种计算机视觉任务,同时提供了丰富的模型选择和预训练权重。通过这种方式,您可以加载自己的模型权重而不使用预训练的权重。

2024-03-06 08:46:09 572

原创 深度学习常用数学知识

深度学习中的数学基础

2023-12-16 00:45:39 1081

原创 pytorch 深度学习之余弦相似度

pytorch实现余弦相似度

2023-11-15 21:32:38 1642 1

原创 虚拟机上安装镜像

windows: 直接官网下载。

2023-09-18 15:38:47 183

原创 latex 使用 (更新)

的一个特殊用法,专门用于引用数学公式的标号。当给数学公式添加标签时,可以使用。都可以指定图片的排版位置,且前者用于单栏文档,后者用于双栏文档的宽图片插入。它们之间的区别在于所使用的命令和排版布局。是用于引用标签的命令,但针对不同类型的标签使用略有不同。用于引用普通的标签,例如章节、图表和公式等。可以引用具有标签的对象,并在文档中生成对应的编号。用于引用其他类型的标签,如章节、图表等。命令引用该标签,以生成公式的编号。用于双栏文档中的宽图片插入。用于引用数学公式的标签,它是。用于引用数学公式的标签,而。

2023-08-13 09:09:36 1499

原创 黑盒攻击(为什么选择基于迁移的攻击)

总之,黑盒攻击是在缺乏目标模型完全内部信息的情况下进行的攻击,基于观察模型输入输出的行为进行推断和攻击。基于查询的攻击:基于查询的黑盒攻击通过向目标模型发送一系列特定的查询来获取模型的输出,然后利用这些输出信息进行攻击。基于迁移的攻击:基于迁移的黑盒攻击利用已知模型或数据集的信息来攻击目标模型。综上所述,选择基于迁移的黑盒攻击可以更好地适应模型不可知性的情况,利用已有数据进行攻击,提供更贴近实际场景的评估。基于迁移的攻击可以利用已知模型的特性和行为来推断目标模型的性质,从而更有效地进行攻击。

2023-06-24 23:42:22 1664

原创 python 画图时各种颜色代码

【代码】python 画图时各种颜色代码。

2023-04-26 17:42:07 7097 1

原创 visio画好的图片插入latex

visio画好的图片插入latex。

2023-04-23 11:41:34 739

原创 对抗样本-(CVPR‘2021) 通过方差调优(Variance Tuning)提升对抗样本的迁移性

我们提出一种名为方差调整的新方法,来增强迭代梯度攻击方法的攻击迁移能力。具体而言,在每次梯度计算的迭代中,我们并非直接使用当前梯度进行动量累积,而是进一步考虑上一次迭代的梯度方差,以调整当前梯度,从而稳定更新方向,并摆脱贫困局面。解决的问题:虽然白盒攻击已经取得了惊人的成功率,但大多数现有的攻击在黑盒情况下往往表现出较弱的迁移性,特别是在攻击具有防御机制的模型时。对采到的样本求近似方差。

2023-04-19 14:59:17 235

原创 对抗样本-(CVPR 2022)-通过基于对象多样化输入来提高有针对性对抗样本的可迁移性

本文提出了一种新的方法来生成有针对性的对抗样本,该方法通过使用多种不同的输入图像来生成更加丰富和多样化的图像。具体而言,该方法使用对象-多样化输入(ODI)技术来将同一种类的多幅图像合并成一个输入,并使用迭代FGSM攻击来生成有针对性的对抗样本。实验结果表明,与传统的FGSM攻击相比,采用ODI方法生成的对抗样本在准确率下降的条件下更具有鲁棒性和可迁移性。采用ODI方法生成的对抗样本具有更好的鲁棒性和可迁移性,能够有效克服当前对抗攻击存在的一些弱点。代打有些语法错误 思路没问题。

2023-04-11 16:22:08 518

原创 科研论文之Latex(高效方法)

在线latex不需要配置任何环境,导入压缩包直接使用。但是会出现偶尔掉线,经常重新连接。在线转换表格为latex code,无需下载。最大支持500行20列的表格。可自定义表格框线、字体、颜色、居中排列等等 界面简洁,操作方便,速度快。可导入CSV文件,也可直接粘贴数。

2023-04-04 10:49:35 1123

原创 对抗样本:ICLR 2022 基于积分梯度的对抗攻击(可迁移的黑盒攻击)Transferable Attack based on Integrated Gradients (TAIG)

作者将三种方法分别是优化标准目标函数、注意力图和平滑决策面集成到论文方法 TAIG 中,作者研究了两种计算直线路径和随机分段线性路径上积分梯度的 TAIG。实验结果表明,论文中提出的方法生成了高迁移性的对抗样本,并且可以与以前的方法进行无缝协同工作,而且 TAIG 的性能优于现有的方法。:该论文提出的攻击算法,在实验中特别费时间,每一次迭代需要循环N次(N为batch_size的大小),因此需要消耗大量的时间去生成对抗样本。发现该算法在白盒以及黑盒上的攻击表现都稍微低于其他顶会的攻击算法。

2023-03-20 19:21:28 463

原创 对抗攻击与防御(2022年顶会顶刊AAAI、ACM、 ECCV、NIPS、ICLR、CVPR)adversarial attack and defense汇总

2022年 关于对抗攻击跟防御的全部顶会、顶刊论文

2023-03-19 02:49:13 3892

原创 ICLR 2020,Nesterov Accelerated Gradient and Scale Invariance for Adversarial Attacks

相应地,现有的工作在前者上主要是采用了动量(MI-FGSM),后者主要是模型增强(模型集成攻击)。提高模型泛化性可以分为两类:一是更好的。

2023-03-13 18:05:54 178

原创 网络安全与程序设计实验二:Socket编程(客户端与服务端)

a. 服务器端:产生随机模除计算题目,向用户提问,根据用户提交的答案,评分,并记录总分。运用Socket API设计和实现网络编程。(1) 结合实际场景,提出网络编程想定(即设想),自行确定功能需求;(2) 设计和实现服务端程序、客户端程序;b. 客户端:回答服务器端提出的问题。

2023-03-10 10:17:33 412

原创 adversarial example(对抗样本)最来的资料

对抗样本垃圾资料

2023-03-07 23:51:58 160

原创 timm使用swin-transformer

swin-transformer

2023-02-22 22:58:23 3429 1

原创 对抗样本阅读论文

2023年读过的论文

2023-02-08 13:26:59 440

原创 计算机视觉之图像检索

图像检索

2023-01-09 00:20:17 93

原创 pytorch模型保存与加载(保存最优参数)

保存最优的参数来预测

2023-01-04 23:42:41 3185

原创 pytorch微调与迁移学习

迁移学习+微调 来提升模型精度

2023-01-04 21:27:58 194

原创 pytorch数据dataset的三种读取方式

数据集的三种读取方式

2023-01-04 19:44:58 867

原创 李宏毅对抗攻击跟防御

所以就要能够对恶意攻击采取一定的防御措施。在人类恶意攻击的情况下,希望也能得到高的正确率。论文中一般用不同的优化方法,或者不同的限定。优化方法例如梯度上升来优化损失函数最大化。

2023-01-03 22:27:32 167

原创 深度学习对抗鲁棒性基础

深度学习鲁棒性综述了解

2023-01-02 15:04:51 161

原创 pytorch显示一批图像数据的2种方法

pytorch 库 torchvision 带的make_grid()

2022-12-31 11:15:44 187

原创 python从网页下载图片

output 后面是输出的名字 可以改。

2022-12-29 23:22:27 65

原创 深度学习中范数的图像以及理解

参考文章

2022-12-27 22:47:11 529

原创 pytorch深度学习常用命令

data 跟detach()这两个方法都可以用来从原有的计算图中分离出某一个tensor,有相似的地方,也有不同的地方,下面来比较性的看一看。PyTorch0.4以及之后的版本中,.data 仍保留,但建议使用 .detach()torch.Tensor.detach()是新版本中可以用来替换data的方法,而且比data要更安全。将字典变成列表的形式。

2022-12-26 20:12:40 504

原创 pytorch中None的用法,以及如何理解多维数组

None的用法参考此处该图片是自己练习 并总结

2022-12-19 20:04:49 384

原创 pytorch中type_as的用法

将a的数据类型 变成跟b一样的类型。

2022-12-19 15:58:29 390

转载 对抗样本改善图像分类性能

主要的问题在于对抗样本的分布和常规样本的分布是不一致的,这导致了简单的混合对抗样本和常规样本进行训练无法提升模型性能,甚至会降低模型性能。上述简单的训练策略在微调期可能会掩盖预训练网络从对抗样本中学习到的特征,所以作者提出了一种新的训练策略:将对抗样本和常规样本同时加入训练,并分别针对对抗样本和常规样本进行BN。但是,凡事有利有弊。经研究证实,对抗样本参与模型训练可以让模型学习到一些附加的特征,同时,可以让网络提取的特征更好的与样本的突出特征对齐,还可以提升模型对高频图像噪声的鲁棒性。

2022-12-15 08:59:43 264

原创 model.train和model.eval之Batch Normalization 和 Dropout

的作用是启用和。如果模型中有BN层()和Dropout,需要在训练时添加model.train()。model.train()是保证BN层能够用到每一批数据的均值和方差。对于Dropout,model.train()是随机取一部分网络连接来训练更新参数。

2022-12-14 17:12:26 617

原创 训练CNN之过拟合与欠拟合

过拟合欠拟合来自PDF截图。

2022-12-14 15:16:45 152

原创 图像数据增强的方法(pytorch实现)

从上面可以看出,对于训练集,不做数据增强跑 10 次,准确率已经到了 95%,而使用了数据增强,跑 10 次准确率只有 75%,说明数据增强之后变得更难了。而对于测试集,使用数据增强进行训练的时候,准确率会比不使用更高,因为数据增强提高了模型应对于更多的不同数据集的泛化能力,所以有更好的效果。

2022-12-08 20:18:36 2700 1

原创 HTML 页面的分析与设计

带扩展名 ,改成.html结尾的。然后打开方式用文本,最后在本文里编辑内容。以我的高中为主题,做个html 介绍自己的高中 例如学校环境 情况等。2.sublime text 右击-》从浏览器中打开。第三次查看作业 (作业中必须包含讲义1-5所讲内容)把用到的图片、html、mp4等等打包发给课代表。咱们的做的是静态网页 所以不用看6。3. 慕课网免费课程带的编辑。格式 学号-姓名-实验十四。讲义里的6-7不用做。

2022-11-21 15:46:50 121

原创 linux常用命令快速入门

还可以跳转到桌面文件夹下的test1文件夹里面 cd 桌面/test1。——>根路径下的,home文件夹下的zeze文件夹。根目录,类似于Windows中的C或者D。显示当前路径下的文件以及文件夹的内容。cd 路径——>跳转到某个路径。显示当前正在操作的路径。

2022-10-12 16:14:04 100

原创 实验十三 搭建局域网

修改设置IP sudo ifconfig 网卡名 IP地址 netmask 子网掩码。高版本的UBUNTU ifconfig 不能用 大家自己百度安装。设置网关 sudo route add default gw 网关。虚拟机上的Ubuntu链接 win10 记得打开防火墙。ifconfig(linux) 高版本的用ip add。查看本机IP地址 : ipconfig(WIN)测试网络是否通 ping ip地址。查询网关 route -n。

2022-10-11 11:09:33 418

原创 Linux快速入门之文件和目录

理解 Linux 文件目录的结构。

2022-09-28 16:35:17 188

A curated list of AI Security & Privacy events

人工智能安全 最新资料

2023-03-07

2023年最新入门对抗样本、对抗攻击与防御资源

2023年最新入门对抗样本、对抗攻击与防御的最佳教程,里面包含总结好的攻击跟防御代码 并有详细介绍。 有入门到精通,该教程最通俗易懂。 对抗样本是各种机器学习系统需要克服的一大障碍。对抗样本的存在表明模型倾向于依赖不可靠的特征来最大化性能,如果特征受到干扰,那么将造成模型误分类,可能导致灾难性的后果。对抗样本的非正式定义:以人类不可感知的方式对输入进行修改,使得修改后的输入能够被机器学习系统误分类,尽管原始输入是被正确分类的。这一修改后的输入即被称为对抗样本。 敌手在恶意设计扰动,让自动驾驶汽车直线拐弯[10],让目标检测失灵[11],让人脸识别系统失效[12]。我不放心你做事啊,尤其是人命关天的任务。

2023-01-04

任务2: 关联图Ipy文件.zip

菜菜的可视化课件 资料 以及全部 需要的直接下载 视频配合资料 0000

2019-12-01

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除