自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(65)
  • 收藏
  • 关注

原创 leetcode-颜色分类

【代码】leetcode-颜色分类。

2024-03-13 12:48:11 92

原创 Leetcode-热题100-持续更新

时间不够,只能背诵哎,没办法,难题不写,简单题和中等题。

2024-03-13 09:41:34 182

原创 leetcode-只出现一次的数字

因此,如果将数组中所有的元素进行异或操作,出现两次的元素会相互抵消为 0,最终剩下的结果就是只出现一次的元素。异或运算满足交换律和结合律,即 a ⊕ b ⊕ a = (a ⊕ a) ⊕ b = 0 ⊕ b = b。任何数和 0 做异或运算,结果仍然是原来的数,即 a ⊕ 0 = a。任何数和其自身做异或运算,结果为 0,即 a ⊕ a = 0。

2024-03-10 14:31:24 211

原创 wps-1

【代码】wps-1。

2024-03-08 10:21:26 79

原创 wps-2

【代码】wps-2。

2024-03-08 09:53:02 95

原创 leetcode- 买股票的最佳时机

【代码】leetcode- 买股票的最佳时机。

2024-03-06 11:27:39 287

原创 KNN和kmeans

它的主要思想是将给定的数据集分成 k 个簇,其中 k 是用户定义的常数。这些簇的类中心是数据集的部分均值,并且每个数据点属于离它最近的类中心所在的簇。K-Means算法的优点是在大规模数据集上可扩展,但它可能收敛到本地最小值,并且需要根据数据选择合适的k值。它的原理是根据给定的训练数据集,对新的输入实例进行分类。它的主要思想是找到最接近的 k 个训练数据集中的实例,并按照它们的多数类得出新实例的类别。因此,虽然它们的名称中都包含 “k”,但它们是不同的算法,用于不同类型的任务。

2024-03-06 09:37:20 104

原创 leetcode-搜索二维矩阵

【代码】leetcode-搜索二维矩阵。

2024-03-03 22:22:12 219

原创 leetcode-搜索插入位置

【代码】leetcode-搜索插入位置。

2024-03-02 22:20:41 74

原创 leetcode-腐烂的橘子

【代码】leetcode-腐烂的橘子。

2024-02-29 10:06:05 70

原创 leetcode-二叉树的右视图

【代码】leetcode-二叉树的右视图。

2024-02-29 09:43:06 388

原创 leetcode-二叉树中的第k小的元素

【代码】leetcode-二叉树中的第k小的元素。

2024-02-29 09:05:07 87

原创 leetcode-验证二叉搜索树

【代码】leetcode-验证二叉搜索树。

2024-02-28 20:02:55 80

原创 leetcode-将有序数组转换为二叉搜索树

【代码】leetcode-将有序数组转换为二叉搜索树。

2024-02-28 19:35:43 105

原创 leetcode-二叉树的直径

【代码】leetcode-二叉树的直径。

2024-02-28 19:00:09 66

原创 leetcode-对称二叉树

【代码】leetcode-对称二叉树。

2024-02-28 16:40:19 336

原创 leetcode-翻转二叉树

【代码】leetcode-翻转二叉树。

2024-02-28 16:16:59 389

原创 Leetcode-环形链表

【代码】Leetcode-环形链表。

2024-02-28 16:04:55 261

原创 leetcode-合并两个有序列表

【代码】leetcode-合并两个有序列表。

2024-02-28 10:49:33 86

原创 leetcode-回文链表

【代码】leetcode-回文链表。

2024-02-28 09:59:37 330

原创 leetcode-相交链表

【代码】leetcode-相交链表。

2024-02-28 09:29:06 96

原创 leetcode-反转列表

【代码】leetcode-反转列表。

2024-02-27 21:40:45 360

原创 leetcode-轮转数组

【代码】leetcode-轮转数组。

2024-02-27 21:08:05 104

原创 春招算法岗摸鱼-leetcode-最大子数组和

【代码】春招算法岗摸鱼-leetcode-最大子数组和。

2024-02-27 19:55:42 275

原创 48. 旋转图像

【代码】48. 旋转图像。

2024-02-27 19:28:55 98

原创 LeetCode-1143. 最长公共子序列

【代码】LeetCode-1143. 最长公共子序列。

2024-02-26 08:49:51 99

原创 leetcode-不同路径

【代码】leetcode-不同路径。

2024-02-25 21:30:48 292

原创 LeetCode-最长回文子串

【代码】LeetCode-最长回文子串。

2024-02-23 21:30:21 63

原创 LeetCode-二叉树的层序遍历

【代码】LeetCode-二叉树的层序遍历。

2024-02-23 09:46:36 86

原创 leetcode-二叉树的最大深度

【代码】leetcode-二叉树的最大深度。

2024-02-22 21:00:18 66

原创 leetcode-二叉树的前序,中序,后序遍历

【代码】leetcode-二叉树的前序,中序,后序遍历。

2024-02-21 22:21:04 92

原创 Leetcode热题100-1. 两数之和

题解1-暴力法遍历。

2024-02-18 10:45:28 160 1

原创 pytorch中gather函数

一般没遇到太好的讲解是不会写博客的https://www.bilibili.com/video/BV1Ly4y1n7dN?spm_id_from=333.337.search-card.all.click添加链接描述

2022-04-05 17:17:53 140

原创 CW攻击算法

1.CW攻击算法 - 搜索结果 - 知乎2.对抗攻击经典论文剖析(上)【FGSM、BIM、PGD、Carlini and Wagner Attacks (C&W)】_BugLess++的博客-CSDN博客_pgd攻击3.对抗攻击8——CW(Carlini & Wagner)_鬼道2022的博客-CSDN博客_cw攻击4.CW Attack论文阅读与总结_超自信面包QTQ的博客-CSDN博客_cw论文5.[中文讲解] Towards Evaluating the Robustn

2022-03-20 20:49:12 4057

原创 torch.max(output, 2, keepdim=True)[1]

1、torch.max()torch.max(input) → Tensor返回 input tensor 中所有元素的最大值。torch.max(input, dim, keepdim=False) → output tensors (max, max_indices)参数:input:输入的 tensor。dim:按什么维度求最大值(2D中,0代表按列求最大值,1代表按行求最大值)。keepdim:是否保持 input tensor 的维度,True 代表 out tensor 与 in

2022-03-11 21:05:21 1873 1

原创 DeepFool

1.参考 1111在求对线性二分类器的最小扰动中,原文图如下。这里是二维平面,所以看图理解的时候应把样本看成有两个特征(分别沿横纵轴取值);决策超平面是一条直线wx+b=0。最小扰动向量的大小是从样本到决策超平面的距离,方向与超平面的法向量相反)...

2022-03-03 20:19:18 245

原创 FGSM。。。

Goodfellow等人认为高维空间下的线性行为足以产生对抗样本,对抗样本的线性解释:常见的数据图像大部分表示成1-255,8bit/像素点的形式,在原始样本上加小小的扰动就会被误分类。现在我们有:当存在一个小到可忽略的ε满足∥η∥∞<ε,我们期望分类器对这两个样本的分类结果一致,然而……现在考虑加入权值向量ω 信息,则:(权向量是带了权值的向量)对抗扰动通过ωTηωTη影响激活函数从而影响分类结果。如果ωω有nn个维度,权向量的一个元素的平均大小是mm,那么激活函数就会增加εmnεmn

2022-03-02 17:11:42 937

原创 关于读残差梯度消失BN层的问题

https://www.cnblogs.com/jie-dcai/p/5803220.html这篇写的我认为有水平

2022-02-19 09:57:17 670

原创 残差论文翻译

摘要更深的神经网络更难训练。 我们提出了一个残差学习框架,以减轻网络训练的负担,这些网络比以前使用的网络要深得多。我们明确地将这些层重新定义为根据参考层的输入来学习残差函数,而不是学习无参考的函数。我们提供了全面的经验证据,表明这些残差网络更容易优化,并且可以从深度增加中获得准确性的提高。 在ImageNet数据集上,我们评测了深度达152层的残差网络,其深度是VGG网络8倍[40],却仍然有着相对较低的复杂度。 这些残差网络的集合在ImageNet测试集上取得了3.57%的错误率,这一成绩赢得了ILSV

2022-02-15 14:12:40 251

转载 残差网络ResNet

经典传统网络,看到残差时,不得不做个笔记因为太重要了在VGG中,卷积网络达到了19层,在GoogLeNet中,网络史无前例的达到了22层。那么,网络的精度会随着网络的层数增多而增多吗?在深度学习中,网络层数增多一般会伴着下面几个问题计算资源的消耗模型容易过拟合梯度消失/梯度爆炸问题的产生问题1可以通过GPU集群来解决,对于一个企业资源并不是很大的问题;问题2的过拟合通过采集海量数据,并配合Dropout正则化等方法也可以有效避免;问题3通过Batch Normalization也可以避免。貌似我们

2022-02-14 21:15:04 961

ScholarOne-Manuscripts-Author-Guide翻译本

ScholarOne-Manuscripts-Author-Guide翻译本

2022-11-02

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除