- 博客(311)
- 资源 (1)
- 收藏
- 关注
原创 每天五分钟卷积神经网络:如何基于滑动窗口技术完成目标的检测?
现在我们想要构建一个汽车检测算法,我们希望输入到算法中一张图片,算法就可以帮助我们检测出这张图片中是否有汽车。
2024-03-29 20:49:31 88
原创 每天五分钟深度学习:使用神经网络完成人脸的特征点检测
我们上一节课程中学习了如何利用神经网络对图片中的对象进行定位,也就是通过输出四个参数值bx、by、bℎ和bw给出图片中对象的边界框。本节课程我们学习,神经网络可以通过输出图片中对象的特征点的(x,y)坐标来实现对目标特征的识别,。
2024-03-29 20:47:12 3
原创 JVM虚拟机:通过jconsole远程连接解决JVM报错
前面我们介绍过的一些工具都是使用命令行的方式来帮助我们完成,本文我们将使用一种图形化界面的方式来远程连接,然后完成关于JVM的检测任务。
2024-03-16 22:40:39 111
原创 Java高级互联网架构师之路:排查当前JVM错误的步骤
这个程序是有问题的,我们通过一些命令来分析这个程序究竟是哪里出了问题。首先把当前的程序通过SSH工具传输到centos系统中,之后我们就可以在linux环境下编译和执行。
2024-03-16 22:35:48 268
原创 每天五分钟计算机视觉:如何构造分类定位任务的算法模型?
本节课程我们将学习分类定位的问题,也就是说不仅要完成图片分类任务,然后还要完成定位任务。如下所示,我们不仅要用算法判断图片中是不是一辆车,还要在图片中标记出它的位置,用边框对象圈起来,这就是。一般可能会有一张图片对应多个对象,本节课我们假设所有的图片最多只对应一个对象。
2024-03-13 23:11:55 791
原创 每天五分钟计算机视觉:图像数据不足带来的问题和解决办法
在当今的数字时代,图像数据的应用已经渗透到各个领域,包括但不限于计算机视觉、机器学习、自动驾驶、医疗诊断等。然而,当图像数据不足时,会引发一系列问题,对相关应用产生负面影响。尤其是计算机视觉领域,图像数据尤为珍贵和稀缺,如果计算机视觉的任务中,如果缺少数据的时候,有哪些办法可以处理呢?本文将探讨图像数据不足带来的问题,以及解决这些问题的可能方法。
2024-03-13 22:29:53 445
原创 神经网络算法与逻辑回归:优势与差异
选择合适的模型应基于问题的类型、数据的规模与维度、非线性关系、特征工程、可解释性、计算资源与优化以及业务领域与实际需求等多方面因素进行综合考虑。例如,可以将逻辑回归作为神经网络的初始或辅助层,利用其线性分类能力与神经网络的非线性学习和泛化能力相结合,实现更强大的预测模型。神经网络算法和逻辑回归都是预测模型中的重要工具,但它们在处理复杂和非线性问题时表现出不同的性能。本文将通过理论分析和实证研究,深入探讨神经网络算法相对于逻辑回归的优势,以及它们在不同场景下的适用性。三、逻辑回归的优势与局限性。
2024-01-22 23:04:08 1144
原创 每天五分钟计算机视觉:掌握迁移学习使用技巧
随着深度学习的发展,迁移学习已成为一种流行的机器学习方法,它能够将预训练模型应用于各种任务,从而实现快速模型训练和优化。然而,要想充分利用迁移学习的优势,我们需要掌握一些关键技巧。本文将介绍这些技巧,帮助您更好地应用迁移学习技术。
2024-01-22 23:00:11 455
原创 虚拟以太网:技术解析与应用前景
虚拟以太网的核心思想是将物理以太网帧封装在虚拟化容器中,从而实现以太网帧在虚拟化环境中的传输。在虚拟容器中,虚拟以太网帧保留了以太网帧的结构,包括目的MAC地址、源MAC地址、类型/长度字段以及数据负载等。同时,虚拟以太网帧还包含了用于标识虚拟网络的虚拟化封装头,包括虚拟网络标识符、封装类型等信息。基于软件的方式是通过在操作系统上运行虚拟以太网软件来实现虚拟以太网功能。这种方式的优势在于性能高,可以提供高速的虚拟以太网传输。虚拟以太网的实现方式主要分为两种:基于软件的方式和基于硬件的方式。
2024-01-21 23:34:59 935
原创 每天五分钟计算机视觉:揭秘迁移学习
随着人工智能的迅速发展,深度学习已经成为了许多领域的关键技术。然而,深度学习模型的训练需要大量的标注数据,这在很多情况下是不现实的。迁移学习作为一种有效的方法,可以在已有的数据和模型上进行训练,然后将其应用于新的任务。这种方法大大降低了对新任务的数据需求,提高了模型的泛化能力。本文将详细介绍迁移学习的原理、应用和未来发展。
2024-01-03 22:38:27 989
原创 每天五分钟计算机视觉:为什么要去GitHub寻找开源代码实现方案?
通过学习高质量的代码、参与社区讨论、快速上手实践、跟进最新技术、参与开源项目以及传播开源文化等途径,学习者可以更好地掌握计算机视觉技术的基础知识和应用技能,为自己的未来发展打下坚实的基础。同时,与更多专业人士的合作与交流也能够让学习者获得更多的机会和资源,为未来的职业发展打下良好的基础。此外,通过阅读其他人的代码,学习者还可以了解不同的编程风格和技巧,为自己的编程技能打下坚实的基础。学习者可以通过关注这些组织和项目的动态,及时了解计算机视觉技术的最新进展和趋势,为自己的学习和职业发展提供更多的机会。
2024-01-03 22:31:31 442
原创 JVM虚拟机:各种JVM报错总结
出现这个问题的原因就是,我们的应用进程中创建了太多的线程了,使得超过了系统的极限。这个和堆的内存溢出的区别是,堆内存对象数据超过了堆的极限,那么就是堆的内存溢出,而这个是堆内存一直没有达到极限,但是一直占有将近98%的空间,因为每次回收的只能回收到2%。出现这个问题的原因是:如果不断分配本地内存,而堆内存很好用,那么JVM就不需要执行GC,那么这种情况下,DirectByteBuffer对象们就不会被回收,这样堆内存足够,但是本地内存已经满了,此时再次尝试分配本地内存就会出现错误了。
2024-01-02 23:39:48 1353
原创 每天五分钟计算机视觉:网络中的网络(NiN)
前面的课程中我们学习了众多的经典网络模型,比如LeNet、AlexNet、VGG等等,这些网络模型都有共同的特点。它们的特点是:先由卷积层构成的模块充分提取空间特征,然后再由全连接层构成的模块来输出分类结果。也就是说它们都是下面的这种效果,先卷积后全连接:它们的不同在于对卷积层中卷积核的大小以及卷积层的层数进行了改变,其它的变化不大。而本文我们将学习另外一个思想的卷积神经网络,这个卷积神经网络就是NiN,它的思想是:串联多个由卷积层核全连接层构成的小网络来构成一个深层网络。
2023-12-17 23:37:59 708
原创 每天五分钟计算机视觉:谷歌的Inception模块的计算成本的问题
我们输出28*28*32个数字,对于输出的每个数字来说,你都需要执行 5×5×192 (5*5为卷积核的大小,192为通道的数量)次乘法运算,把这些数相乘结果等于 1.2 亿(120422400)。Inception 层还有一个问题,就是计算成本的问题,我们来看一下5×5 过滤器在该模块中的计算成本。这种架构首先输入是28*28*192,然后输出是28*28*32和上一个的输入输出一样。第二个卷积层:28*28*32*5*5*16= 1000 万。原始图片为28*28*192经过32个5*5的过滤操作,
2023-12-17 23:31:30 1156
原创 每天五分钟计算机视觉:Inception网络是由多个Inception模块构成
所以 Inception 网络只是很多这些你学过的模块在不同的位置重复组成的网络,所以如果你理解了之前所学的 Inception 模块,你就也能理解 Inception 网络。
2023-12-15 23:19:29 574
原创 JVM虚拟机:GC垃圾回收器的常用参数总结
Xms:堆空间最小为多少-Xmx:堆空间最大为多少-Xss:栈空间大小-Xmn:年轻代的空间大小-XX:MetaspaceSize:元空间大小-XX:+PrintGCDetails:打印GC的细节-XX:+PrintHeapAtGC:打印堆的情况-XX:SurvivorRatio:新生代中Eden和s0、s1之间的比例-XX:NewRatio:新生代和来年代的比例-XX:+UseTLAB :使用TLAB,默认打开-XX:+PrintTLAB :打印TLAB的使用情况。
2023-12-14 23:45:15 823
原创 每天五分钟计算机视觉:GoogLeNet的核心模型结构——Inception
我们使用64个1*1的卷积核对其进行操作(same 卷积),我们假设输出为28*28*64,得到第一个输出我们使用3*3的卷积核对其进行操作(same 卷积),我们假设输出是 28×28×128。从而得到第二个值。然后我们把第二个值堆积到第一个值上使用5*5的卷积核对其进行操作(same 卷积),假设输出变成 28×28×32,从而得到第三个值,然后我们把第三个值再次堆积。或许我们不想对图片进行卷积操作,而是想要池化操作,从而得到一些不同的输出结果。
2023-12-14 23:37:58 663
原创 每天五分钟计算机视觉:为什么说1*1的卷积核是全连接神经网络?
总的来说为什么说1*1的卷积核类似于全连接,上面解释了就是因为1*1的卷积核会和输入的每个小格子进行交互,导致了出现了全连接的情况,事实上当你看后面的文章的时候,比如目标检测的时候,你会发现确实如此。
2023-12-11 23:35:31 1131
原创 每天五分钟计算机视觉:使用1*1卷积层来改变输入层的通道数量
在卷积神经网络中有很多重要的卷积核,比如1*1的卷积核,3*3的卷积核,本文将讲解1*1的卷积核的使用,它在卷积神经网络中具有重要的地位。由于1*1的卷积核使用了最小的窗口,那么1*1的卷积核就失去了卷积层可以识别高和宽维度上相邻元素构成的模式的功能。所以1*1的卷积核的主要计算发生在通道维上。
2023-12-10 22:23:30 833
原创 JVM虚拟机:执行Java程序并指定JVM参数
在前面我们设置参数值的时候,需要在eclipse中的VM中进行参数设置,查询的时候需要先jps,然后jinfo。这里尝试动态的设置和查询,也就是说在运行程序的时候就对其进行设置,并且进行查询。其中Shi是一个具体的java类,这个命令的解释是,查询所有的修改之后的参数,设置MetaspaceSize的大小为512m,并且运行shi类。这里只截取了一部分,我们可以看到metaspaceSize的大小就是修改之后的了。为了确定参数修改了,这里我们先使用下面的命令来查询初始化的参数。
2023-12-08 21:25:39 451
原创 每天五分钟计算机视觉:稠密连接网络(DenseNet)
在前面的课程中我们学习了残差网络ResNet,而DenseNet可以看成是ResNet的后续,我们看一下图就可以看出二者的主要区别了。
2023-12-08 21:24:17 1210
原创 JVM虚拟机:如何查看JVM初始和最终的参数?
在前面的课程中,我们学习了如何查看当前程序所处于的xx参数,本文再介绍一种如何参看JVM的xx参数?
2023-12-07 23:57:53 603
原创 每天五分钟计算机视觉:为什么残差网络ResNet如此强大?
为什么ResNet效果会这么好,为什么构建更深层次的 ResNet网络的同时还不降低它们在训练集上的效率。本文解释一下为什么ResNet会这么优秀。
2023-12-07 23:56:23 691
原创 JVM虚拟机:如何查看JVM的XX参数?
这种查询方式可以总结为当一个程序运行的时候,使用jps命令获取到它的端口号,然后通过jinfo查看当前程序的参数配置。
2023-12-06 23:42:01 675
原创 每天五分钟计算机视觉:通过残差块搭建卷积残差神经网络Resnet
随着深度神经网络的层数的增加,神经网络会变得越来越难以训练,之所以这样就是因为存在梯度消失和梯度爆炸问题。本节课程我们将学习跳跃连接方式,它可以从某一网络层获取激活a,然后迅速反馈给另外一层,甚至是神经网络的更深层,从而解决梯度消失的问题。
2023-12-06 23:39:43 690
原创 每天五分钟计算机视觉:VGG网络相对于AlexNet网络有哪些不同?
在前面的课程中,我们已经学习了VGG网络模型,也学习了AlexNet网络模型,AlexNet模型先于VGG网络模型产生,所以VGG在一定程度上要优于AlexNet模型,二者来看一下,二者究竟有什么不同?
2023-12-05 23:26:38 913
原创 每天五分钟计算机视觉:AlexNet网络的结构特点
在前面的一篇文章中,我们对AlexNet网络模型的参数进行了详细的介绍,本文对其网络模型的特点进行总结。
2023-12-02 20:32:03 739
原创 每天五分钟计算机视觉:经典的卷积神经网络之VGG-16模型
然后又是若干个卷积层,使用 128 个过滤器,以及一些 same 卷积,然后进行池化,可以推导出池化后的结果是56×56×128,接着再用 256 个相同的过滤器进行三次卷积操作,然后再池化,然后再卷积三次,再池化。连续两个卷积层,都是 64 个 3×3 的过滤器对输入图像进行卷积,输出结果是224×224×64,因为使用了 same 卷积,通道数量也一样。VGG-16 的结构并不复杂,这点非常吸引人,而且这种网络结构很规整,都是几个卷积层后面跟着可以压缩图像大小的池化层,池化层缩小图像的高度和宽度。
2023-12-01 23:00:11 1124
原创 每天五分钟计算机视觉:ImageNet大赛的世界冠军AlexNet模型
2012 Imagenet 比赛第一,Top5准确度超出第二10% ,它让人们认识到了深度学习技术的威力。比 LeNet更深,用多层小卷积层叠加替换大卷积层,就是说每一个卷积层的通道数小,不像LeNet一样每个卷积层的通道数很大。
2023-12-01 22:58:49 699
原创 每天五分钟计算机视觉:LeNet是最早用于数字识别的卷积神经网络
卷积层块的基本单位是卷积层后接最大池化层:其中卷积层用来识别图像里的空间模式,比如线条和物体的局部。同时卷积层保留输入形状,使得图像的像素在高和宽两个方向上的相关性均得到了有效的识别。另外一方面,卷积层通过滑动窗口将同一卷积核与不同位置的输入重复计算,从而避免参数尺寸扩大。而池化层则用来降低卷积层对位置的敏感性。
2023-11-28 00:11:41 607
原创 深度学习黎明时期的LeNet:揭开卷积神经网络的序幕
在深度学习的历史长河中,Yann LeCun 的 LeNet 是一个里程碑式的研究成果,它为后来的卷积神经网络(Convolutional Neural Networks,CNN)的发展奠定了基础。LeNet 的诞生标志着深度学习黎明时期的到来,为人工智能领域开创了新的篇章。
2023-11-28 00:04:08 449
原创 每天五分钟计算机视觉:经典架构的力量与启示
在深度学习和计算机视觉领域,卷积神经网络(Convolutional Neural Networks,简称CNN)无疑是最为经典的架构之一。近年来,随着研究的不断深入和新架构的不断涌现,许多初学者可能会忽视这些经典架构的重要性。然而,理解并学习这些经典架构,对于我们深入理解卷积神经网络的工作原理,以及如何设计更有效的模型具有极大的帮助。本文将探讨学习经典卷积网络架构的原因,并阐述其对于现代深度学习实践的启示。
2023-11-28 00:02:28 1460
原创 JVM虚拟机:JVM调优第一步,了解JVM常用命令行参数
本文重点从本文课程开始,我们将用几篇文章来介绍JVM中常用的命令行的参数,这个非常重要,第一我们可以通过参数了解JVM的配置,第二我们可以通过参数完成对JVM的调参。以及后面的JVM的调优也需要用到这些参数,所以我们将对这些参数进行认真的讲解。
2023-11-25 22:07:23 664
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人