自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(122)
  • 收藏
  • 关注

原创 科研结束,我们江湖再见

昨日盲审出结果,得到89,95分,我的学生生涯以及科研生涯可能就要提前宣告结束了,感谢自己三年来的努力,感谢自己三年来的不放弃,也感谢所有帮助过我的人,我们来日方长,江湖再见。

2022-05-07 18:41:14 326 1

原创 happy day

like,peace,love forever.

2021-10-03 14:46:18 173

原创 今天学习的poc(proof of concept 和 prototypes)的概念

What Does Proof of Concept (POC) Mean?A proof of concept (POC) is a demonstration to verify that certain concepts or theories have the potential for real-world application. In a nutshell, a POC represents the evidence demonstrating that a project or produ

2021-09-22 20:04:09 3539 1

原创 Group-wise Correlation Stereo Network--大致理解cvpr19

摘要分组 相关性 立体 网络Group-wise correlation群相关为测量特征相似性提供了有效的表示,并且不会像full correlation完全相关那样失去太多的信息。与以往的方法相比,它在减少参数时也保持了更好的性能。对以往提出的三维堆叠沙漏网络进行了改进,提高了性能,降低了推理计算成本。本文工作这篇文章主要提出了以下贡献:提出了分组相关性,来构建代价体 (cost volumes)以提供更好的相似性度量;(针对相似性问题本文利用这样一种分组相关性构造代价体)改进了 stack

2021-05-21 19:10:50 599

原创 FNet: Mixing Tokens with Fourier Transforms --粗读

摘要我们证明,通过用简单的线性转换可以取代自注意力层,transformer编码器架构可以通过“混合”输入标记的线性转换来大幅提高速度,精度成本有限。这些线性变换,以及前馈层中简单的非线性层,足以在几个文本分类任务中建模语义关系。也许最令人惊讶的是,我们发现用标准的、非参数化的傅里叶变换替换transformer编码器中的自我注意层在GLUE基准上实现了92%的精度,但在GPU上运行速度快7倍,在TPU上快两倍。所得到的模型,我们命名为FNet,非常有效地扩展到长输入,与 the Long Range A

2021-05-21 18:37:09 1573

原创 LightTrack: Finding Lightweight Neural Networks for Object Tracking via One-Shot Architecture Search

Abstract目标跟踪在过去几年中取得了重大进展。然而,最先进的跟踪器变得越来越复杂和昂贵,这限制了它们在资源受限的应用程序中的部署。 在这项工作中,我们提出了LightTrack,它使用神经结构搜索(NAS)来设计更轻量和高效的对象跟踪器。综合实验表明,该方法是有效的。它可以找到性能优于手工制作的SOTA跟踪器,如siamrpn++[30]和Ocean[56],同时使用更少的模型Flops和参数。此外,当部署在资源受限的移动芯片组上时,所发现的追踪器运行速度要快得多。例如,在Snapdragon 84

2021-05-21 18:00:35 2025 6

原创 <Transformer Meets Tracker: Exploiting Temporal Context for Robust Visual Tracking>

摘要模板集在视频对象跟踪中,连续帧之间存在丰富的时间上下文,而在现有的跟踪器中却被很大程度上忽略了。 在这项工作中,我们桥接单个视频帧,并通过一个用于稳固目标跟踪的Transformer架构探索跨上下文。 与在自然语言处理任务中使用Transformer的经典用法不同,我们将其编码器和解码器分为两个并行分支,并在类似于Siamese的跟踪pipeline中精心设计它们。 Transformer编码器通过基于注意力的特征增强来促进目标模板,这有利于高质量跟踪模型的生成。 Transformer解码器将跟踪提

2021-04-13 15:09:41 685

原创 <Learning Spatio-Temporal Transformer for Visual Tracking>--阅读理解-cvpr2021

摘要在本文中,我们提出了一种新的跟踪架构,其中的编码器-解码器transformer为关键组件。 编码器对目标对象和搜索区域之间的全局时空特征相关性进行建模,而解码器学习嵌入的查询以预测目标对象的空间位置。 我们的方法将目标跟踪转换为直接边界框预测问题,而无需使用任何建议或预定义锚。 使用编解码器变压器,对象的预测仅使用简单的全卷积网络,该网络可以直接估计对象的拐角。 整个方法是端到端的,不需要任何余弦窗口和边界框平滑之类的后处理步骤,从而大大简化了现有的跟踪管道。 拟议的跟踪器在五个具有挑战性的短期和长

2021-04-11 10:51:18 1867

原创 attention is all ur need---2017 transformer原始版本paper

3 Model Architecture大多数具有争议的自然序列转导模型都具有编码器-解码器结构[5,2,35]。在此,编码器将符号表示形式(x 1,…,x n)的输入序列映射到连续表示形式z =(z 1,…,z n)的序列。 给定z,则解码器然后一次生成一个元素的符号的输出序列(y 1,…,y m)。 模型的每一步都是自动回归的[10],在生成下一个时,会将先前生成的符号用作附加输入。Transformer遵循这种总体架构,对编码器和解码器使用堆叠式自注意力层和逐点,全连接层,分别如图1的左半部分和右

2021-04-07 16:57:41 249

原创 恶补tranformer(一)--cv,在看代码,后期补

transformer:https://zhuanlan.zhihu.com/p/62397974https://zhuanlan.zhihu.com/p/44731789

2021-04-06 19:12:14 240 1

原创 本周任务

做项目!!!,必须完成,一周时间!-打不到我的必将使我更强大.

2021-03-30 08:39:18 93

原创 关于代价结构在MOT视觉的应用Cost Volume(CVPR2021)--Track to Detect and Segment: An Online Multi-Object Tracker

Cost Volume.The cost volume technique has been success-fully applied in depth estimation [11, 55, 18] and opticalflow estimation [35, 10, 53] for associating pixels betweentwo frames. This motivates us to extend cost volume to amulti-object tracker, w

2021-03-17 16:16:39 446

原创 Rotation Equivariant Siamese Networks for Tracking ---cvpr2021-sot

用于跟踪的旋转等变siamese网络Abstract旋转是视觉对象跟踪中长期存在但尚未解决的艰巨挑战之一。 现有的基于深度学习的跟踪算法使用常规的CNN,这些CNN本质上是平移等变的,但并非旨在解决旋转问题。 在本文中,我们首先证明视频中存在旋转实例时,现有跟踪器的性能会受到严重影响。 为了避免旋转的不利影响,我们介绍了等速旋转连体网络(RE-SiamNets),该网络是通过使用包含可控滤镜的等分组卷积层构建的。 SiamNets允许以无人监督的方式估计对象方向的变化,从而也方便了其在相对2D姿势估计

2021-03-04 19:18:53 1753 1

原创 完全二分图

G = <V,E>V – 》 元素顶点集E --》 连线边集V = X ∪YX中的任一顶点与Y中每一个顶点均有且仅有唯一的一条边相连,则称G为完全二分图或完全偶图。

2021-03-01 19:45:55 2443

原创 Using HumanVisual System modeling for bio-inspired low level image processing

摘要在本文中,我们提出了一种图像处理方法,即所谓的“基于生物视觉的方法”。 基本思想是通过对人类视觉系统(HVS)的某些部分进行建模来复制人类视觉系统(HVS),以开发低级图像处理模块。到目前为止,我们视觉系统中最著名的部分是视网膜和V1皮质区域,这是我们专注于工作的两个部分。 视网膜可以被视为预处理步骤,该预处理步骤可以调节可视数据以进行高级分析。 V1皮质可被视为低级视觉信息描述器。 通过这两个“工具”,我们想展示如何设计有效的低级图像处理工具。受生物学启发的图像处理方法很多,我们选择仅专注于受

2021-02-23 16:51:35 392 3

原创 Contrastive Transformation for Self-supervised Correspondence Learning用于对应性自监督学习的对比变换

Abstract在本文中,我们着重于在野外使用未标记的视频对视觉对应进行自我监督学习。 我们的方法同时考虑了视频内和视频间表示关联,以进行可靠的对应估计。视频内学习经由帧对相似性在单个视频内的帧之间转换图像内容。为了获得实例级分离的判别表示,我们超越了视频内分析,并构建了视频间亲和力,以促进跨不同视频的对比转换。 通过强制视频内和视频间级别之间的转换一致性,可以很好地保留细粒度的对应关系,并有效地增强实例级别的特征区分。 我们的简单框架在一系列视觉任务(包括视频对象跟踪(VOT),视频对象分段(VOS

2021-01-07 16:36:09 938

原创 Alpha-Refine: Boosting Tracking Performance by Precise Bounding Box Estimation--精度翻译cvpr21

Abstract视觉对象跟踪的目的是精确估计给定目标的边界框,由于诸如变形和遮挡等因素,这是一个具有挑战性的问题。 许多最新的跟踪器采用多阶段跟踪策略来提高边界框估计的质量。 这些方法首先粗略地定位目标获取,然后在接下来的阶段中完善初始预测。 但是,现有的方法仍然受限于精度,而且不同阶段的耦合严重限制了该方法的可移植性。 这项工作提出了一种新颖,灵活,准确的细化模块,称为Alpha-Refine,可以显着提高基本跟踪器的预测质量。 通过探索一系列设计方案,我们得出结论,成功进行精炼的关键在于尽可能多地提取

2020-12-16 21:28:33 3106 4

原创 Deep Learning for Visual Tracking: A Comprehensive Survey(单目标跟踪目前最好的综述类文章)

Deep Learning for Visual Tracking: A Comprehensive Surveyhttps://arxiv.org/pdf/1912.00535.pdf

2020-12-02 10:26:47 1120

原创 SimSIam:凯明大神最新文章,消除表征学习“崩溃解”,说明孪生网络的有效性

11

2020-11-25 08:37:47 796

原创 cv中的注意力机制论文:CBAM and BAM 阅读理解

Abstract我们提出了卷积-块-注意力-模块(CBAM),这是一种用于前馈卷积神经网络的简单而有效的注意力模块。 给定一个中间特征图,我们的模块会沿着两个独立的维度(通道和空间)依次推断注意力图,然后将注意力图与输入特征图相乘以进行自适应特征细化。 由于CBAM是轻量级的通用模块,因此可以将其无缝集成到任何CNN架构中,而开销却可以忽略不计,并且可以与基础CNN一起进行端到端训练。 我们通过在ImageNet-1K,MS COCO检测和VOC 2007检测数据集上进行的广泛实验来验证CBAM。我们的

2020-11-24 20:15:07 4952

转载 2020-11-23

https://blog.csdn.net/guofei_fly/article/details/104136008?utm_medium=distribute.pc_relevant.none-task-blog-BlogCommendFromBaidu-2.control&depth_1-utm_source=distribute.pc_relevant.none-task-blog-BlogCommendFromBaidu-2.control

2020-11-23 20:28:55 390

转载 RGB的规定mean,std

coco数据集的均值和方差(三分量顺序是RGB)mean = [0.471, 0.448, 0.408]std = [0.234, 0.239, 0.242]imagenet数据集的均值和方差(三分量顺序是RGB)mean = [0.485, 0.456, 0.406]std = [0.229, 0.224, 0.225]https://blog.csdn.net/dcrmg/article/details/102467434...

2020-11-06 15:56:04 2279

原创 MAST: A Memory-Augmented Self-Supervised Tracker

Abstract最近对自监督密集跟踪的兴趣已经取得了迅速的进展,但是性能仍然离监督方法还有很远的一段路要走。 我们提出了一种基于无注释视频训练的密集跟踪模型,该模型在现有基准上比以往的自监督方法有很大的提高(+15%),并且取得了与监督方法相当的性能。在本文中,我们首先通过深入的实验重新评估了用于自我监督训练和重建损失的传统选择,最后阐明了最优选择。 其次,我们通过使用一个关键的内存组件来增强我们的体系结构,从而进一步改进了现有的方法。 第三,我们以大规模半监督视频对象分割为基准(又名。 密集跟踪),

2020-11-06 14:44:07 938 1

原创 Fast Template Matching and Update for Video Object Tracking and Segmentation--论文翻译理解

Abstract在本文中,我们要解决的主要任务是多实例半监督视频对象跨帧序列的分割,其中只提供第一帧的gt信息。 基于检测的算法被广泛采用来处理这一任务,挑战在于选择匹配方法来预测结果,以及决定是否使用新预测的结果来更新目标模板。 然而,现有的方法以粗糙和僵硬的方式进行这些选择,从而影响了它们的性能。 为了克服这一局限性,我们提出了一种新的方法,利用强化学习来同时做出这两个决策。具体地,强化学习代理根据预测结果的质量学习决定是否更新目标模板。 匹配方法的选择将同时基于强化学习代理的动作历史来确定。 实验

2020-10-28 16:08:06 1265

原创 关于MASK RCNN

https://blog.csdn.net/myGFZ/article/details/79136610https://blog.csdn.net/WZZ18191171661/article/details/79453780

2020-10-26 21:37:04 92

原创 VIS--Video Instance Segmentation:MASKtrack-RCNN 论文翻译理解

大佬学习笔记1:https://blog.csdn.net/Rlin_by/article/details/104474345?ops_request_misc=%257B%2522request%255Fid%2522%253A%2522160370104919725222439676%2522%252C%2522scm%2522%253A%252220140713.130102334.pc%255Fall.%2522%257D&request_id=16037010491972522243967

2020-10-26 21:34:49 2593

原创 Classifying, Segmenting, and Tracking Object Instances in Video with Mask Propagation

利用掩码传播对视频中的对象实例进行分类、分割和跟踪 MASK一项与 MaskTrack R-CNN[42] 类似的工作Abstrac1t我们介绍了一种同时对视频序列中的对象实例进行分类cls、分割segm和跟踪track的方法。 我们的方法,命名为MaskProp,通过添加一个掩码mask传播分支, 将每个视频帧中的帧级对象实例掩码传播到视频剪辑中的所有其他帧,从而使流行的Mask R-CNN适用于视频。!:在Mask-RCNN的基础上加一个在一段video clip中可以propagate in

2020-10-26 19:34:49 1157

原创 本周task

四更:9 10 11 15目标跟踪与分割[8].State-Aware Tracker for Real-Time Video Object Segmentation作者 | Xi Chen, Zuoxin Li, Ye Yuan, Gang Yu, Jianxin Shen, Donglian Qi单位 | 浙江大学;旷视代码 | https://github.com/XavierCHEN34/State-Aware-Tracker解读 | 漫谈视频目标跟踪与分割[9].Classifyin

2020-10-26 16:17:03 239

原创 D3S A Discriminative Single Shot Segmentation Trac,tracking by segm最后的希望,不同于tracking by siamese

Abstract 摘要基于模板Z的判别跟踪器由于其鲁棒性而成为当前的主流跟踪范例,但仅限于包围盒跟踪BBOX和有限范围的变换模型,这降低了它们的定位精度。 提出了一种可区分的单镜头分割跟踪器D3S,缩小了视觉对象跟踪和视频对象分割之间的差距。 一个单阶段网络应用两个具有互补几何属性的目标模型,一个对包括非刚性变形在内的大范围变换不变,另一个假设刚性对象,以同时实现高鲁棒性和在线目标分割。 在没有按数据集微调和仅针对分段进行培训作为主要输出的情况下,D3S在VOT2016、VOT2018和GOT-10k基准

2020-10-19 09:23:26 792

原创 ECO,深度学习和相关滤波的结合,精读,这个发现了不太行,终止

大佬笔记:https://blog.csdn.net/qq_34919792/article/details/89893433摘要近年来,基于区分相关滤波器(DCF)的方法已大大提高了跟踪的最新水平。 然而,在追求不断提高的跟踪性能时,它们的特征速度和实时能力已逐渐消失。 此外,具有大量可训练参数的日益复杂的模型引入了严重过度拟合的风险。 在这项工作中,我们解决了计算复杂性和过拟合问题背后的关键原因,目的是同时提高速度和性能。我们重新审视DCF的核心公式,并引入:(i)一个分解卷积算子, 它大大

2020-10-13 18:44:00 1292

原创 Online Visual Tracking with One-Shot Context-Aware Domain Adaptation阅读翻译

Abstract在线学习策略使视觉跟踪器可以通过学习特定领域的线索来更强大地抵抗各种失真。 但是,跟踪器采用此策略无法充分利用背景区域的区分上下文。 此外,由于每个时间步长都缺乏足够的数据,因此在线学习方法还可能使跟踪器易于过度拟合背景区域。 在本文中,我们提出了一种域自适应方法来增强语义背景上下文的贡献。 领域适应方法仅由现成的深度模型来支撑。 所提出的方法的优势在于其具有判别能力,可以应对严重的咬合和背景杂乱的挑战。 我们进一步引入了一种成本敏感型损失,以减轻非语义背景对语义候选者的支配性,从而解决了

2020-10-04 10:30:26 380

原创 如何学习论文和一个研究方向

https://mbd.baidu.com/newspage/data/landingsuper?context=%7B%22nid%22%3A%22news_9306514962915111664%22%7D&n_type=0&p_from=1

2020-09-25 09:01:31 191

原创 Ocean/Ocean+: 实时目标跟踪分割算法《Object-aware Anchor-free Tracking》翻译

在过去的几年中,基于anchor的Siamese算法成为了单目标跟踪的主流。但是其本身在训练时设置了较为严苛的正负样本阈值(IoU>0.6)。这种设置固有的问题是:算法在训练时无法“看见”重合度较小的anchor,如果在测试时候分类分支将这样的anchor选为目标区域,那回归网络预测结果将非常差。本次分享,我们邀请到了中科院模式识别实验室的张志鹏博士。为解决上述问题,他们在论文中提出了基于anchor-free的回归网络,和基于特征对齐的object-aware分类网络。anchor-free回归网

2020-09-02 15:47:49 8201

原创 基于癫痫心电图的gru建模

datasets:abstract该数据库收集自波士顿儿童医院,其中包括患有难治性癫痫发作的儿科患者的脑电图记录。停用抗癫痫药物后最多持续几天对受试者进行监测,以表征其癫痫发作并评估其对手术干预的候选资格。资料说明从22个受试者中收集了23个病例的记录(5例男性,3-22岁; 17例女性,1.5-19岁)。 (案例chb21是在案例chb01之后1.5年从同一女性受试者获得的。)文件SUBJECT-INFO包含每个受试者的性别和年龄。 (案例chb24已于2010年12月添加到此收藏中,并且当前未包

2020-08-27 15:02:08 342

原创 Dream it possible 梦想成为可能

Dream it possible梦想成为可能I will run, I will climb, I will soar.我奔跑,我攀爬,我会飞翔。I’m undefeated永不言败Jumping out of my skin, pull the chord跳出我的皮肤,拨弄琴弦Yeah I believe it哦,我相信。The past, is everything we were don’t make us who we are往昔,逝去的光阴不会决定现在so I’ll dr

2020-08-04 15:04:48 402

原创 UpdateNet -- 大致理解

AbstractSiam方法通过从当前帧中提取外观模板来解决视觉跟踪问题,该模板用于在下一帧中定位目标。通常,此模板与前一帧中累积的模板线性组合,导致信息随时间呈指数衰减。 尽管这种更新方法可以改善结果,但其简单性限制了通过学习更新可能获得的潜在收益。 因此,我们建议用一种学习更新的方法来代替手工更新功能。 我们使用一个称为UpdateNet的卷积神经网络,该网络给出了初始模板,累积的模板和当前帧的模板,旨在估计下一帧的最佳模板。 UpdateNet紧凑,可以轻松集成到现有的暹罗跟踪器中。 我们通过将

2020-07-28 20:59:47 3726

原创 MoNet: Deep Motion Exploitation for Video Object Segmentation

摘要在本文中,我们提出了一种新颖的MoNet模型,该模型从帧表示学习和分割细化两个方面深入挖掘运动线索来提高视频对象的分割性能。 具体而言,MoNet利用计算出的运动提示(即光流)通过对齐和整合来自其邻居的表示来增强目标帧的表示。 新的表示形式为分割提供了有价值的时间上下文 ,并提高了对各种常见污染因素的鲁棒性,例如运动模糊,外观变化和视频对象变形。 此外,MoNet可以解决运动不一致的问题,并将这种运动提示转换为前景/背景,然后才能避免因混淆实例和嘈杂区域而分散注意力。 通过引入距离变换层,MoNet可

2020-07-10 14:51:05 811

原创 torch cpu gpu 转换

1.CPU tensor转GPU tensor:cpu_imgs.cuda()12.GPU tensor 转CPU tensor:gpu_imgs.cpu()13.numpy转为CPU tensor:torch.from_numpy( imgs )14.CPU tensor转为numpy数据:cpu_imgs.numpy()15.note:GPU tensor不能直接转为numpy数组,必须先转到CPU tensor。6.如果tensor是标量的话,可以直接使用 item() 函数

2020-07-09 10:00:56 1821

原创 工作思路

在我的base code 上 ,目前有三部分想法第一部分在base、 code的trakcer之后,首先要做的是找到提取特征后 分类回归前的特征图,featmap。然后与 刚写好的Pybms做图像处理。第二部分在base、coda的trainnet部分,我们做差创建一个mask,然后在rpn提取的img上做覆盖,使得mask内部的权重加大,外部的背景弱化。第三部分如图所示,具体我们稍后再想其实概括就是将显著性监测和分割变成关注度视觉网络...

2020-07-08 19:18:31 119

原创 txt文件保存特征自动换行问题

https://blog.csdn.net/tcy23456/article/details/84585798

2020-06-19 10:12:16 852

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除