自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(350)
  • 收藏
  • 关注

原创 Adaptive Mixtures of Local Experts

Hampshire和Waibel以及Jacobs等人都使用了不鼓励本地化的错误函数。他们假设整个系统的最终输出是局部专家输出的线性组合,门控网络决定了每个局部输出在线性组合中的比例。其中o是情况c下专家i的输出向量,p是专家i对组合输出向量的比例贡献,d是情况c中的期望输出向量。该误差度量将期望输出与本地专家的输出的混合进行比较,因此,为了将误差最小化,每个局部专家必须使其输出抵消所有...

2023-08-21 11:27:03 205

原创 The Flan Collection: Designing Data and Methods for Effective Instruction Tuning

研究了公开可用的指令调优方法的设计决策,并分解了Flan 2022模型。通过对指令调优任务和方法的Flan集合的仔细研究,我们梳理了设计决策的影响,使FlanT5在评估设置中优于之前的工作3-17%以上。我们发现任务平衡和丰富技术被忽视了,但对有效的指令调优至关重要;特别是,混合提示设置(zero-shot、few-shot和思想链)的训练实际上在所有设置中都能产生更强的(2%以上)性能。在进一步...

2023-03-16 16:39:50 674

原创 专题一 滑动窗口

1. 滑动窗口最大值class Solution {public: int q[100010]; vector<int>res; vector<int> maxSlidingWindow(vector<int>& nums, int k) { int hh=0,tt=-1; for(i...

2023-02-04 21:16:21 190

原创 bootstrap

建立原先的template,然后写一个模板导入先去下载bootstrap,然后需要注意的是需要手动去下载jquery.min.js并放在bootstrap目录下,然后在工程目录下建立一个static文件夹,放到里面修改base.html<!DOCTYPE html><html lang="en"><head> {%...

2023-01-07 22:48:12 137

原创 国际化与本地化

1. 在python代码中嵌入报错CommandError: Can‘t find msgfmt. Make sure you have GNU gettext tools 0.15 or newer installed._sunshine//settings.pyLANGUAGES = (('zh-hans', gettext_lazy('Simplified Chinese'...

2023-01-07 21:18:18 94

原创 缓存

内存缓存数据库缓存文件系统缓存本地内存缓存python manage.py shell < add.py//add.pyfrom mysql_app.models import Mysqltmp=['','1990-01-02',13312341234,'wuhan']print('start')for i in range(4000): tmp[0...

2023-01-05 10:24:40 78

原创 admin

1.激活admin视图2. 创建一个superuserpython manage.py createsuperuser3. 注册models到admin//admin.pyfrom django.contrib import adminfrom seven_mysql.models import Mysql# Register your models here.admi...

2023-01-03 23:17:03 83

原创 Django中models模型(操作数据库)

1. 建立模型from django.db import models# Create your models here.class Mysql(models.Model): name=models.CharField(max_length=20) birthday=models.DateField() number=models.CharField(max_le...

2023-01-02 13:00:21 274

原创 mysql+models

cmd启动mysqlmysql -h localhost -u root -p1.建立数据库显示当前存在的数据库删除一个数据库2. 创建表格使用数据库mysql> use mysql_study;Database changedmysql> create table contacts -> ( -&gt...

2023-01-01 16:38:41 62

原创 filter

直接调用filter//views.pyfrom django.shortcuts import renderfrom django.template import loader,Contextfrom django.http import HttpResponse# Create your views here.def index(request): t=loader.g...

2022-12-30 23:51:48 50

原创 templete inheritance

1. include 法宝提取公共部分代码放入特定的一个html文件中用include标记来引入重复的文件的部分//views.pyfrom django.shortcuts import renderfrom django.http import HttpResponsefrom django.template import loader,Context# Create y...

2022-12-29 23:31:28 73

原创 How to use template

1. 模板变量注意:在manage.py路径下启动shellMy name is hjb我们可以调用Template类中的render方法来对模板进行一个渲染,这时需要用一个Context来传递它,这个Context是一系列变量和他们值得一个集合得字典首先建立,然后再views函数中改为,注意此处直接要传入dict对象from django.shortcuts import ...

2022-12-29 20:33:43 682 1

原创 create first django

django-admin startproject first1. 运行第一个django.py文件python manage.py runserver2. 建立第一个apppython manage.py startapp first_app修改settings.py,将first_app加入到下面中然后修改views.py然后修改urls....

2022-12-28 23:22:30 346

原创 MULTI-MODAL ROBUSTNESS ANALYSIS AGAINST LANGUAGE AND VISUAL PERTURBATIONS

ABSTRACT最近,与单模态学习相比,基于大规模数据集的联合视觉和语言建模在多模态任务中取得了良好的进展。然而,这些方法对现实世界扰动的鲁棒性尚未研究。在这项工作中,我们对这些模型进行了第一次广泛的鲁棒性研究,研究对象是视频和语言。我们专注于文本到视频检索,并提出了两个大型基准数据集,MSRVTT-P和YouCook2-P,它们利用了90种不同的视觉和35种不同的文本扰动。研究揭示了一些有趣的...

2022-10-08 17:15:44 104

原创 Intra-Instance VICReg: Bag of Self-Supervised Image Patch Embedding

最近,自监督学习(SSL)在学习图像表示方面取得了巨大的经验进步。然而,我们对表示的理解和知识仍然有限。这项工作表明,siamese-network-based SSL取得SOTA的成功主要基于学习图像patches的表征。特别是,我们表明,当我们仅学习固定比例图像patch的表示并线性聚合图像(实例)的不同patch的表征时,它可以在多个基准上实现与基线方法相当甚至更好的结果。此外,我们还表明,...

2022-07-10 20:52:02 299

原创 SUPERVISION EXISTS EVERYWHERE: A DATA EFFICIENT CONTRASTIVE LANGUAGE-IMAGE PRE-TRAINING PARADIGM

近年来,大规模对比语言图像预训练(CLIP)因其令人印象深刻的zero-shot识别能力和良好的下游任务转移能力而引起了前所未有的关注。然而,CLIP非常需要数据,需要400M图像-文本对进行预训练。这项工作提出了一种新的训练范式(DeCLIP),以缓解这一限制。我们证明,通过仔细利用图像-文本对之间的广泛监督,我们的DeCLIP可以更有效地学习通用视觉特征。我们没有使用单一的图像-文本对比监督,...

2022-07-02 15:19:44 555

原创 Simple and Effective Few-Shot Named Entity Recognition with Structured Nearest Neighbor Learning

1. abstract我们提出了一个基于最近邻学习和结构化推理的简单few-shot命名实体识别(NER)系统。我们的系统使用在源域上训练的监督NER模型作为特征提取器。在多个测试域中,我们发现在这个特征空间中的最近邻分类器比标准的元学习方法更有效。我们进一步提出了一种廉价但有效的方法来捕获标记实体标记之间的依赖关系,无需昂贵的CRF训练。我们证明了我们将结构化解码与最近邻学习相结合的方法在标准...

2022-06-30 11:18:23 856

原创 格式化写入exl

def writeData(news): workbook = xlwt.Workbook(encoding = 'utf-8') print(workbook) worksheet = workbook.add_sheet('MySheet') worksheet.write(0, 0, "标题") worksheet.write(0, 1, "时间")...

2022-06-27 13:54:37 84

原创 CONTAINER: Few-Shot Named Entity Recognition via Contrastive Learning

1. 介绍FewShot NER对于低资源域中的实体标记至关重要。现有的方法仅从源域学习特定于类的语义特征和中间表示。这会影响对看不见的目标域的通用性,从而导致性能不佳。为此,我们提出了CONTAINER,这是一种新的对比学习技术,它优化了标记间的分布距离。CONTAINER没有优化特定于类的属性,而是优化了一个广义目标,即基于高斯分布embedding区分token类别。这有效地缓解了源自训练...

2022-06-16 20:12:26 1122

原创 PICO: CONTRASTIVE LABEL DISAMBIGUATION FOR PARTIAL LABEL LEARNING

部分标签学习(PLL)是一个重要的问题,它允许每个训练示例使用一个粗略的候选集进行标记,这非常适合许多具有标签模糊性的真实数据标注场景。尽管有这样的承诺,PLL的性能往往落后于监督的同类产品。在这项工作中,我们通过在一个连贯的框架中解决PLL表征学习和标签消歧中的两个关键研究挑战来弥合这一差距。具体来说,我们提出的框架PiCO包括一个对比学习模块和一个新的基于类原型的标签消歧算法。PiCO为来...

2022-05-22 18:33:46 790

原创 Revisiting Self-Training for Few-Shot Learning of Language Model

prompt-based few- shot learner, SFLM,通过弱增强和强增强技术给出文本样本的两个视图,SFLM会在弱增强版上生成一个伪标签后,在强增强版进行了微调的时候模型预测相同的伪标签。未标记的数据也包含丰富的下游任务信息,比标记的数据更容易获得,在本文中,主要研究了在少量有标记和无标记数据的情况下,语言模型的few-shot learning,半监督学习得益于部分标记的数...

2022-04-25 17:30:48 225

原创 Zero-shot Cross-lingual Transfer of Prompt-based Tuning with a Unified Multilingual Prompt

虽然现有的大部分工作都集中在单语prompt上,但研究了多语言PLM的多语言prompt,尤其是在zero-shot setting下。为了减轻为多种语言设计不同prompt的工作量,我们提出了一种新的模型,该模型对所有语言使用统一的提示,称为UniPrompt。与离散prompt和soft-prompt不同,UniPrompt是基于模型的而与语言无关的。具体来说,UniPrompt由多语言PLM...

2022-04-14 22:41:46 454

原创 LIST: LITE SELF-TRAINING MAKES EFFICIENT FEW-SHOT LEARNERS

LiST,用于在few-shot learning下对大型预训练语言模型(PLM)进行有效微调。第一种是使用self-training,利用大量unlabeled data进行prompt-tuning,以在few-shot设置下显著提高模型性能。我们将自我训练与元学习结合起来,重新加权有噪声的pseudo-prompt labels,但是传统的自监督训练更新权重参数非常昂贵。因此,使用第二种轻量...

2022-04-12 13:17:28 3048

原创 DIFFERENTIABLE PROMPT MAKES PRE-TRAINED LANGUAGE MODELS BETTER FEW-SHOT LEARNERS

DifferentiAble pRompT (DART),预训练的语言模型+反向传播对提示模板和目标标签进行差异优化可微提示(DART)模型的体系结构与MLM预训练和常规微调进行了比较,其中Ti和Yi是词汇表中未使用的或特殊的标记。我们利用语言模型中的一些参数作为模板和标记标记,并通过反向传播对它们进行优化,而不引入模型之外的其他参数。提出了一种新的可微提示(DART)微调方法。如图...

2022-03-21 23:26:39 1418

原创 FINE-TUNING DISTORTS PRETRAINED FEATURES AND UNDERPERFORMS OUT-OF-DISTRIBUTION

将预先训练的模型转移到下游任务时,有两种常用的方法是微调(更新所有模型参数)和线性探测(更新最后一个线性层)(tuning the head but freezing lower layers)fine-tune的好处:better accuracy in-distribution (ID), fine-tuning 在做out-of-distribution (OOD)(在训练期间看不到的数据...

2022-03-21 14:33:01 1878

原创 CLIP-Adapter: Better Vision-Language Models with Feature Adapters

对比语言图像预训练(CLIP)虽然prompt-tuning用于textual inputs,但是建议CLIP Adapter在视觉或语言分支上使用功能适配器进行fine-tuneCLIPAdapter采用了一个额外的瓶颈层来学习新的特征,并将剩余的特征与原始的预训练特征进行混合。为了更好地适应vision语言模型,使用功能适配器,而不是快速调整1. Classifier Weight G...

2022-03-12 23:34:44 5486

原创 Prefix-Tuning: Optimizing Continuous Prompts for Generation

在本文中,提出了前缀调整,一种轻量级的fine-tune替代方案,它使语言模型参数保持不变,但优化了一个小的连续特定任务向量(continuous task-specific vector),一种类似于虚拟tokens的前缀冻结transformer参数,只优化prefix(红色前缀块)。只需要为每个任务存储前缀,从而使前缀调整模块化,并且节省空间。每个垂直块都表示transforme...

2022-03-10 15:04:35 1088

原创 LayoutXLM: Multimodal Pre-training for Multilingual Visually-rich Document Understanding

与layoutlmv2有相同类似的体系结构,使用人工注释器来标记多语言表单理解数据集,该数据集包含7种语言,包括中文、日语、西班牙语、法语、意大利语、德语、葡萄牙语,并引入了一个名为XFUND1.模型结构text, layout, image三种信息作为输入, encoded with text embedding, layout embedding, visual embedding lay...

2022-03-10 15:04:27 231

原创 P-Tuning v2: Prompt Tuning Can Be Comparable to Fine-tuning Universally Across Scales and Tasks

prompt-tuningv1当模型尺寸较小时,尤其是小于100亿个参数时,它仍然表现不佳。P-tuning v2 是优化版本 of prefix-tuning,起源于使用deep prompt tuning, 在预训练模型的每一层使用 continuous prompts ,Deep prompt tuning 增加了continuous prompts的容量也缩小了在各种设置中进行微调的差...

2022-03-02 14:40:39 1915

原创 GPT Understands, Too

1. 介绍传统fine-tune(使用训练数据来微调模型参数),GPT在自然语言理解任务上未能取得很好的效果,关于NLU任务的一种新方法P-tuning,采用可训练的连续的 prompt embeddings。实验表明:在自然语言理解方面,GPT可以与BERTs一样具有竞争力(有时甚至更好),P-tuning可以提高预训练的语言模型的性能。P-tuning是一种改善在小样本或者全监督下的...

2022-02-28 17:39:49 657

原创 LayoutLMv2: Multi-modal Pre-training for Visually-rich Document Understanding

LayoutLMv2使用了现有的屏蔽视觉语言建模任务,新的文本图像对齐(将文本行与相应的图像区域对齐)和文本图像匹配任务(文档图像和文本内容是否相关)进行pre-train。不同于普通的LayoutLM模型,在fine-tune阶段结合视觉嵌入,LayoutLMv2在pre-train阶段集成视觉信息。同时,将空间感知的自注意机制集成到Transformer架构中,该机制涉及token对的二维相对...

2022-02-21 21:17:55 1990

原创 LayoutLM: Pre-training of Text and Layout for Document Image Understanding

1. Introduction提出LayoutLM来联合建模扫描文档图像中文本和布局信息之间的交互。此外,在fine-tune阶段利用图像特征将单词的视觉信息整合到LayoutLM中。2.1 The LayoutLM Model在模型输入层面,LayoutLM在Bert采用的文本与位置特征的基础上,新增了两个输入embedding:(1)2D position embedding...

2022-02-21 13:06:42 2117

原创 Real-time Scene Text Detection with Differentiable Binarization

我们提出了一个名为可微二值化(DB)的module,它可以在分割网络中执行二值化过程。DB module和分割网络一起优化,可以自适应设置二值化的阈值,从检测精度和速度两方面来看,它达到了19年最先进的结果,检测1器实现了 F-measure of 82.8,速度为62FPS, 在MSRA-TD500 数据集上传统做法:大多数现有的检测方法使用类似的post-processing,如图所示(蓝...

2022-02-15 16:27:36 1720

原创 LEBERT:Lexicon Enhanced Chinese Sequence Labelling Using BERT Adapter

提出了一种用于中文序列标注的词库增强型BERT,通过Lexicon Adapter layer 将外部词库知识融入到BERT层中汉语序列标注中在不同层次中融合词汇特征和BERT的比较。为了简单起见,在BERT中只显示了两个转换层,并将句子截断为三个字符。ci表示第i个中文character,wj表示第j个中文word将词汇整合到了底层,在BERT的transformer层之间集成le...

2022-02-13 14:15:11 1392

原创 Beyond OCR + VQA: Involving OCR into the Flow for Robust and Accurate TextVQA

1. Abstract首先,利用多模态线索来复现文本的语义信息,提出了一种视觉增强的文本嵌入方法,可以在不准确识别文本的情况下理解文本;其次,进一步利用上下文信息修改答案文本,即使OCR模块无法正确识别答案文本;此外,视觉对象被赋予语义表示,以使对象与OCR token处于相同的语义空间。有效地抑制了OCR性能差导致的累积错误传播新增 reading modification modu...

2022-01-23 22:06:51 304

原创 1. 常用文件管理命令

1. 常用命令介绍(1) ctrl c: 取消命令,并且换行(2) ctrl u: 清空本行命令(3) tab键:可以补全命令和文件名,如果补全不了快速按两下tab键,可以显示备选选项(4) ls: 列出当前目录下所有文件,蓝色的是文件夹,白色的是普通文件,绿色的是可执行文件(5) pwd: 显示当前路径(6) cd XXX: 进入XXX目录下, cd .. 返回上层目录(7) cp...

2022-01-23 14:28:20 400

原创 Iterative Answer Prediction with Pointer-Augmented Multimodal Transformers for TextVQA

1. AbstractVisual Question Answering (VQA)任务,忽略一个重要的模态—图像中的文本,它承载着场景理解和推理的基本信息。例如,在图1中,标志上的深水警告人们现场存在危险,问题明确要求理解和推理图像中的文本,称为TextVQA任务。TextVQA任务,该任务要求阅读和理解图像中的文本来回答问题,现有的方法,对于TextVQA,它们主要基于两种模式之间的自定义...

2022-01-20 15:04:00 2237

原创 Arbitrary Shape Scene Text Detection with Adaptive Text Region Representation

1. Abstract给定输入图像,首先使用文本区域建议网络(text region proposal network)来提取文本建议。然后,用改进网络(refinement network)对这些建议进行验证和改进。本文提出了一种基于递归神经网络的自适应文本区域表示方法,用于文本区域细化,即在每个时间步预测一对边界点,直到预测到停止标签通过这种方式,可以检测任意形状的文本区域,并用自适应数...

2022-01-17 22:26:08 925

原创 Config

import jsonfrom mmcv import Configcfg_path='./config/pan_r18_ctw.py'cfg=Config.fromfile(cfg_path)#读取参数,json.dumps()使字典类型漂亮的输出,indent参数决定添加几个空格print(json.dumps(cfg._cfg_dict,indent=4)){ "...

2021-12-26 00:11:36 830

原创 Efficient and Accurate Arbitrary-Shaped Text Detection with Pixel Aggregation Network

1. 介绍:TextSnake和PSENet是为检测曲线而设计的文本实例,也广泛出现在自然场景中。然而,复杂的管道和大量的卷积运算,这通常会减慢他们的推理速度像素聚集网络(PAN),它配备了一个低计算成本的分割头和一个可学习的后处理。更具体地说,分割头由特征金字塔增强模块(FPEM)和特征融合模块(FFM)组成。FPEM是一个可级联的U形模块,它可以引入多级信息来指导更好的分割。FP...

2021-12-25 17:17:07 1316

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除