- 博客(566)
- 资源 (3)
- 收藏
- 关注
原创 Interpretable Multimodal Misinformation Detection with Logic Reasoning
核心:多模态、可解释。
2023-12-05 10:04:37 1077
原创 Vue指令之v-html
例如,当Vue实例的data是一个inner html,我们想在网页上渲染这部分html,如果依然使用之前的。在Vue中有很多特殊的标签属性,这些属性一般以’v’开头,用于在标签中实现特殊的功能。,则只会将inner html的源码显示出来,无法进行渲染。但是如果把容器中的元素添加一个标签属性。,并将该属性的值赋为msg,即。
2023-11-28 15:33:55 990
原创 Polish Questions to Catch the Inclination of Large Language Model: A Technical Report
Polish Questions to Catch the Inclination of Large Language Model: A Technical Report。
2023-10-16 22:36:23 162
原创 [Google DeepMind] LARGE LANGUAGE MODELS AS OPTIMIZERS
总体架构Optimization by PROmpting (OPRO):最开始输入meta-prompt,这个初始的meta-prompt基本上只是对优化任务进行了描述(也会有few-shot example)。输入后LLM便会生成一个solution,这个solution由objective function评估并打分。(solution, score)组合成一对添加到meta-prompt中,如此完成一个循环。多次循环后取分数最高的solution作为优化结果。
2023-09-13 19:58:47 1036
原创 Self-Polish: Enhance Reasoning in Large Language Models via Problem Refinement
核心思想是通过instruction让LLM来优化问题本身,从而达到更好的效果,且这种针对问题的优化可以跟其他的prompt技术,如CoT或者Least-to-Most相结合。
2023-09-13 14:14:24 284
原创 [ACL2023] Symbolic Chain-of-Thought Distillation: Small Models Can Also “Think” Step-by-Step
虽然CoT作为一种prompt形式在提高LLM的表现上有很好的效果,但此前有研究表明CoT并不能在小规模的LM(参数
2023-08-25 12:11:03 287 1
原创 [ACL2023] Exploring Lottery Prompts for Pre-trained Language Models
基于此,作者提出了一种集成prompt方法,在少量的训练集上选出优秀的prompt以后,根据他们的表现赋予不同的权重,表现越好的prompt权重越高,之后将这些prompt的分类预测加权在一起,得到最后的分类。而模型的能力也对搜索次数有影响,越大的模型需要的搜索次数越少。除了多个prompt对一个input,那自然也有一个prompt对多个input,作者统计了prompt在整个数据集上的表现,除了有66个类的最难的Few-NERD,其他数据集都能找到一个表现不错的prompt。
2023-08-24 19:39:36 715
原创 The CoT Collection: Improving Zero-shot and Few-shot Learning of Language Models via Chain-of-Though
主要的收集方法依然是基于LLM生成,首先人工手写并筛选出精品CoT样例,之后以这些样例为demo,让LLM输出某个问题的推理过程(rationale),从而获得大量的带rationale的问题作为数据集。最后,作者对生成的这些rationale进行了评估,质量评估使用了ROSCOE的13个指标,又评估了rationale的多样性,显示他们的CoT Collection是更多样化的(动词更多样)。第四步,过滤生成的rationale,作者删掉了rationale中没出现答案的、太长的以及相同的。
2023-08-24 15:37:27 163
原创 Automatic Prompt Augmentation and Selection with Chain-of-Thought from Labeled Data
港科的工作,主要着眼于CoT样例的生成和选取,数据增强的部分就是用已有的CoT样例做few-shot推理,让LLM生成新的CoT样例(或者直接用Zero-shot-CoT),将生成正确的样例加入到备选池子里。至于如何选择,则是将抽取样例的过程看成从一个随机分布里采样的过程。用一些参数构建一个随机分布,该分布的采样值对应不同的CoT样例。为了学习这个分布,作者采用了强化学习的方法。实验显示在各数据集上达到了SOTA。
2023-08-22 16:33:30 144
原创 Toward Human Readable Prompt Tuning: Kubrick’s The Shining is a good movie, and a good prompt too?
基于soft prompt,但生成较可读的prompt,探寻优质prompt的特征
2023-08-07 12:19:06 84
原创 Demystifying Prompts in Language Models via Perplexity Estimation
低困惑度的prompt更能提升LLM的性能
2023-08-04 13:04:04 1104
原创 INSTRUCTZERO: EFFICIENT INSTRUCTION OPTIMIZATION FOR BLACK-BOX LARGE LANGUAGE MODELS
用soft prompt调教Vicuna,生成更好的instruction提高chatGPT的性能
2023-07-31 17:29:46 158
原创 [ACL2023] Prompter: Zero-shot Adaptive Prefixes for Dialogue State Tracking Domain Adaptation
Soft prompt 助力 Dialogue State Tracking 任务
2023-07-28 20:26:30 189
原创 [ICML2023] PromptBoosting: Black-Box Text Classification with Ten Forward Passes
弱Prompt在分类问题上的集成
2023-07-28 15:40:50 132
原创 [ICML2023] Synthetic Prompting: Generating Chain-of-Thought Demonstrations for Large Language Models
NLP推理任务的Program-aimed样例生成
2023-07-28 15:39:52 220
原创 Android开发之Fragment
Fragment可以看作一种灵活的子Activity,其依附于Activity运行。一个Activity下可以依附多个Fragment,从而实现一个页面多个窗口,而同一个Fragment也能被多个Activity复用,因此Fragment是Android开发中相当重要的板块。
2023-07-27 11:34:21 210
原创 Automatic Prompt Optimization with “Gradient Descent” and Beam Search
整篇文章比较精髓的思想在于yyppggpggp。
2023-06-01 20:57:55 1307 3
原创 Android开发之Activity的生命周期
生命周期主要指Activity界面的各个状态,这里直接介绍一下各状态以及在各状态间转移使用到的函数。
2022-04-02 06:30:00 1100
matlab实现PCA维数约减(0积分下载)
2022-11-05
matlab实现协同过滤算法进行电影推荐(0积分下载)
2022-07-21
Flotherm初学者教程+电脑主机热设计模型.rar
2022-01-13
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人