0
  • 聊天消息
  • 系统消息
  • 评论与回复
登录后你可以
  • 下载海量资料
  • 学习在线课程
  • 观看技术视频
  • 写文章/发帖/加入社区
会员中心
创作中心

完善资料让更多小伙伴认识你,还能领取20积分哦,立即完善>

3天内不再提示

基于显式证据推理的few-shot关系抽取CoT

深度学习自然语言处理 来源:深度学习自然语言处理 2023-11-20 17:44 次阅读

摘要

Few-shot关系提取涉及使用有限数量的注释样本识别文本中两个特定实体之间的关系类型。通过应用元学习和神经图技术,已经出现了对这个问题的各种解决方案,这些技术通常需要训练过程进行调整。

最近,上下文学习策略已被证明在没有训练的情况下显示出显著的结果。很少有研究利用上下文学习进行zero-shot信息提取。不幸的是,推理的证据在思维链提示的构建过程中没有被考虑或隐式建模。

本文提出了一种使用大型语言模型进行Few-shot关系提取的新方法,称为CoT-ER,具有显式证据推理的思维链。特别是,CoT-ER首先诱导大型语言模型使用特定任务和概念级知识生成证据。然后将此证据明确纳入思维链提示以进行关系提取。实验结果表明,在FewRel 1.0和FewRel 2.0数据集上,与完全监督(具有100%训练数据)的最先进方法相比,本文的CoT-ER方法(具有0%训练数据)实现了具有竞争力的性能。

简介

关系提取(Relation Extraction, RE)旨在基于上下文语义信息识别两个给定实体之间的关系。

当标记的数据不足时,RE模型的性能往往会显著下降。few-shot关系提取任务需要使用有限数量的注释训练数据。最近,许多研究人员通过使用元学习和神经图技术来解决这个问题,通过在大型数据集上对模型进行元训练或结合外部知识,取得了令人满意的结果。

近年来,预训练的LLMs,如GPT系列模型,已经显示出显著的上下文学习(LLM可以有效地执行各种任务,而无需参数优化,这一概念被称为上下文学习)能力,在许多NLP任务中取得了出色的结果。在上下文学习的范式中,LLM在许多NLP任务中表现出与标准的完全监督方法相比的竞争性能,即使只提供了几个示例作为提示中的few-shot示例。

思维链(Chain-of-Thought, CoT)提示方法在数学问题和常识推理中从LLM引出令人印象深刻的推理能力。在RE任务中,存在指导LLM确定关系标签的推理过程。然而,缺乏填补这一空白的研究。尽管GPT-RE引入了一种标签诱导推理方法,通过提示LLM仅基于给定的标签生成合适的推理过程。与特定的few-shot示例检索方法相比,自动生成推理过程的性能改进微乎其微。

本文为FSRE(Few-shot Relation Extraction, FSRE)任务提出了一种新的思想链提示方法:具有显式证据推理的思想链,与FewRel 1.0和FewRel 2.0上的最先进结果相比,获得了具有竞争力的结果。本文的方法采用三步推理方法来解决上述问题。在第一步和第二步中,CoT-ER要求LLM输出与头部和尾部实体相对应的概念级实体,这是RE特定推理的基础。在第三步中,CoT-ER提示LLM提取相关的上下文跨度作为明确建立这两个实体之间特定关系的证据。通过将头部实体、尾部实体和关系标签组合成连贯的句子,LLM可以更语义地确定两个给定实体之间的关系标签,解决了提示方法中关系标签的语义模糊问题。下图展示了Auto-CoT和CoT-ER之间的差异。

e58697a8-8470-11ee-939d-92fbcf53809c.png

相关工作

Few-shot Relation Extraction

few-shot关系提取旨在基于有限数量的注释数据预测给定实例中指示的头部和尾部实体之间的语义关系。FewRel是Han等人引入的一个大规模数据集,是第一个在关系提取中探索few-shot学习的数据集。许多方法在缺乏训练数据的情况下,结合外部知识来提高性能。FSRE的另一条研究路线仅依赖于输入文本和提供的关系描述信息,而不包含外部知识。以前的大多数方法通常采用复杂的神经网络设计或引入外部知识,这在现实场景中可能是劳动密集型的。

In-context Learning

GPT-3在上下文学习(In-context Learning, ICL)中已成为NLP中的一种新范式,与微调模型相比,它在各种任务中表现出了竞争力。通过将相关文本信息纳入提示中,将先验知识引入LLM要容易得多。此外,ICL是一种无需训练的方法,直接提示LLM,这意味着它是一种现成的方法,只需在提示中进行一些演示即可轻松应用于各种任务。

最近,大多数研究人员专注于ICL的示例设计,以提高NLP任务的性能,并逐渐发展为两类。演示设计的第一类试图通过从数据集中选择实例并对所选演示实例进行排序来寻求提示中的少量示例的最佳安排。另一类示例设计旨在发现一种有效的提示方法,以释放LLM的潜力。此外,有研究人员通过在给出答案之前手动添加中间推理步骤,揭示了LLM的推理能力,这被称为思维链。

尽管CoT提示方法在许多NLP任务中取得了很好的结果,但它仍然缺乏对RE的相关探索。因此,本文提出了一种新的CoT提示法CoT-ER来填补这一空白。

CoT-ER

本文提出的CoT-ER的概述如下图所示,它由3个组件组成:

  1. Human-Instructed Reasoning Module:旨在通过用人工注释数据提示LLM,将推理过程与支持集中的每个实例相关联。
  2. Similarity Based KNN Retrieval Module:基于相似性的KNN检索模块将根据与查询实例的相似性从支持集中选择具有推理过程的实例,这些实例在最终提示中被视为few-shot示例。
  3. Inference Module:推理模块通过最终提示指示LLM来预测查询实例的关系标签,最终提示将任务指令、few-shot示例和关于实例的问题连接起来。
e5a58d20-8470-11ee-939d-92fbcf53809c.png

Human-Instructed Reasoning Module

由于LLM具有上下文学习的能力,本文提出了一种人工指导的方法来指导LLM使用最少的注释数据执行准确的推理。

CoT-ER设计:为了充分利用LLM中存储的知识并促进逐步推理,引入了一种新的具有概念级知识和明确证据的三步推理框架。在步骤1中,LLM推断与头部实体相关的概念级知识,而步骤2对尾部实体进行同样的操作。通过这些步骤,LLM可以很容易地排除概念实体不正确的选项。步骤3:为了找出在给定的上下文中哪一个关系标签最适合这对实体,明确强调相关的文本跨度作为证据,然后构建一个连贯的表达式,将两个实体和关系标签结合在一起。为了进一步说明三步推理过程,下图中的几个shot示例演示了该推理过程的模板。

e5bb6424-8470-11ee-939d-92fbcf53809c.png

CoT-ER生成:为数据集中的每个关系类注释了一个CoT-ER推理示例作为种子示例。然后,设计了一个适当的提示,使用注释的示例作为few-shot示例演示,以指导LLM为每个支持实例生成类似的推理步骤。每个具有CoT-ER推理步骤的支持实例都将附加到候选集合中。上图显示了为人工指导推理模块设计的类似提示。

Retrieval Module

有研究表明,基于相似性选择few-shot示例会大大改善上下文学习。由于LLM的输入tokens有限,在给定N路K-Shot任务的情况下,单个提示可能无法容纳所有支持实例。在本文中,遵循基于相似性的方法来选择few-shot示例。为了获得特定关系的相似性表示,首先通过合并实体级信息,将输入文本重构为“上下文:[文本]给定上下文,“[头部实体]”和“[尾部实体]”之间的关系是什么?”。然后,利用GPT系列模型“text-embedding-ad-002”作为编码器来获得语义嵌入。随后,计算候选集合中的每个实例与查询实例之间的欧几里得距离。最后,基于候选集合中的M个实例到查询实例的较低欧几里得距离,选择它们作为few-shot示例。

Inference Module

为了创建最终提示,只需将一条任务指令、few-shot示例和一个针对查询实例定制的问题连接起来,使用具有CoT-ER推理的支持实例作为few-shot示例。值得注意的是,LLM在一般情况下有很强的错误输出NULL的倾向。本文中强制LLM选择所提供的关系标签之一,因为没有考虑FewRel数据集中的“无上述”场景示例。

实验

Datasets

有两个标准的few-shot关系提取数据集:FewRel 1.0和FewRel 2.0。

  1. FewRel 1.0由维基百科构建,维基百科由70000个句子组成,注释有100个关系标签,这100个关系标记被分为64/16/20个部分,用于训练/验证/测试集。
  2. FewRel2.0通过引入医学领域的额外验证和测试集扩展了FewRel 1.0,其中包括分别具有1000个实例的10个关系标签和具有1500个实例的15个关系标签。

实验细节

在现实场景中,直接使用固定的、手动注释的示例执行RE任务是合理的,作为每个关系标签的少量镜头演示。为此,通过从预先确定的人工注释CoT-ER数据集中选择few-shot示例来评估性能,该数据集表示为手动CoT-ER。在此设置中,few-shot示例独立于支持集,这意味着LLM将使用较少的注释数据执行RE任务。相反,Auto-CoT-ER利用自动生成的CoT-ER推理过程作为人工指导推理模块中描述的支持集的few-shot示例。

对比模型

本文考虑FSRE任务的两类方法。

100% 训练数据的方法:MTB、CP、HCPR、FAEA、GTPN、GM_GEN和KEFDA。通常,这些方法在FewRel 1.0训练集上训练模型,并在FewRel 1.0、2.0验证和测试集上评估其性能。

0% 训练数据的方法:应用Vanilla-ICL和Auto-CoT作为基线提示格式化方法。这些方法利用一些示例作为演示,并提示LLM执行NLP任务。Vanilla-ICL设计了一个直接结合文本和关系标签的模板,例如“上下文:[文本],给定上下文,[头部实体]和[尾部实体]之间的关系就是[关系标签]”。Auto-CoT通过自动生成的推理步骤扩展了Vanilla-ICL。

在整个实验中,注意到是否要求LLM在最后的回答阶段进行推理可能会导致不一致的结果,如下表所示。此外,利用预先训练的BERT基本模型6和GPT系列模型text-embedding-ada-002作为编码器,直接获得输入文本的表示。对于每个N路K-shot任务,我们通过对属于该类的K instance进行平均来获得每个类的原型。然后,将查询实例的预测标签分配给其原型与查询实例具有最接近欧几里得距离的类。将这两种方法称为Bert-proto和GPT-proto。

e5dbc00c-8470-11ee-939d-92fbcf53809c.pnge5fec7be-8470-11ee-939d-92fbcf53809c.png

结果与分析

结果

  1. 与Vanilla-ICL相比,在few-shot场景中,Auto-CoT没有表现出显著的改进。这可能归因于推理过程的低质量,以及由于最大token限制,few-shot演示中的实例数量减少。此外,当涉及到在最终答案中生成推理过程时,具有推理的Auto-CoT优于在FewRel 1.0上直接生成关系标签的版本。然而,在FewRel 2.0上得出了相反的结论。原因可能为:FewRel 1.0从维基百科中提取实例,通常需要常识来进行推理,而FewRel 2.0需要医学相关专业知识,与常识相比,在预训练语料库中所占比例较小。因此,LLM在执行医学领域的推理任务时遇到困难。
  2. 手动CoT-ER和Auto-CoT-ER都优于无训练基线,在few-shot演示中使用的实例更少。表明有必要设计一种针对RE任务的特定CoT提示方法,以便在few-shot场景中获得更好的性能。
  3. CoT-ER提示方法在FewRel 1.0和FewRel 2.0上都比最先进的完全监督方法具有竞争力,并以最少的人工超过了大多数完全监督方法。这表明,当提供高质量的关系信息和精心设计的推理过程时,GPT系列LLM有可能击败以前的完全监督方法。

消融CoT-ER

合并实体信息是否对CoT-ER有显著好处?本文进行了消融实验,以证明三步推理过程的必要性。在这个实验中,去掉了第一步和第二步,并将性能与Auto-CoT reasoning进行了比较。出于公平考虑,使用Auto-CoT-ER实现了这个实验,它还采用了LLM自动生成的推理过程。由于最大输入和输出token的限制,将消融实验的few-shot演示中的实例数量设置为13。结果如下图所示。

e619f282-8470-11ee-939d-92fbcf53809c.png

结果表明:

  1. 除第一步和第二步后,Auto-CoT-ER的性能显著下降,在FewRel 1.0和FewRel 2.0上的精度分别降低了3.4、2.2、1.8、2.9和5.2、6、5.3、7.6。这意味着实体类型的更高层次抽象,特别是概念级实体,有利于LLM在few-shot场景中执行RE任务。
  2. CoT-ER的第三步是将支持实例与Auto-CoT相比更简单的推理过程配对,但它在某些具有挑战性的场景中实现了卓越的性能。这一发现表明,关系标签提供的语义信息比低质量的推理信息更有利于LLM。

CoT-ER稳定性实验

本文对提出的CoT-ER进行了两项稳定性实验。

  1. Different Random Seeds for Task Sampling:由于“text-davinci-003”的成本很高,本文对数量相对较少的查询进行了采样测试,特别是每个N路K-Shot任务的查询数量为100×N。为此,使用8个随机种子对CoT-ER和Vanilla-ICL进行了评估,用于N路K-Shot任务采样。下表中显示了FewRel 2.0的平均值±标准偏差的实验结果。值得注意的是,CoT-ER在所有N路K-shot设置中始终以较低的标准差优于Vanilla-ICL。
e627fb48-8470-11ee-939d-92fbcf53809c.pnge63f36c8-8470-11ee-939d-92fbcf53809c.png
  1. Different Number of Few-shot Instances:为了研究所选演示数量如何有助于CoT-ER的性能,在5-Way,5-Shot 设置下进行了实验。单个提示在最坏的情况下可以保持13个CoT-ER推理演示,而所有支持实例(25)都可以附加到Vanilla-ICL中的提示。结果如下表所示。
e6561be0-8470-11ee-939d-92fbcf53809c.png

观察到CoT-ER和Vanilla-ICL都可以受益于更多的few-shot示例,然而,随着示例数量的增加,Vanilla-ICL的性能迅速下降。CoT-ER可以有效地利用来自提供实例的信息,即使实例数量减少,也能保持强大的性能。这表明当few-shot实例的数量发生变化时,CoT-ER表现出比Vanilla-ICL更大的稳定性。

下表展示了CoT-ER和Auto-CoT方法的案例分析。

e6738cac-8470-11ee-939d-92fbcf53809c.png

结论

本文探索了LLM上下文内学习在few-shot关系提取方面的潜力。为了提高低质量自动生成推理过程所带来的总体性能,引入了CoT-ER,这是一种专门用于few-shot关系提取的提示方法。核心思想是促使LLM使用存储在其预训练阶段的特定任务和概念级别的知识来生成证据。LLM将在RE任务中使用这些证据,并促进推理过程。此外,设计了一种标签描述技术,通过将实体和关系标签集成到一个连贯的表达式中。该技术解决了关系标签的语义歧义,这是在上下文学习中使用关系提取时遇到的常见挑战。FewRel 1.0和FewRel 2.0的实验结果优于所有无训练基线,证明了本文提出的方法的有效性。此外,实现与最先进的完全监督方法相当的结果表明,上下文学习范式有望成为few-shot关系提取任务的新解决方案。

尽管CoT-ER在FewRel 1.0和FewRel 2.0上取得了不错的结果,但仍有未来改进的潜力。由于最大长度的限制,本文提出的方法在处理较大的数据集时并没有充分利用所有实例。尽管采用了基于相似性的KNN检索来为few-shot演示选择优越的实例,结果发现,与其他在有大量候选集可用时表现良好的方法相比,它在few-shot设置中并不有效。由于通过GPT-3的API使用合理所需ICL的成本很高,本文尚未在具有更长最大输入token和更大规模的高级LLM上评估CoT-ER。有限的预算也限制了种子示例构建的优化。可以通过更具信息性和适当的设计来提高性能。


声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉
  • 语言模型
    +关注

    关注

    0

    文章

    527

    浏览量

    10288
  • nlp
    nlp
    +关注

    关注

    1

    文章

    489

    浏览量

    22052
  • LLM
    LLM
    +关注

    关注

    0

    文章

    291

    浏览量

    351

原文标题:EMNLP2023 | 基于显式证据推理的few-shot关系抽取CoT

文章出处:【微信号:zenRRan,微信公众号:深度学习自然语言处理】欢迎添加关注!文章转载请注明出处。

收藏 人收藏

    评论

    相关推荐

    基于将 CLIP 用于下游few-shot图像分类的方案

    对比性图像语言预训练模型(CLIP)在近期展现出了强大的视觉领域迁移能力,可以在一个全新的下游数据集上进行 zero-shot 图像识别。
    的头像 发表于 09-27 09:46 5354次阅读

    基于改进模糊熵和证据推理的多属性决策方法

    针对证据推理方法框架下属性权重难以获取的问题,提出一种基于改进模糊熵和证据推理的多属性决策方法。首先,定义证据
    发表于 12-13 11:40 1次下载

    深度学习:远程监督在关系抽取中的应用

    什么是关系抽取 知识就是力量。使人类及机器能够更好地利用知识是提升工作效率及实现人工智能的关键所在,也催生了包括知识表示、知识推理在内的一系列研究。作为一切对知识的利用的基础,我们首先要获取知识,即
    的头像 发表于 11-02 15:43 2649次阅读

    NLP:关系抽取到底在乎什么

    关系抽取到底在乎什么?这是来自EMNLP20上清华大学刘知远团队的“灵魂发问”~ 关系抽取是每一位NLPer都很熟知的任务,特别是基于BERT的神经
    的头像 发表于 01-07 14:46 5708次阅读

    NLP事件抽取综述之挑战与展望

    Prototypical Network for Few-Shot Event Detection, WSDM 2020[1] 事件检测(ED)是事件抽取
    的头像 发表于 01-18 16:33 3835次阅读
    NLP事件<b class='flag-5'>抽取</b>综述之挑战与展望

    细解读关系抽取SOTA论文

    本文主要详细解读关系抽取SOTA论文Two are Better than One:Joint Entity and Relation Extraction with Table-Sequence
    的头像 发表于 02-10 17:18 2690次阅读
    细解读<b class='flag-5'>关系</b><b class='flag-5'>抽取</b>SOTA论文

    基于机器学习的中文隐实体关系抽取方法

    基于机器学习的中文隐实体关系抽取方法
    发表于 06-02 14:42 4次下载

    样本量极少可以训练机器学习模型吗?

    本文首先介绍了用小样本训练模型会导致的问题,再介绍了Few-Shot Learning的基本原理即三大思路下的方法。
    的头像 发表于 06-23 15:02 6976次阅读

    Zero-shot-CoT是multi-task的方法

    大规模预训练语言模型借助于针对特定任务设计的prompt(无论是few shot还是zero shot),在单步骤的system-1任务上有着出色表现,但是对于那些缓慢和需要多步推理
    的头像 发表于 06-15 10:53 2441次阅读

    实体关系抽取模型CasRel

    许多实验证明联合学习方法由于考虑了两个子任务之间的信息交互,大大提升了实体关系抽取的效果,所以目前针对实体关系抽取任务的研究大多采用联合学习方法。
    的头像 发表于 07-21 14:11 3906次阅读

    介绍两个few-shot NER中的challenge

    此部分着重介绍了两个few-shot NER中的challenge:limited information challenge和knowledge mismatch challenge。前者主要是指
    的头像 发表于 08-24 10:01 869次阅读

    Few-shot NER的三阶段

    Few-shot NER的三阶段:Train、Adapt、Recognize,即在source域训练,在target域的support上微调,在target域的query上测试。
    的头像 发表于 08-24 16:12 1459次阅读

    基于GLM-6B对话模型的实体属性抽取项目实现解析

    Zero-shot、One-shot以及Few-shot让人傻傻分不清,读了很多文章,也没搞清楚他们的差别,究竟什么叫zero-shot,其在应用过程中的no gradient upd
    的头像 发表于 03-28 10:11 7025次阅读

    迈向多模态AGI之开放世界目标检测

    OVD的基础概念:OVD的使用主要涉及到 few-shot 和 zero-shot两大类场景,few-shot是指有少量人工标注训练样本的目标类别,zero-shot则是指不存在任何人
    的头像 发表于 06-15 16:08 832次阅读
    迈向多模态AGI之开放世界目标检测

    基于多任务预训练模块化提示

    Few-shot 场景时,PT 的调优方法还是存在一定的局限性。针对这个问题, 复旦提出了多任务预训练模块化 Prompt(简称为:),来提高模型在 Few-shot 场景下的 PT 效果,使模型能够快速适应下游
    的头像 发表于 06-20 11:04 700次阅读
    基于多任务预训练模块化提示