素材网站视频,最专业的网站建设收费,后台管理系统模板,网站建设的方案图片作者 | 叶宏彬#xff0c;浙江大学博士研究生#xff0c;研究方向#xff1a;知识图谱、自然语言处理接收会议 | AAAI2021论文链接 | https://arxiv.org/pdf/2009.06207.pdf摘要在自然语言处理和知识图谱领域的信息提取中#xff0c;三元组抽取是必不可少的任务。在本文中浙江大学博士研究生研究方向知识图谱、自然语言处理接收会议 | AAAI2021论文链接 | https://arxiv.org/pdf/2009.06207.pdf摘要在自然语言处理和知识图谱领域的信息提取中三元组抽取是必不可少的任务。在本文中我们将重新审视用于序列生成的端到端三元组抽取任务。由于生成三元组抽取可能难以捕获长期依赖关系并生成不忠实的三元组因此我们引入了一种新的模型即使用生成式Transformer的对比学习三元组抽取框架。具体来说我们介绍了一个共享的Transformer模块用于基于编码器-解码器的生成。为了产生忠实的结果我们提出了一种新颖的三元组对比学习训练框架。此外我们引入了两种机制来进一步改善模型的性能即分批动态注意掩码和三元组校准。在三个数据集NYTWebNLG和MIE上的实验结果表明我们的方法比基线具有更好的性能。我们的代码和数据集将在论文出版后发布。论文动机编码器-解码器模型是功能强大的工具已在许多NLP任务中获得成功,但是现有方法仍然存在两个关键问题。首先由于递归神经网络RNN的固有缺陷它们无法捕获长期依赖关系从而导致重要信息的丢失否则将在句子中反映出来从而导致模型无法应用更长的文本。第二缺乏工作致力于生成忠实的三元组序列到序列的体系结构会产生不忠实的序列从而产生意义上的矛盾。例如给定句子“美国总统特朗普在纽约市皇后区长大并居住在那里直到13岁”该模型可以生成事实“特朗普出生于皇后区”。尽管从逻辑上讲是正确的但我们无法从给定的句子中找到直接的证据来支持它。为了解决这些问题我们引入了带有生成变压器CGT的对比学习三元组提取框架该框架是一个共享的Transformer模块支持编码器-解码器的生成式三元组对比学习多任务学习。首先我们使用分隔符和部分因果掩码机制将输入序列与目标序列连接起来以区分编码器-解码器表示形式。除了预先训练的模型之外我们的模型不需要任何其他参数。然后我们介绍了一种新颖的三元组对比学习对象该对象利用真实的三元组作为正实例并利用随机令牌采样将损坏的三元组构造为负实例。为了共同优化三元组生成对象和对比学习对象我们引入了分批动态注意掩码机制该机制允许我们动态选择不同的对象并共同优化任务。最后我们介绍了一种新颖的三元组校准算法以在推理阶段滤除虚假三元组。这项工作的贡献如下我们将三元组提取作为序列生成任务进行了重新介绍并引入了一种新颖的CGT模型。考虑到增加的提取功能CGT除了在预训练语言模型中发现的参数外不需要其他参数。我们引入了两种机制来进一步提高模型性能即批处理动态注意掩码和三元组校准。第一个可以联合优化不同的对象第二个可以确保忠实的推理。我们在三个基准数据集上评估了CGT。我们的模型优于其他强大的基准模型。我们还证明在捕获长期依存关系方面CGT比现有的三元组抽取方法更好因此在使用长句子场景下依然可以获得更好的性能。模型框架这里我们展示了CGT生成式Transformer的总体架构。右上部分表示Transformer生成模块右下部分表示三元组对比学习模块。这两个部分训练时共同优化。生成模块依靠部分因果掩码机制建模成序列生成任务如右图中的示例所示对于三元组序列生成其中右上部分设置为-∞以阻止从源段到目标段的关注左侧部分设置为全0表示令牌能够参与第一段。利用交叉熵损失生成来优化三元组生成过程获得生成损失。对比学习模块将输入文本与正确的三元组实例或者伪造的三元组进行随机拼接依靠部分因果掩码机制建模成文本分类任务其中mask矩阵的元素全为0利用经过MLP多层感知机层的特殊token[CLS]表示来计算分类打分函数鉴别是否为正确实例从而增强模型对关键token的感知能力。我们利用交叉熵优化对比损失。生成损失与对比学习损失通过一个超参数权衡构成了我们最终的总体损失。我们的解码推理采用的是波束搜索和启发式约束。 实验结果我们对三个基准数据集进行了实验纽约时报NYTWebNLG和MIE。MIE是医学领域的大规模中文对话信息提取数据集。图2中中显示了这三个数据集的部分实验统计信息。 浙江大学知识引擎实验室 OpenKG开放知识图谱简称 OpenKG旨在促进中文知识图谱数据的开放与互联促进知识图谱和语义技术的普及和广泛应用。点击阅读原文进入 OpenKG 网站。