长沙市网站建设公司代理商,做网站用虚拟机还是服务器,网站开发的软件工程师叫什么,手工制作小玩具本文是LLM系列文章#xff0c;针对《Exploring the Potential of Large Language Models (LLMs) in Learning on Graphs》的翻译。 探索大型语言模型在图形学习中的潜力 摘要1 引言2 前言3 LLM在图上的流水线4 LLM作为增强器5 LLM作为预测器6 相关工作7 结论7.1 关键发现7.2 …本文是LLM系列文章针对《Exploring the Potential of Large Language Models (LLMs) in Learning on Graphs》的翻译。 探索大型语言模型在图形学习中的潜力 摘要1 引言2 前言3 LLM在图上的流水线4 LLM作为增强器5 LLM作为预测器6 相关工作7 结论7.1 关键发现7.2 局限性7.3 未来方向 摘要
图学习由于其在现实世界中的广泛应用而引起了极大的关注。在具有文本节点属性的图上学习最流行的管道主要依赖于图神经网络GNN并利用浅文本嵌入作为初始节点表示这在一般知识和深刻的语义理解方面具有局限性。近年来大型语言模型LLM已被证明具有广泛的公共知识和强大的语义理解能力这彻底改变了现有的处理文本数据的工作流程。在本文中我们旨在探索LLM在图机器学习中的潜力特别是在节点分类任务中并研究两种可能的管道LLM作为增强器和LLM作为预测器。前者利用LLM利用其海量知识增强节点的文本属性然后通过GNN生成预测。后者试图直接使用LLM作为独立的预测因子。我们在不同的环境下对这两条管道进行了全面、系统的研究。从全面的实证结果中我们进行了原始的观察发现了新的见解这些见解开辟了新的可能性并提出了利用LLM在图上学习的有希望的方向。
1 引言
2 前言
3 LLM在图上的流水线
4 LLM作为增强器
5 LLM作为预测器
6 相关工作
7 结论
在本节中我们总结了我们的主要发现介绍了本研究的局限性并讨论了在图机器学习中利用LLM的潜在方向。
7.1 关键发现
在本文中我们提出了两个潜在的管道作为增强器的LLM和作为预测器的LLM它们结合了LLM来处理文本属性图。我们严谨的实证研究揭示了一些有趣的发现为未来的研究提供了新的见解。我们在下面强调了一些关键发现从观察结果1到观察结果18可以找到更多发现。 发现1。对于LLM作为增强器深度句子嵌入模型在性能和效率方面表现出有效性。我们实证发现当我们在特征级别采用深度句子嵌入模型作为增强因子时它们在不同的数据集分割设置下表现出良好的性能并且具有可扩展性。这表明它们是在功能级别增强文本属性的好候选者。 发现2。对于LLM作为增强器LLM的增强器和集合的组合证明了其有效性。如第4.2节所示当LLM被用作文本级别的增强器时我们通过在数据集和数据分割中将增强的属性与原始属性集成观察到性能的提高。这为提高属性相关任务的性能提供了一种很有前途的方法。所提出的流水线包括用LLM增强属性然后将原始属性与增强的属性组合在一起。 发现3。对于作为预测因子的LLMLLM呈现出初步的有效性但也表明了潜在的评估问题。在第5节中我们利用文本属性和边缘关系对LLM作为预测因子进行了初步实验。结果表明LLM在处理文本属性方面表现出有效性并在某些数据集上实现了良好的零样本性能。此外我们的分析揭示了现有评估框架内的两个潜在问题1在某些情况下LLM的不准确预测也可以被认为是合理的特别是在引用数据集的情况下多个标签可能是合适的。2 我们在OGBN-ARXIV上发现了一个潜在的测试数据泄露问题这突出表明需要仔细重新考虑如何在真实世界数据集上适当评估LLM的性能。
7.2 局限性
更深入地理解文本嵌入的有效性。尽管深度句子嵌入模型是有效的但我们对为什么它们的嵌入在节点分类任务上优于PLM的理解仍然有限。此外我们在OGBN-PRODUCTS数据集上观察到深度句子嵌入模型和GLEM之间的性能差距这可能与数据集的领域有关。此外如观察4所示GNN在不同的文本嵌入上表现出不同水平的有效性。然而我们对这一现象的解释有限。为了获得更深入的理解我们需要查看原始特征空间和聚合后的特征空间。这种现象可能与语言模型嵌入中的anistrophy有关。需要更深入的分析才能更好地理解这些现象。 LLM增强的成本。在这项工作中我们研究了TAPE和KEA以增强文本级别的文本属性。尽管这些方法已被证明是有效的但对于具有N个节点的图它们需要查询LLM的API至少N次。考虑到LLM的相关成本在处理大规模数据集时这会带来巨大的开销。因此我们没有给出OGBN-ARXIV和OGBN-PRODUCTS数据集的结果。 文本格式的手工提示表示图形。在第5节中我们将研究局限于使用“自然语言”提示进行图形表示。然而存在各种其他格式用于以自然语言表示图如XML、YAML、GML等。此外我们主要以手工制作的方式设计这些提示主要是基于试错。因此值得考虑探索更多的提示格式以及如何实现自动提示。
7.3 未来方向
将当前管道扩展到更多的图学习任务。在本研究中我们的主要重点是研究节点分类任务。尽管如此这两条流水线是否可以扩展到其他的图学习任务仍有待探索。某些任务需要使用远程信息在LLM有限的输入上下文中表示这些信息是一个重大挑战。此外我们证明了LLM在包含丰富文本信息的图中特别是在自然语言中表现出有希望的初步结果。然而探索它们对具有非自然语言信息的其他类型图的有效扩展如分子图仍需进一步探索。 图域的LLM。在本文中我们重点讨论了如何通过上下文学习使LLM适应图机器学习任务。然而由于模型参数尚未更新上下文学习可以帮助LLM获得特定任务信息的程度受到限制。最近一些研究已经开始探索使用基于指令调整的方法来设计特定领域的模型如推荐系统、多模态和表格数据。这些特定于领域的模型建立在LLaMA和Flan-T5等开源大型模型的基础上。然而据我们所知仍然没有专门针对图域调整的LLM。因此如何调整这些基于调优的方法并将其应用于图域是一个很有前途的未来方向。 更有效地使用LLM。尽管LLM有效但这些模型固有的运营效率和运营成本仍然构成重大挑战。以通过API访问的ChatGPT为例当前的计费模型处理大型图形的成本很高。对于本地部署的开源大型模型即使只是使用它们进行推理也需要大量的硬件资源更不用说通过参数更新来训练模型了。因此制定更有效的战略来利用LLM目前是一项挑战。 评估LLM在图机器学习任务中的能力。在本文中我们简要讨论了当前评估框架的潜在陷阱。主要有两个问题1测试数据可能已经出现在LLM的训练语料库中这被称为“污染”2基本事实标签可能存在歧义基于它们计算的性能可能无法反映LLM的真实能力。对于第一个问题一种可能的缓解措施是使用LLM的训练语料库中不包括的最新数据集。然而这意味着我们需要不断收集数据并对其进行注释这似乎不是一个有效的解决方案。对于第二个问题一个可能的解决方案是重新考虑真实实况设计。例如对于学术论文的分类我们可以采用多标签设置并选择所有适用的类别作为基本事实。然而对于更一般的任务设计更合理的基本真理仍然是一个挑战。一般来说重新思考如何正确评估LLM是一个有价值的未来方向。 LLM作为在图上学习的注释器。在本文中我们对采用LLM作为注释器进行了初步实验。我们发现第一个挑战在于如何选择高质量的伪标签。最近一些工作对如何评估“黑盒LLM”的不确定性进行了初步研究。当将这些方法应用于图域时我们还需要考虑节点在图中的作用。具体而言不同的节点在图中表现出不同的重要性这意味着注释其中一些节点可能更有利于整体性能。因此研究如何同时找到LLM的置信节点和图的重要节点是很重要的。