视觉网站建设,深圳市建设交易中心网站,宏福建设工程有限公司网站,搜索引擎营销的模式有原文来源#xff1a;arXiv作者#xff1a;Yujia Li、Oriol Vinyals、Chris Dyer、Razvan Pascanu、Peter Battaglia 「雷克世界」编译#xff1a;嗯~阿童木呀、KABUDA一般来说#xff0c;图形是基本的数据结构#xff0c;它在诸如知识图、物理和社会交互、语言和化学等许多… 原文来源arXiv作者Yujia Li、Oriol Vinyals、Chris Dyer、Razvan Pascanu、Peter Battaglia 「雷克世界」编译嗯~阿童木呀、KABUDA一般来说图形是基本的数据结构它在诸如知识图、物理和社会交互、语言和化学等许多重要的实际领域中对关系结构进行简明地捕捉。在本文中我们引入了一种强大的新方法用于学习图形中的生成式模型既可以捕捉它们的结构也可以捕捉到属性。我们的方法使用图形神经网络表示图形节点和边缘之间的概率依赖关系并且原则上来说可以学习任何任意图形上的分布。经过一系列实验我们的结果显示一旦经过训练之后我们的模型可以生成高质量的合成图和真实分子图的样本无论是在无条件数据还是条件数据的情况下都是如此。与不使用图形结构表示的基线相比我们的模型通常表现得更好。我们还探索了学习图形生成式模型过程中所存在的关键性挑战例如如何在图形生成过程中处理元素的对称性和排序并提供可能的解决方案。可以这样说我们的研究是用于学习任意图形上生成式模型的第一个方法也是最为通用的方法并且为从向量和序列式的知识表示转向更有表现力和更灵活的关系数据结构开辟了新的研究方向。图形是许多问题域中信息的本质性表示。例如知识图表和社交网络中的实体之间的关系可以很好地用图形进行表示而且它们也适用于对物理世界进行建模例如分子结构以及物理系统中物体之间的交互。因此捕捉特定图形族系分布的能力在实际生活中有很多应用。例如从图形模型中进行采样可以致使发现新的配置而这些配置所具有的全局属性与药物发现中所需要的是一样的Gómez-Bombarelli等人于2016年提出。要想获得自然语言句子中的图形结构语义表示Kuhlmann和Oepen于2016年提出需要具有能够在图上对条件分布进行建模的能力。图形上的分布还可以为图形模型的贝叶斯结构学习提供先验Margaritis于2003年提出。生成过程中所采取步骤的描述我们至少从两个角度对图形的概率模型进行了广泛研究。一种方法是基于随机图形模型将概率分配给大的图形类型Erdos和Rényi于1960年、Barabási和Albert于1999年提出。这些都具有很强的独立性假设并且被设计成仅捕捉某些特定的图形属性例如度数分布degree distribution和直径。虽然这些方法已被证明在对社交网络等领域进行建模时是有效的但它们在更加丰富的结构化领域上应用还存在很大的挑战其中细微的结构差异在功能上可能是具有重要意义的例如在化学中领域或自然语言中所表示的意义。一个更具表现力但也更为脆弱的方法则是使用图形语法它将机制从形式语言理论中泛化到非序列结构模型中Rozenberg于1997年提出。图语法是重写规则的系统通过中间图的一系列转换递增地导出输出图。虽然符号图形语法symbolic graph grammars可以使用标准技术进行随机化或加权Droste和Gastin于2007年提出但从可学习性的观点来看仍然存在两个需要解决的问题。首先从一组未经注释的图形中引入语法是非常重要的因为要想对可能用于构建图形的结构构建操作进行理解在算法上是很难进行的Lautemann于1988年、Aguiñaga等人于2016年提出。其次与线性输出语法一样图形语法在语言内容和要排除内容之间的区分上存在很大的困难使得这种模型对于一些应用程序来说是不适合应用的其中它不适合将0概率分配给某些特定图形。 图形传播过程的示意图左节点选择 fnodes模块右本文引入了一种新的、富有表现力的图形模型它不需要做任何结构性假设也避免了基于语法的技术的脆弱性。我们的模型以类似于图形语法的方式生成图形其中在导出过程中新结构特别是新节点或新边缘被添加到现有图形中并且该添加事件的概率取决于图形导出的历史记录。为了在导出的每个步骤中对图形进行表示我们使用一个基于图形结构的神经网络图形网络表示。最近人们对于用于学习图形表示和解决图形预测问题的图形网络graph nets很感兴趣。这些模型是根据所利用的图形进行构造的并且以独立于图形大小的方式进行参数化因此针对同构图形具有不变性从而为我们的研究目的提供了一个很好的匹配。 在三组数据集中对图形模型和LSTM模型进行训练的曲线我们在生成具有某些常见拓扑性质例如周期性的随机图形和以非条件或条件的方式生成分子图形的任务中对我们的模型进行了评估。我们提出的模型在所有的实验中都表现良好并且比随机图形模型random graph models和长短期记忆网络基线LSTM baselines获得了更好的结果。本文所提出的是能够生成任意图形的强大模型。然而这些模型依然面临着许多挑战。在本文中我们将讨论未来会面临的一些挑战及可能的解决方案。排序节点和边缘的排序对于学习和评估而言都很重要在实验中我们总是使用预定义的分配方式排序。然而通过将排序π视为潜在的变量来学习节点和边缘的排序也许是可能的这在未来将是一个有趣的探索方向。长序列图形模型所使用的生成过程通常是一个长的决策序列如果其他形式的图形线性化是可用的例如:SMILES那么这样的序列通常会缩短2-3倍。这对于图形模型而言是一个很大的劣势这不仅难以获得准确的概率还会使训练变得更加困难。为了缓解这一问题我们可以调整图形模型以便使其与问题域进行更多地关联从而将多个决策步骤和循环转为单个步骤。可扩展性可扩展性是对本文所提出的图形生成模型的一个挑战。图形网络使用固定的传播步骤T来上传图形中的信息。然而大的图形往往需要使用大量的T来获取足够的信息这会限制这些模型的可扩展性。为了解决这一问题我们可以使用依次扫描边缘的模型Parisotto等人于2016年提出或许采取一些由粗到精的生成方法。训练难度我们发现训练这样的图形模型要比训练典型的长短期记忆网络模型更为困难这些模型所要进行训练的序列一般比较长并且模型结构不断变化还会导致训练不稳定。降低学习速率可以解决很多不稳定问题但通过调整模型可以获得更加令人满意的解决方案。本文中我们提出了一个强大的深度生成模型其能够通过一个序列性过程生成任意形。我们在一些图形生成问题中对它的属性进行了研究。这一模型已经展现出很大的潜力并且与标准LSTM模型相比具有独特的优势。我们希望我们的研究成果能够促进这方面的进一步研究进而获得更好的图形生成模型。未来智能实验室是人工智能学家与科学院相关机构联合成立的人工智能互联网和脑科学交叉研究机构。未来智能实验室的主要工作包括建立AI智能系统智商评测体系开展世界人工智能智商评测开展互联网城市云脑研究计划构建互联网城市云脑技术和企业图谱为提升企业行业与城市的智能水平服务。 如果您对实验室的研究感兴趣欢迎加入未来智能实验室线上平台。扫描以下二维码或点击本文左下角“阅读原文”