当前位置: 首页 > news >正文

绍兴网站建设专业的公司4000-262-注册公司网上申请流程

绍兴网站建设专业的公司4000-262-,注册公司网上申请流程,设计网页通常用什么语言,做汽配网站需要多少钱这是一篇7月新发布的论文#xff0c;他提出了使用自然语言处理的检索增强Retrieval Augmented技术#xff0c;目的是让深度学习在表格数据上超过梯度增强模型。 检索增强一直是NLP中研究的一个方向#xff0c;但是引入了检索增强的表格深度学习模型在当前实现与非基于检索的…这是一篇7月新发布的论文他提出了使用自然语言处理的检索增强Retrieval Augmented技术目的是让深度学习在表格数据上超过梯度增强模型。 检索增强一直是NLP中研究的一个方向但是引入了检索增强的表格深度学习模型在当前实现与非基于检索的模型相比几乎没有改进。所以论文作者提出了一个新的TabR模型模型通过增加一个类似注意力的检索组件来改进现有模型。据说这种注意力机制的细节可以显著提高表格数据任务的性能。TabR模型在表格数据上的平均性能优于其他DL模型在几个数据集上设置了新的标准在某些情况下甚至超过了GBDT模型特别是在通常被视为GBDT友好的数据集上。 TabR 表格数据集通常被表示为特征和标签对{(xi, yi)}其中xi和yi分别是第i个对象的特征和标签。一般有三种类型的主要任务:二元分类、多类分类和回归。 对于表格数据我们会将数据集分为训练部分、验证部分和测试部分模型对“输入”或“目标”对象进行预测。当使用检索技术时检索是在一组“上下文候选”或“候选”中完成的被检索的对象称为“上下文对象”或简称为“上下文”。同一组候选对象用于所有输入对象。 论文的实验设置涉及调优和评估协议其中需要超参数调优和基于验证集性能的早期停止。然后在15个随机种子的平均测试集上测试最佳超参数并在算法比较中考虑标准偏差。 论文作者的目标是将检索功能集成到传统的前馈网络中。该过程包括通过编码器传递目标对象及其上下文候选者然后检索组件会对目标对象进行的表示最后预测器进行预测。 编码器和预测器模块很简单简单因为它们不是工作的重点。检索模块对目标对象的表示以及候选对象的表示和标签进行操作。这个模块可以看作是注意力机制的一般化版本。 这个过程包括几个步骤: 如果编码器包含至少一个块则将表示进行规范化;根据与目标对象的相似性定义上下文对象;基于softmax函数对上下文对象的相似性分配权重;定义上下文对象的值;使用值和权重输出加权聚合。 上下文大小设置为一个较大的值96,softmax函数会自动选择有效的上下文大小。 检索模块是最重要的部分 作者探讨了检索模块的不同实现特别是相似度模块和值模块。并且说明了是通过一下几个步骤得到最终的模型。 1、作者评估了传统注意力的相似性和值模块发现该配置与多层感知器(MLP)相似因此不能证明使用检索组件是合理的。 2、然后他们将上下文标签添加到值模块中但发现这并没有改进这表明传统注意力的相似性模块可能是瓶颈。 3、为了改进相似度模块作者删除了查询的概念并用L2距离替换点积。这种调整使得几个数据集上性能的显著跃升。 4、值模块也进行改进灵感来自最近提出的DNNR(用于回归问题的kNN算法的广义版本)。新的值模块带来了进一步的性能改进。 5、最后作者创建模型TabR。在相似性模块中省略缩放项不包括目标对象在其自身的上下文中(使用交叉注意)平均而言会得到更好的结果。 生成的TabR模型为基于检索的表格深度学习问题提供了一种健壮的方法。 作者也强调了TabR模型的两个主要局限性: 与所有检索增强模型一样从应用程序的角度来看使用真实的训练对象进行预测可能会带来一些问题例如隐私和道德问题。 TabR的检索组件虽然比以前的工作更有效但会产生明显的开销。所以它可能无法有效地扩展以处理真正的大型数据集。 实验结果 作者将TabR与现有的检索增强解决方案和最先进的参数模型进行比较。除了完全配置的TabR他们还使用了一个简化版本TabR- s它不使用特征嵌入只有一个线性编码器和一个块预测器。 与全参数深度学习模型的比较表明TabR在几个数据集上优于大多数模型除了MI数据集在其他数据集也很有竞争力。在许多数据集上它比多层感知器(MLP)提供了显著的提升。 与GBDT模型相比调整后的TabR在几个数据集上也有明显的改进并且在其他数据集上保持竞争力除了MI数据集并且TabR的平均表现也优于GBDT模型。 总之TabR将自己确立为表格数据问题的强大深度学习解决方案展示了强大的平均性能并在几个数据集上设置了新的基准。它的基于检索的方法具有良好的潜力并且在某些数据集上可以明显优于梯度增强的决策树。 一些研究 1、冻结上下文以更快地训练TabR 在TabR的原始实现中由于需要对所有候选对象进行编码并计算每个训练批次的相似度因此在大型数据集上的训练可能很慢。作者提到在完整的“Weather prediction”数据集上训练一个TabR需要18个多小时该数据集有300多万个对象。 作者注意到在训练过程中平均训练对象的上下文(即根据相似度模块S前m个候选对象及其分布)趋于稳定这为优化提供了机会。在一定数量的epoch之后他们提出了一个“上下文冻结”即最后一次计算所有训练对象的最新上下文然后在其余的训练中重用。 这种简单的技术可以加速TabR的训练并且不会在指标上造成重大损失。在上面提到的完整的“Weather prediction”数据集上它使速度提高了近7倍(将训练时间从18小时9分钟减少到3小时15分钟)同时仍然保持有竞争力的均方根误差(RMSE)值。 2、用新的训练数据更新TabR不需要再训练(初步探索) 在现实世界的场景中在机器学习模型已经训练完之后通常会收到新的、看不见的训练数据。作者测试了TabR在不需要再训练的情况下合并新数据的能力方法是将新数据添加到候选检索集中。 他们使用完整的“Weather prediction”数据集进行了这个测试。结果表明在线更新可以有效地将新数据整合到训练好的TabR模型中。这种方法可以通过在数据子集上训练模型并从完整数据集中检索模型来将TabR扩展到更大的数据集。 3、使用检索组件增强XGBoost 作者试图通过结合类似于TabR中的检索组件来提高XGBoost的性能。这种方法涉及在原始特征空间中找到与给定输入对象最接近的96个训练对象(匹配TabR的上下文大小)。然后对这些最近邻的特征和标签进行平均将标签按原样用于回归任务并将其转换为用于分类任务的单一编码。 将这些平均数据与目标对象的特征和标签连接起来形成XGBoost的新输入向量。但是该策略并没有显著提高XGBoost的性能。试图改变邻居的数量也没有产生任何显著的改善。 总结 深度学习模型在表格类数据上一直没有超越梯度增强模型TabR还在这个方向继续努力。 如果你对他感兴趣一下是论文和源代码 https://avoid.overfit.cn/post/9e8cc5f506af4b368516876e108a62c7 作者Andrew Lukyanenko
http://www.yutouwan.com/news/99286/

相关文章:

  • 网站建设之网页制作语言基础阿里外贸平台
  • 网站相似度检测 站长怎么免费建设金融网站
  • 只做画册的网站常州网签备案查询
  • 平面设计跟网站建设南方医科大学精品课程建设网站
  • 网站内外链接怎么做企业展厅设计公司盛世笔特
  • 移动网站开发课程设计网络营销推广平台有哪些
  • 网站建设体质喝什么茶广元网站建设工作室
  • 一键建站平台开发平台游戏
  • 大型网站建设公司有哪些贸易公司做推广的网站
  • 南京 做网站响应式网站应该怎么做
  • xampp网站后台微信开发平台公司
  • 想美团这样的网站怎么做的门户网站是指提供什么的网站
  • 宁波网站建设制作价格室外建筑网站
  • 酒店网站开发需求是企业写的吗网站制作公司网站建设公司
  • 河南建设网站公司传奇高爆网页游戏
  • 长春建站公司模板整站优化排名
  • 定制 网站开发 价格校园网络拓扑图及网络方案
  • 阿里云网站建设方案书模板ui设计公司
  • 凡科可以做淘宝客网站吗广州百度关键词排名
  • 大庆做网站的上海网站建设流程
  • 网站制作优化全包徐州制作网站软件
  • 没有备案的网站怎么访问类qq留言网站建设
  • 网站建设 东八区网站建设 柳州
  • 制作网站哪家服务好卢松松博客主题 wordpress
  • 快速提高网站权重提升燃气公司网站建设方案
  • 重庆免费推广网站在线开发培训网站建设
  • 广州建站网站如何wordpress建站
  • 网站建设服务合同印花税wordpress wamp
  • 企业微网站开发技术太差 不想干程序员
  • 做淘宝联盟网站要多少钱?做ppt选小图案的网站