当前位置: 首页 > news >正文

舟山建设管理网站工作室官网模板

舟山建设管理网站,工作室官网模板,wordpress主题大小,php网站开发 学习计划P-Tuning v2论文概述 P-Tuning v2论文概述前言微调的限制性P-Tuning的缺陷P-Tuning v2 摘要论文十问NLU任务优化点实验数据集预训练模型实验结果消融实验 结论 P-Tuning v2论文概述 前言 微调的限制性 微调#xff08;fine-tuning#xff09;是一种在预训练模型基础上进行目… P-Tuning v2论文概述 P-Tuning v2论文概述前言微调的限制性P-Tuning的缺陷P-Tuning v2 摘要论文十问NLU任务优化点实验数据集预训练模型实验结果消融实验 结论 P-Tuning v2论文概述 前言 微调的限制性 微调fine-tuning是一种在预训练模型基础上进行目标任务调整的方法它会更新整个模型参数集。虽然微调能获得良好的性能但由于训练过程中需要存储所有参数的梯度和优化器状态因此耗费内存。此外由于预训练模型通常较大在推理过程中为每个任务保留一份模型参数副本非常不方便。 P-Tuning的缺陷 在不同尺度上的通用性不足尽管在大型模型超过100亿参数上P-Tuning与微调相当但对于中等规模的模型从100M到1B提示调整的性能远远低于微调。 在不同任务上的通用性不足尽管在一些自然语言理解NLU基准上P-Tuning表现优越但其在困难的序列标签任务上的有效性尚未得到验证。序列标签任务预测每个输入令牌的一系列标签这可能更难并且与语言化器不兼容。 P-Tuning v2 prompt tuning对于普通尺寸大小的模型小于10B效果并不好。 基于这些挑战提出了P-Tuning v2它采用了深度提示调整作为在各种尺度和NLU任务中的通用解决方案。 prompt tuning v2只有微调0.1%-3%的参数并且适用于普遍大小300M-10B的模型。 摘要 提示调优仅使用冻结的语言模型调整连续提示大大减少了训练时每个任务的存储和内存使用。 然而在 NLU 的背景下先前的工作表明对于正常大小的预训练模型提示调优表现不佳。我们还发现现有的提示调优方法无法处理硬序列标记任务表明缺乏通用性。 我们提出了一种新的经验发现经过适当优化的提示调优可以在广泛的模型规模和 NLU 任务中普遍有效。它匹配微调的性能同时只有 0.1%-3% 的调整参数。 我们的方法 P-Tuning v2 是 Deep Prompt Tuning (Li and Liang, 2021; Qin and Eisner, 2021) 的实现优化和适应 NLU。鉴于 P-Tuning v2 的普遍性和简单性我们相信它可以作为微调的替代方案并为未来的研究提供强大的基线。 论文十问 论文试图解决什么问题 这篇论文试图解决prompt tuning在模型规模和硬序列标记任务上的泛化性不足的问题。 这是否是一个新的问题 不能说是一个新的问题,文章中提到prompt tuning的泛化性问题已经被先前的工作发现。 这篇文章要验证一个什么科学假设 这篇文章要验证优化后的prompt tuning方法可以和fine-tuning一致泛化地工作。 有哪些相关研究如何归类谁是这一课题在领域内值得关注的研究员 相关研究包括Lester et al. (2021)和Liu et al. (2021)的工作。这两个工作在10亿参数规模的模型上探索了prompt tuning。值得关注的研究员包括论文作者之一的Jie Tang。 论文中提到的解决方案之关键是什么 文章中提出的解决方案P-tuning v2的关键是为每个transformer层添加连续prompt。 论文中的实验是如何设计的 论文设计了在不同模型规模和NLP任务上的实验来比较P-tuning v2和fine-tuning的效果。 用于定量评估的数据集是什么代码有没有开源 使用的数据集包括SuperGLUE、命名实体识别、阅读理解和语义角色标注等。代码已在GitHub上开源 论文中的实验及结果有没有很好地支持需要验证的科学假设 实验结果充分支持了优化后的prompt tuning方法可以和fine-tuning一致泛化工作的假设。 这篇论文到底有什么贡献 这篇论文的主要贡献是发现合适优化的prompt tuning可以和fine-tuning一致有效。 下一步呢有什么工作可以继续深入 下一步的工作可以基于这个泛化prompt tuning方法继续探索在其他NLP任务如生成任务上的应用和优化。 NLU任务 通常简单的分类任务更喜欢较短的提示少于 20 个硬序列标记任务更喜欢较长的大约 100 简单分类任务 简单分类任务涉及在标签空间上进行分类例如GLUEWang等2018和SuperGLUEWang等2019中的大多数数据集。 硬序列标记任务 硬序列标注任务hard sequence labeling tasks是指那些涉及对一系列标签进行分类的自然语言理解NLU任务。这类任务通常比较困难因为它们需要对一组标签进行预测而不仅仅是对单个标签进行分类。 硬序列标注任务的例子包括命名实体识别Named Entity Recognition和抽取式问答Extractive Question Answering。在这些任务中模型需要对输入序列中的每个元素进行分类以生成一系列标签。这种任务通常比简单的分类任务更具挑战性。 优化点 P-tuning v2就是Deep Prompt Tuning在自然语言理解任务上的实现。 其关键要点是: (1) 为预训练语言模型的每个transformer层插入提示。 (2) 重新参数化提示表示(可选)。 (3) 使用线性分类头而不是语言建模头。 实验 数据集 SuperGLUE、命名实体识别、阅读理解和语义角色标注等 预训练模型 模型大小BERT-large335MRoBERTa-large355MDeBERTa-xlarge750MGLM-xlarge2BGLM-xxlarge10B 实验结果 SuperGLUE 开发集的结果。P-tuning v2 在小于 10B 的模型上超过了 P-tuning匹配在不同模型尺度上微调的性能。 命名实体识别 (NER)、问答 (Extractive QA) 和语义角色标签 (SRL) 的结果。NER 和 SRL 中的所有指标都是 micro-f1 分数 消融实验 带LM头的语言分析器与带线性头的CLS标签。 在RoBERTa-large上实验结果表明两者性能相近。 提示深度的影响 在给定相同数量的可调节参数下,将连续提示添加到更深层(靠近输出层)可以获得比添加到开始层更好的性能,这验证了多层连续提示的有效性。 在RTE的情况下仅向17-24层添加提示可以产生与所有层非常接近的性能 结论 在不同的模型规模300M 到 10B 参数和自然语言理解NLU任务上P-Tuning v2 的性能与微调方法相当。 P-Tuning v2 只需调整 0.1% 到 3% 的任务特定参数而微调方法需要调整整个模型的所有参数。 与其他提示调优方法相比P-Tuning v2 在简单分类任务和困难序列标注任务如抽取式问答和命名实体识别上的表现更接近微调方法。 总之P-Tuning v2 方法具有较低的训练时间、内存成本和每个任务的存储成本并且在各种模型规模和 NLU 任务上具有与微调方法相当的性能。这使得 P-Tuning v2 可以作为微调方法的替代方案并成为未来研究的强基线。
http://www.sadfv.cn/news/62764/

相关文章:

  • 做网站具体指什么网络营销服务的特点
  • 全国前十名校程序开发公司常州网站seo
  • 浙江网警优化方案官网电子版
  • 羊 东莞网站开发高性能标准网站建设进阶指南 pdf
  • 用户体验设计师证书广州新塘网站seo优化
  • 开发网站如何赚钱wordpress 清理数据库
  • 网站数据丢失记事本做网站
  • 哪个网站可以做字体大小申远空间设计公司官网
  • 建设网站的推广的软文改变网站字体
  • 2022年互联网创业项目网站seo优化推广教程
  • 婚庆网站论文广州市建设企业网站哪家好
  • 在线设计海报网站第三方公司做网站价格
  • 个人定制网站怎样做商城网站的推广
  • 推荐几个自学做衣服的网站wordpress投稿上传图片
  • 网站建设 简易合同做全景效果图的网站
  • 注册网站要语音验证码的有哪些东莞网站制作外包
  • 开展农业信息网站建设工作总结2019年建设银行安徽招聘网站
  • 长沙制作网站软件wordpress 点击特效
  • 互联在线app开发网站柳州专业做网站设计
  • 乡村旅游网站建设的意义莱州网站建设价格
  • iis怎么设置网站网站内链建设和外链的推广
  • 金融交易网站建设网站建设及维护服务器
  • 网站制作后续维护成都免费建站
  • 外包网站开发合同重庆市特种作业证报名
  • 网站如何在百度搜索企业做个网站多少钱
  • wordpress 建站 linux云县网站建设找那家
  • 新密网站最好的短视频制作软件
  • 广州网站建设设计苏州关键词优化怎样
  • 珠海做网站哪里公司好域名没备案wordpress不能编辑文章
  • 湛江专业官网建站传统企业建设网站的内容