当前位置: 首页 > news >正文

海报模板在线制作免费网站医疗行业网站备案

海报模板在线制作免费网站,医疗行业网站备案,可以做超链接或锚文本的网站有哪些,wordpress ip 跳转在当今快节奏的技术环境中#xff0c;大型AI模型正在推动不同领域的突破。 然而#xff0c;根据特定任务或数据集定制这些模型可能是一项计算和资源密集型工作。 LoRA是一种突破性且高效的微调技术#xff0c;它利用这些高级模型的强大功能来执行自定义任务和数据集#xf…在当今快节奏的技术环境中大型AI模型正在推动不同领域的突破。 然而根据特定任务或数据集定制这些模型可能是一项计算和资源密集型工作。 LoRA是一种突破性且高效的微调技术它利用这些高级模型的强大功能来执行自定义任务和数据集而不会造成资源紧张或产生过高的成本。 近几个月来LoRA 席卷了 AI 社区图 1。 在这篇博文中我们将深入探讨其迅速崛起背后的原因。 我们将探讨 LoRA 的基础原则、其在各个领域的有效性以及它对开源社区的影响。 图 1过去 12 个月 LoRA 一词在计算机科学类别中的流行程度 在线工具推荐 Three.js AI纹理开发包 - YOLO合成数据生成器 - GLTF/GLB在线编辑 - 3D模型格式在线转换 - 可编程3D场景编辑器 无论你是AI爱好者还是寻求利用大模型来应对特定业务挑战的工程师都可以加入我们这个迷人的旅程了解 LoRA 如何改变大型模型 FMOps基础模型运维管道中的微调步骤。 1、背景知识 在深入了解 LoRA 之前我们先回顾一下一些基本的线性代数概念。 如果你熟悉线性代数的基础知识特别是矩阵秩请随意绕过下面的数学。 1.1 矩阵的秩 矩阵的秩rank是由其列生成的向量空间的维数由给定矩阵中线性独立的列或行的数量给出。 可以证明独立列的数量称为列秩始终等于独立行的数量称为行秩。 因此对于 m 行 n 列的矩阵 A表示为 Aₘₙ 根据秩的不同情况矩阵主要可以分为两种类型。 满秩矩阵如果 rank(A) min(m, n)则矩阵 Aₘₙ 称为满秩full rank矩阵。 下面显示的矩阵是满秩矩阵的示例。 不满秩矩阵满秩矩阵的反面是不满秩rank deficient即 rank(A) min(m, n)。 下面所示的不满秩矩阵的秩为 1因为该矩阵的列或行不是彼此线性独立的 如果秩明显低于无固定阈值最小行数和列数则不满秩矩阵 Aₘₙ 称为低秩low rank矩阵。 数学上 rank(A) min(m, n)。 1.2 秩相关属性 就本博客而言矩阵的秩可以被理解为它所表示的特征空间的维度。 在这种情况下特定大小的低秩矩阵比相同维度的满秩矩阵封装更少的特征或更低维的特征空间。 下面介绍两个与秩相关的矩阵属性 矩阵的秩受其行数和列数中最小值的约束。 两个矩阵的乘积的秩受其各自秩的最小值的约束。给定矩阵 A 和 B其中rank(A) m且rank(A) n则 1.3 秩分解 矩阵 Aₘₙ 的秩分解或因式分解是对 A CₘᵣFᵣₙ 形式的 A 进行因式分解其中rank(A) r。 可以证明每个有限矩阵都有一个秩分解证明。 SVD奇异值分解等技术可用于构建此类分解。 至此我们已经介绍了必要的背景概念。 让我们深入了解 LoRA并探讨它如何在微调大型AI模型的背景下利用这些原则。 2、LoRA低秩适配 LoRA Low rand adaption是微软研究人员提出的一种高效的微调技术用于使大型模型适应特定任务和数据集。 虽然本文使用 GPT-3 作为测试用例并重点关注语言模型和 NLP 任务但该技术具有相当的通用性我们将在下面看到。 它可以应用于多种上下文中的各种模型。 之前的许多工作已经表明过度参数化的大型模型存在较低的内在维度。 LoRA 背后的主要思想是模型微调期间权重的变化也具有较低的内在等级/维度。 具体来说如果Wₙₖ代表单层的权重ΔWₙₖ代表模型自适应过程中权重的变化作者提出ΔWₙₖ是一个低秩矩阵即 为什么这是有道理的 大型模型经过训练以捕获其领域的一般表示例如LLM的语言、Whisper 等模型的音频语言或图像生成模型的视觉。 这些模型捕获了各种特征使它们能够以合理的零样本精度用于各种任务。 然而当使这样的模型适应特定任务或数据集时只需要强调或重新学习少数特征。 这意味着更新矩阵ΔW可以是低秩矩阵。 2.1 LoRA实现方法 LoRA技术使用秩分解来约束更新矩阵 ΔW 的秩。 它将 ΔWₙₖ 表示为 2 个低秩矩阵 Bₙᵣ 和 Aᵣₖ 的乘积其中  r min(n, k)。 这意味着该层的前向传递原来的Wx被修改为Wx BAx如下图所示。 A 使用随机高斯初始化B 初始为 0因此训练开始时 BA0。 更新 BA 还使用因子 α/r 进行缩放。 图 2使用低秩分解改进的前向传播。 2.2 LoRA的实际价值 包括 减少训练时间和空间使用上面所示的技术需要在模型微调期间调整 r(n k) 参数。 由于 r min(n, k)这比必须调整的参数数量 (nk) 要少得多。 这大大减少了微调模型所需的时间和空间。 本文和我们的实验中的一些数据将在下面的部分中讨论。无需额外的推理时间如果在生产中使用我们可以显式计算 W’ W BA 并存储结果照常执行推理。 这保证了我们在推理过程中不会引入任何额外的延迟。更轻松的任务切换仅交换 LoRA 权重而不是所有参数可以更便宜、更快地在任务之间切换。 可以创建多个定制模型并轻松换入和换出。 然而这里的缺点是一旦合并权重以消除额外的推理时间任务切换的便捷性就会消失。 此外在一次前向传递中将不同 A 和 B 的输入批量输入到不同的任务并不简单。 有得有失对吧 3、评估 LoRA 的有效性 讨论了LoRA技术的工作原理及其可能带来的好处后现在让我们探讨一下它的功效。 在论文中作者根据完全微调和其他参数/计算高效技术评估了 LoRA使用 RobBert、GPT2 和 GPT3的性能。 他们发现 LoRA 通常大幅优于其他高效的微调技术同时还提供与完全微调相当或更好的性能。 有关其分析的完整详细信息有兴趣的读者可以参考该论文。 为了进一步探索其有效性我们在各个领域和任务中进行了额外的实验。 在以下小节中我们讨论这些实验的结果展示 LoRA 方法的多功能性和鲁棒性。 3.1 在 Common Voice (NL) 上微调 Whisper-Large-v2 Whisper 是一个 ASR自动语音识别 系统经过大量数据集的训练。 它是一个模型系列每个模型都有不同的尺寸。 最小的模型 (Whisper-Tiny) 包含 3900 万个参数而最大的模型 (Whisper-Large-v2 ) 包含 15 亿个参数。 最大的模型可以执行多语言自动语音识别任务。 然而通过使用特定语言的数据对其进行微调可以提高其性能。 在本实验中我们使用通用语音数据集的荷兰语子集对模型进行微调。 我们通常在低数据状态下对大型模型有或没有 LoRA进行微调。 使用 r32其中 r 是更新矩阵的秩的 LoRA 对模型进行微调可将可调节参数的数量减少到 1570 万个占整个模型参数的 1%。 首先我们用一个小的数据集进行测试。我们对带有或不带有 LoRA 的 Whisper-Large-v2 对来自 Common Voice 荷兰语子集的一小时音频进行了微调。 评价结果如下表所示 表 1低数据情况下 LoRA 和全微调的比较 我们看到使用 LoRA 微调的模型的性能与完全微调的模型的性能相似。 然而如前所述LoRA 允许我们通过调整极少量的参数就大小而言LoRA 检查点仅为 60MB在更短的时间内完成此任务。 使用 LoRA和 8 位优化在 Google Cloud 上的 Nvidia T4 上进行训练大约需要 4 小时成本不到 5 美元。 接下来我们使用大数据集测试。在本例中我们使用 Common Voice 的整个荷兰语子集约 40 小时对同一模型进行了微调。 评价结果如下表所示 表 2LoRA 与完全微调的比较 我们看到使用 LoRA 微调的大型模型5000 步的性能与完全微调的大型和中型模型的性能相当。 然而使用 LoRA和 8 位优化在 Google Cloud 上的 Nvidia T4 上进行微调大约需要 10 个小时成本不到 10 美元。 3.2 调整 LLaMA 来执行对话摘要任务 LLaMA 是 Meta 研究人员发布的大型语言模型。 与 Whisper 一样它是一个具有不同尺寸的模型系列最小的是 7B最大的是 65B。 我们使用 Samsum 数据集对对话摘要任务的 7B 参数模型进行了微调并使用 ROUGE 来评估微调后的模型。 为了测试 LoRA 在低秩下的有效性更新矩阵的秩被限制为 4即 r4。 这意味着可调参数的数量为200万个仅占模型参数总数的0.03%。 从下表中我们可以看到它的性能优于完全微调的 Flan-T5-Base 模型2.5 亿个参数。 此外使用低秩和 8 位优化使我们能够在单个 Nvidia-T4 上微调如此大的模型 表 3LLaMA 在 SamSum 数据集上的低秩微调 注意这不是模型之间公平的独立比较。 与 Flan-T5-Base 相比LLaMA-7B 是一个更大的基础模型因此可能在许多任务上具有更好的零样本性能。 然而这种比较旨在证明对于大型基础模型使用非常低的秩因此需要较少的计算和微调时间就足够了。 论文和我们的实验结果证明了 LoRA 的有效性。 LoRA 提供了一种计算和参数有效的方法来微调基础模型而不会显着降低性能从而节省时间和金钱 4、野蛮生长的LoRA 现在让我们看看 LoRA 在开源社区中的应用情况。 随着最近大型基础模型和生成式AI模型的爆炸式增长开源社区张开双臂欢迎 LoRA因为它能够让资源匮乏的从业者适应大型模型。 在这里LoRA 主要用于两个主要目的指令调整 LLM 和微调扩散模型。 4.1 指令调整大型语言模型 随着 ChatGPT 和 Self-Instruct 等技术的推出OSS 社区一直在稳步致力于调整大型语言模型以遵循指令。 这里的核心思想很简单。 创建指令和响应的数据集手工创建或 试用ChatGPT并通过 LoRA 使用该数据集微调预训练的大型语言模型。 这种方法产生的模型相当擅长像人类一样遵循指令并回答问题。 有兴趣的读者可以查看 Alpaca-LoRA 和 Vicuna 等模型。 Vicuna 回答用户有关夏威夷度假的问题 4.2 微调稳定扩散 在 ChatGPT 和 LLaMA 等其他 LLM 推出之前LoRA 主要用于调整稳定扩散以适应生成图像的风格。 然后可以即插即用的方式使用和共享 LoRA 权重并在需要不同的图像生成样式时将其切换。 如前所述该技术的主要吸引力在于其参数和计算效率。 Lora库的存在证明了这种方法在生成式AI 社区中的流行人们可以在其中共享他们的 Lora 文件 5、结束语 总而言之LoRA 有两个主要应用。 第一个是用低计算量微调大型模型第二个是在低数据环境下调整大型模型。 论文的结果、我们的实验以及开源人工智能社区的广泛采用证明了它在当前基础模型驱动的AI环境中的价值。 它使AI民主化使个人和组织能够在不花太多钱的情况下使用和调整大型基础模型确保适应这些模型的能力不仅仅掌握在少数人手中 原文链接LoRA微调技术详解 - BimAnt
http://www.sadfv.cn/news/254567/

相关文章:

  • cms网站开发模式常州知名做网站服务
  • 邢台网站建设开发济南建设银行网站
  • 网站 移动app开发wordpress扫码付费可见
  • 医院品牌网站建设网站模板源码平台
  • 电子商务网站开发需求文档泉州网站制作哪个好微
  • 不同类型企业网站的对比分析seo快速排名易下拉霸屏
  • 现在的网站前端用什么做含山县建设局网站
  • 哪个网站可以免费做国外网站云服务器低价
  • 做网站要多久怀安县建设局网站
  • 网站搭建设计范文wordpress 3d
  • 网站服务合同用交印花税吗做美团网站多少钱
  • 网站开发系统需求说明书校园内部网站建设方案
  • 普通电脑怎么建设网站河南建造师网官网
  • 西乡塘网站建设代码做网站图片怎么插
  • 阳江市住房和城乡建设局网站wordpress社交链接图标
  • 旅游信息管理网站开发文件公司做网站是管理费用
  • 济南网站的建设定制建设网站
  • 西安免费网站制作河南网站推广优化报价
  • 做团购网站需要什么精美网站
  • 如何搭建一个完整的网站传奇世界网页版官网
  • 网站后台英文在网站开发中如何设置用户登录
  • 做网站是什么职位网页首站
  • 网页设计做一个介绍自己的的网站centos7系统做网站
  • iis内网站设置允许脚本执行怎么做网站自动采集数据
  • 永州网站建设网站中国建造师官网查询
  • 临沂做网站费用wordpress抢救
  • 二级域名查询网站wordpress数据库删不掉
  • 合肥网站设计高端公司深圳聘请做网站人员
  • 建设银行网站修改手机号码网站开发运营新人要注意什么
  • 网站建设全网营销wordpress 大众点评