当前位置: 首页 > news >正文

网站建设 东阿阿胶建设部网站证件查询

网站建设 东阿阿胶,建设部网站证件查询,最好在线网站建设,怎么做打鱼网站前言 考虑到文生视频开始爆发#xff0c;比如11月份就是文生视频最火爆的一个月 11月3日#xff0c;Runway的Gen-2发布里程碑式更新#xff0c;支持4K超逼真的清晰度作品(runway是Stable Diffusion最早版本的开发商#xff0c;Stability AI则开发的SD后续版本)11月16日比如11月份就是文生视频最火爆的一个月 11月3日Runway的Gen-2发布里程碑式更新支持4K超逼真的清晰度作品(runway是Stable Diffusion最早版本的开发商Stability AI则开发的SD后续版本)11月16日Meta发布文生视频模型Emu Video11月18日字节跳动半路杀出发布PixelDance11月21日开发并维护Stable Diffusion后续版本的Stability AI终于发布了他们自家的生成式视频模型Stable Video Diffusion(SVD) 加之不止一个B端客户找到七月希望帮其做文生视频的应用故我司第一项目组准备在AIGC模特之后做文生视频项目最终把文生3D、文生数字人都串起来 当然我司还是三大项目组 除了已经对外发布的AIGC模特生成系统外文生图、文生视频、文生3D、数字人都在第一项目组论文审稿GPT(目前正在迭代第二版《七月论文审稿GPT第2版从Meta Nougat、GPT4审稿到Mistral、LongLora Llama》)包括后续的AI agent商用项目在第二项目组企业多文档的知识库问答(目前正在解决各种已知问题中)则在第三项目组 第一部分 视频生成的iPhone时刻Runway先后发布Gen-1、Gen-2 1.1 Gen-1对现有的3D动画和手机视频进行AI编辑 今2023年2月之前开发stable diffusion最初版本的Runway提出了首个AI编辑模型Gen-1Gen-1可以在原视频的基础上编辑出咱们想要的视频。无论是粗糙的3D动画还是用手机拍出来的摇摇晃晃的视频Gen-1都可以升级出一个不可思议的效果(当然其背后原因是Gen1 trained jointly on images and videos) 比如用几个包装盒Gen-1就可以生成一个工厂的视频化腐朽为神奇就是这么简单 1.1.1 Gen-1何以做到给图像模型增加时间线且对图像和视频做联合训练 Gen-1对应的论文为Structure and Content-Guided Video Synthesis with Diffusion Models顺带说一嘴有的文章会把这篇论文混淆成Gen2的论文但实际上runway只对外发布了Gen-1的论文2的论文在23年年底之前还没对外发大家注意 如下图所示可以基于潜在视频扩散模型(latent video diffusion models)通过给定下图中间部分的原始输入图像然后既可以通过如下图上面部分的文字引导生成视频也可以通过如下图下面部分的图像引导生成视频 怎么做到的呢 首先视频之所以可以通过文字引导生成离不开文字引导图像生成的那一系列前置工作(Text-conditioned models, such as DALL-E2 and Stable Diffusionenable novice users to generate detailed imagery given only a text prompt as input)。毕竟潜在扩散模型提供了在感知压缩空间高效合成图像的方法其次通过引入带有时间线的预训练图像模型(temporal layers into a pre-trained image model)且在图像和视频上做联合训练「即在一个大规模的无字幕视频和配对的“文本-图像”的数据集上进行训练( trained on a large-scale dataset of uncaptioned videos and paired text-image data)」从而将潜在扩散模型扩展到视频生成 Gen1提出了一个可控的结构和内容感知的视频扩散模型(We propose a controllable structure and content-aware video diffusion model) 同时在推理阶段可以修改由示例图像或文本引导的视频(意味着编辑视频的操作完全在推理阶段中执行无需额外的针对每个视频的训练或预处理即Editing is performed entirely at inference time without additional per-video training or pre-processing) 且选择用单眼深度估计的技术来表示结构且由预先训练的神经网络预测嵌入表示内容(We opt to represent structure with monocular depth estimates and content with embeddings predicted by a pre-trained neural network顺带解释下单眼深度估计是一种计算机视觉技术它旨在从仅使用单个摄像机拍摄的二维图像中推断出场景的三维深度信息)然后在视频生成的过程中提供了几种控制模式 首先类似于image synthesis models训练模型使得其可以推断视频的内容例如他们的外观或风格及匹配用户提供的图像或文本提示 第二受到扩散过程的启发将information obscuring process应用到structure representation以选择模型对给定结构的坚持程度(we apply an information obscuring process to the structure representation to enable selecting of how strongly the model adheres to the given structure) 最后还对推理过程进行了调整通过自定义指导方法以及受classifier-free guidance的启发以控制生成的剪辑的时间一致性(to enable control over temporal consistency in generated clips)相当于做到了时间、内容、结构三者在一致上的统一对齐 1.1.2 Gen1的训练过程、推理过程的详解 咱们模型的目标是保留视频结构的同时(结构一般指视频的几何、动力学的特征比如对象的形状、位置以及他们的时间变化)编辑视频的内容(内容一般指的是视频外观及其语义的特征比如对象的颜色、样式以及场景的光亮度) 为了实现这一目标需要基于结构表示和内容表示的基础上学习视频的生成模型从而通过输入的视频推断出其结构表示然后根据编辑视频的描述文本进行修改(modify it based on a text prompt c describing the edit)如下图所示 在上图左侧的训练过程中输入的视频x用一个固定的编码器E编码到并扩散到 另一边通过对“使用MiDaS获得的depth maps”进行编码来提取一个结构表示并通过使用CLIP对其中一个帧进行编码来提取内容表示 (We extract a structure representation s by encoding depth maps obtained with MiDaS, and a content representation c by encoding one of the frames with CLIP. ) 然后在、、以及通过交叉注意块提供的的帮助下模型学习在潜在空间中逆转扩散过程在上图右侧的推理过程中输入视频的结构以同样的方式提供。为了通过文本指定内容将CLIP文本嵌入转换为图像嵌入 1.1.2.1 对潜在扩散模型的回顾 扩散模型的正向扩散过程被定义为 将符合正太分布的噪声缓慢添加到每个样本得到该正向扩散过程模拟一个马尔科夫链噪声的方差为而 至于逆向过程则根据以下公式定义 其中方差是固定的只需学习其中的均值即可我们需要优化目标的损失函数即为 最终转化为 友情提醒如果你对上述扩散模型DDPM的推导有任何疑问可参见此文的第二部分《AI绘画能力的起源从VAE、扩散模型DDPM、DETR到ViT/Swin transformer》对关于DDPM的每一步骤的推导都非常详尽 1.1.2.2 时空潜在扩散(Spatio-temporal Latent Diffusion) 为了可以正确的对视频帧的分布进行建模需要做一下工作 引入时间层来扩展图像架构且这些时间层仅对视频输入有效另自动编码器保持固定并独立处理视频中的每一帧we extend an image architecture by introducing temporal layers, which are only active for video inputs. All other layers are shared between the image and video model. The autoencoder remains fixed and processes each frame in a video independently.UNet主要由两个模块组成残差块和transformer块通过添加跨时间的一维卷积和跨时间的一维自注意力将它们扩展到视频(we extend them to videos by adding both 1D convolutions across time and 1D self-attentions across time) 在每个残差块中如上图左侧所示在每个2D卷积之后引入一个时间卷积(In each residual block, we introduce one temporal convolution after each 2D convolution) 同样的如上图右侧所示在每个2D transformer块后都包含一个temporal 1D transformer block, which mimics its spatial counterpart along the time axis且将learnable positional encodings of the frame index输入到temporal transformer blocks中相当于  在每个空间卷积之后添加一个一维时间卷积  在每个空间注意力层之后添加一个一维时间注意力层最终实现时将图像视为只有单帧的视频以统一处理这两种情况 批量大小为b、帧数为n、通道数为c、空间分辨率为w ✖️ h即形状为b × n × c × h × w的分批张量被重新排列为w × h (i.e. shape b × n × c × h × w) is rearranged to (b · n) × c × h × w for spatial layers, to (b · h · w) × c × n for temporal convolutions, and to (b · h · w) × n × c for temporal self-attention //待更 1.1.2.3 结构与内容的表示(Representing Content and Structure) 扩散模型非常适合对等条件分布进行建模由于大规模配对的视频-文本数据集比较缺乏所以只能限制在无字幕的视频数据上进行训练 总之我们的目标是根据用户提供的编辑视频的文本提示来编辑视频但还是面临一个问题即我们没有视频三元组的训练数据、编辑prompt、和生成的输出也没有成对的视频和文本字幕(Thus, while our goal is to edit an input video based on a text prompt describing the desired edited video, we have neither training data of triplets with a video, its edit prompt and the resulting output, nor even pairs of videos and text captions)因此我们必须从训练视频本身导出结构和内容的表示即、从而损失函数为相反在推理过程中结构和内容分别来自输入视频和文本提示 edited version x of y通过对以、为条件的生成模型进行采样获得的 内容表示层面上 为了从文本输入x和视频输入x都可以推断出内容表示(content representation)他们利用CLIP的image embeddings来表示 represent content. 对于视频输入他们在训练期间随机选择一个输入帧类似于可以训练一个先验模型该模型允许从text embeddings中采样image embeddings这种方法可以通过图像输入而非文本来指定编辑This approach enables待更.. // 待更 1.2 Gen-2获得了史诗级的升级——可以从头开始生成视频 很多同学还没来得及体验Gen-1没想到在2023年3月份runway很快又推出了Gen-2的内测版本并于6月份正式对外发布(这是runway对Gen-2介绍的页面https://research.runwayml.com/gen2)相比Gen-1Gen-2获得了史诗级的升级——可以从头开始生成视频。如果说去年发布的stable diffusion/midjourney是文生图的代表那Gen2便是文生视频的第一个代表 Gen-2刚开始发布时还只能生成4秒钟的视频每个用户的免费试用额度为105秒即可以生成约26个Gen2视频到了8月份生成视频的最大长度便从4s提升到了18s9月新增导演模式可以控制镜头的位置和移动速度 1.2.1 基于Gen-2生成视频的8种模式 Text to VideoText Image to VideoImage to Video比如输入下面这张图片Gen-2便可以根据上面这张图片生成对应的视频 Gen2Image to Video StylizationStoryboardMaskRenderCustomization 1.2.2 Gen-2在23年11月的更新生成视频4K超高清且涂哪动哪 Gen-2在11月份连续推出2次重大更新 11月3日Runway的Gen-2发布里程碑式更新支持4K超逼真的清晰度作品11月21日上线“涂哪动哪”的运动笔刷新功能直接标志出生成模型可控性上的一个重要里程碑 第二部分 Meta发布生成式视频模型Emu Video 11月16日Meta发布文生视频模型Emu Video该模型既支持灵活的图像编辑例如把「兔子」变成「吹小号的兔子」再变成「吹彩虹色小号的兔子」也支持根据文本和图像生成高分辨率视频例如让「吹小号的兔子」欢快地跳舞 那其背后的原理是怎样的呢事实上这其中涉及两项工作 灵活的图像编辑由一个叫「Emu Edit」的模型来完成。它支持通过文字对图像进行自由编辑包括本地和全局编辑、删除和添加背景、颜色和几何转换、检测和分割等等 此外它还能精确遵循指令确保输入图像中与指令无关的像素保持不变比如给鸵鸟穿裙子 高分辨率的视频则由一个名叫「Emu Video」的模型来生成。Emu Video 是一个基于扩散模型的文生视频模型能够基于文本生成 512x512 的 4 秒高分辨率视频。且有人工评估表明与 Runway 的 Gen-2 以及 Pika Labs 的生成效果相比Emu Video 在生成质量和文本忠实度方面的得分可能更高。以下是它的生成效果 在其官方博客中Meta 展望了这两项技术的应用前景比如让社交媒体用户自己生成动图、表情包按照自己的意愿编辑照片和图像等等。当然关于生成动图/表情包这点Meta 在之前的 Meta Connect 大会上发布 Emu 模型时也提到过(参见Meta 版 ChatGPT 来了Llama 2 加持接入必应搜索小扎现场演示) 接下来我们分别介绍下这两个模型 2.1 Emu Edit 精确的图像编辑 2.1.1 相比InstructPix2Pix的优势更准确的执行指令 Emu Edit对应的论文为《Emu Edit: Precise Image Editing via Recognition and Generation Tasks》其项目地址则为https://emu-edit.metademolab.com/ 如该论文中所说如今每天都有数百万人使用图像编辑。然而流行的图像编辑工具要么需要相当多的专业知识使用起来很耗时要么非常有限仅提供一组预定义的编辑操作如特定的过滤器。好在如今基于指令的图像编辑(Instruction-based image editing)试图让用户使用自然语言指令来解决这些限制。例如用户可以向模型提供图像并指示其「给鸸鹋穿上消防员服装」这样的指令 然而虽然像 InstructPix2Pix 这类基于指令的图像编辑模型可以用来处理各种给定的指令但 它们通常很难准确地解释和执行指令   顺带说明下instructable - pix2pix引入了一个可指导的图像编辑模型他们通过同时利用GPT-3和Prompt-to-Prompt来开发这个模型以生成一个用于基于指令的图像编辑的大型合成数据集并利用该数据集来训练一个可遵循指令的图像编辑模型 与使用合成数据集的InstructPix2Pix不同Mag-icBrush通过要求人类使用在线图像编辑工具开发了一个人工标注的指令引导的图像编辑数据集然后在此数据集上微调instructable - pix2pix可以提高图像编辑能力 此外这些模型的泛化能力有限通常无法完成与训练时略有不同的任务例如下图当让小兔子吹彩虹色的小号其他模型要么把兔子染成彩虹色要么是直接生成彩虹色的小号 为了解决这些问题Meta 引入了 Emu Edit这是首个在多样化的任务上训练而成的图像编辑模型如前所述Emu Edit 可以根据指令进行自由形式的编辑包括本地和全局编辑、删除和添加背景、颜色改变和几何变换、检测和分割等任务。 与当今许多生成式 AI 模型不同Emu Edit 可以精确遵循指令确保输入图像中与指令无关的像素保持不变。例如下图左侧用户给出指令「将草地上的小狗移除」移除物体后的图片几乎看不出来有什么变化再比如下图右侧移除图片中左下角的文本再给图片换个背景Emu Edit 也能处理得很好 2.1.2 开发一个1000万规模的数据集涵盖16个不同的任务 考虑到市面上已有的数据规模、多样性、质量都有限故为了训练这个模型Meta 开发了一个包含 16个不同的任务 和 1000 万个合成样本的数据集每个样本都包含一个输入图像、对要执行任务的描述(即文本指令)以及目标输出图像、任务索引「Each example (cI , cT , x, i)in our dataset, contains an input image cI , a text instruction cT , a target image x, and a task index i (out of the sixteen)」具体而言 任务列表 这16个任务分为三个主要类别基于区域的编辑、自由形式的编辑、视觉任务 Region-Based Editing Local : Substituting one object for another, altering an object’s attributes (e.g., “make it smile”) Remove: Erasing an object from the image Add: Inserting a new object into the image Texture : Altering an object’s visual characteristics with out affecting its structure (e.g., painting over, filling or covering an object) Background: Changing the scene’s backgroundFree-Form Editing Global : Edit instructions that affect the entire image, or that can not be described using a mask (e.g., “let’s see it in the summer”) Style: Change the style of an image Text Editing : This involves text-related editing tasks such as adding, removing, swapping text, and altering the text’s font and color Vision tasks Detect : Identifying and marking a specific object with in the image with a rectangle bounding box Segment : Isolating and marking an object in the image Color: Color adjustments like sharpening and blurring Image-to-Image Translation : Tasks that involve bi directional image type conversion, such as sketch-to image, depth map-to-image, normal map-to-image,pose to-image,segmentation map-to-image, and so on 文本指令的生成 为了生成编辑指令我们利用了对话优化的700亿参数Llama 2的变体具体来说我们为LLM提供了一个任务描述一些特定于任务的范例和一个真实的图像描述 为了增加多样性我们对范例进行采样并随机化它们的顺序。给定这样的输入我们期望LLM输出(1)一个编辑指令(2)一个理想输出图像的输出标题(3)哪些对象应该被更新或添加到原始图像中 以下是他们设计的prompt def get_content_instruction(new_prompt):optional_verbs choice([include, place, position, set, incorporate, alongside, give, put, insert, together with, with, make, integrate, have, append, make, add, include])# system message #system_message (fSYS\nYou are an assistant that only speaks JSON. Do not write normal text. The assistant answer is JSON with the following string fields: edit, edited object,output. Here is the latest conversation between Assistant and User.\n/SYS)# introduction message #intro_message (f[INST]User: Hi, My job to take a given caption (input) and to output the following: an finstruction for {optional_verbs} an object to the image (edit), the object to {optional_verbs} (edited object), and the caption with the object (output). Please help me do it. I will give you the input, and you will help. When you reply, use the following format: {\edit\: instruction, edited object: object, output: caption}[/INST]\nAssistant: Sure, Id be happy to help! Please provide the actual input caption youd like me to fread and Ill assist you with writing an instruction to {optional_verbs} an object to the image, writing the added object and writing the caption with the object.)# shuffling #random.seed(torch.randint(1 32, ()).item())shuffle(few_shot_examples)few_shot_examples few_shot_examples[:int(len(few_shot_examples) * 0.6)]prompt system_message intro_message .join(few_shot_examples)# add the test prompt #prompt f[INST]User: {new_prompt}[/INST]return prompt 图像对生成(Image Pairs Generation) 在创建一对输入和编辑图像时一个至关重要的先决条件是保证两个图像只在特定的元素或位置上不同而在所有其他方面保持相同。以往基于指令的图像编辑方法依赖于Prompt-to-Prompt (P2P)来构建图像编辑数据集A crucial prerequisite when creating a pair of input and edited images is to guarantee that the two images differ only in specific elements or locations, while remaining identical in all other aspects. Previous instruct-based image editing methods [Instructpix2pix: Learning to follow image editing instructions] rely on Prompt-to-Prompt (P2P) to build an image-editing dataset.P2P injects cross-attention maps from the input image generation to the edited image generation. 为了支持局部编辑P2P还基于cross-attention maps去近似编辑部分的掩码并将编辑限制在该局部区域 P2P依赖于输入图像标题和编辑图像标题之间的字对字对齐(比如“一只猫骑自行车”和“一只猫骑汽车”)来生成编辑图像对 然而当没有单词到单词对齐时由于依赖cross-attention maps生成的掩码往往不精确To support local edits, P2P additionally approximates a mask of the edited part,based on the cross-attention maps and constrains the edit to this local area. P2P relies on word-to-word alignment between the input image caption and the edited image caption (e.g. a cat riding a bicycle and a cat riding a car) to produce editing image pairs. However, when there is no word-to-word alignment, the resulting mask tends to be imprecise due to its reliance on cross-attention maps. 此外由于在大多数图像编辑任务中单词到单词对齐不是一个实用的假设这种方法通常无法保留structure and identity 为应对这一挑战本文提出一种掩码提取方法应用于编辑过程之前 我们的方法涉及 (i)通过LLM从编辑指令中识别编辑区域并在生成图像之前创建相应的掩码 以及(ii)在编辑过程中集成这些掩码以确保编辑区域与原始图像的无缝融合Furthermore, as word-to-word alignment is not a practical assumption in most of the image editing tasks, this approach often fails to preserve structure and identity. To address this challenge, we propose a mask extraction method, which is applied before the editing process. Our approach involves: (i) identifying the edited areas from the editing instruction via an LLM and creating corresponding masks before image generation, and (ii) integrating these masks during the editing process to ensure seamless fusion of edited regions with the original image.此外还利用了包括膨胀和高斯模糊等技术来完善蒙版We utilize various tech-niques, including dilation and Gaussian blurring, to refinethe masks 且采用了一种全面的过滤方法来确保数据集的保真度(We employ a comprehensive filtering approachto ensure the fidelity of the dataset) 这包括 (i)使用任务预测器用应该属于另一个任务的指令重新分配样本即us-ing the task predictor (Sec. 4.2) to reassign samples withinstructions that should belong to another task (ii)应用CLIP滤波指标[2]即apply-ing CLIP filtering metrics [2] (iii)基于输入图像的深度图和编辑图像之间的L1距离使用结构保留滤波即employing structure pre-serving filtering based on the L1 distance between the depthmap of the input image and the edited image (iv)应用图像检测器根据指令中指定的对象验证元素的存在(在Add任务中)、缺失(在Remove任务中)或替换(在Local任务中)即apply-ing image detectors to validate the presence (in Add task),the absence (in Remove task) or replacement (in Local task)of elements, according to the objects specified in the in-struction 这个过程过滤掉了70%的数据产生了一个包含1000万个样本的最终数据集 2.1.3 模型架构基于潜在扩散模型先预训练、后通过几千张带标注的图像做微调 一个两阶段的方法从预训练阶段开始以质量微调阶段结束(The Emu model is a two-stage approach that begins with a pre-training phase and concludes with aquality fine-tuning stage)。该方法的关键在于微调数据集相对较小只包含几千张图像但必须具有非凡的质量通常需要人工标注 鸸鹋采用了潜在扩散模型架构[High-resolution image synthesis with latent diffusion models]支持高分辨率图像生成并与编码器E和解码器d合并了一个16通道自动编码器support high-resolution image generation and incorporated a 16-channel autoencoder with encoder E and decoder D.一个大型U-Netϵθ包含28亿个参数θ来自CLIP ViT-L和T5-XXL的文本嵌入以及包含11亿张图像的大量预训练数据集促进了模型学习复杂语义和更精细细节的能力噪声偏移策略(noise-offset strategy)有助于生成高对比度和美观的图像A large U-Net, ϵθ, with 2.8 billion parameters, θ, text embeddings from CLIP ViT-L [18] and T5-XXL [19], and a substantial pre-training dataset of 1.1 billion images facilitate the model’s ability to learn complex semantics and finer details, with a noise-offset strategy contributing to high-contrast and aesthetically pleasing image generation.Given the encoded latent of an image z E(x), the diffusion process generates a noisy latent zt where the noise level increases over timesteps t ∈ T. 为了将Emu转换为基于指令的图像编辑模型我们以要修改的图像cI和指令cT为条件(To convert Emu to an instructionbased image editing model, we condition it on the image to be modified cI and the instruction cT )Emu Edit需要最小化下面的优化问题 其中∈N(0,1)是由扩散process和y (cTcIx)是指令、输入图像和来自数据集的目标图像的三元组。在实践中我们用Emu的权值来初始化Emu Edit的权值where ϵ ∈ N(0, 1) is the noise added by the diffusion process and y (cT , cI , x) is a triplet of instruction, input image and target image from the dataset. In practice, we initialize the weights of Emu Edit with the weights of Emu 2.1.4 训练的两个关键多任务训练、通过交叉注意力融合任务嵌入向量和时间步嵌入 而在训练方法上主要有两个关键 首先他们为16个任务的每个任务都开发了独特的数据管理pipelineMeta发现在所有任务上训练单个模型比在每个任务上独立训练专家模型产生更好的结果。且随着训练任务数量的增加Emu Edit的性能也会增加其次为了有效地处理各种各样的任务引入了学习任务嵌入(learned task embeddings)的概念用于引导生成过程朝着正确的生成任务方向发展Second, to process this wide array of tasks effectively,we introduce the concept of learned task embeddings,which are used to steer the generation process toward the correct generative task. 具体来说对于每个任务都学习一个独特的任务嵌入向量并通过交叉注意力交互将其集成到模型中并将其添加到时间步嵌入中(we learn a unique task embedding vector, and integrate it into the model through cross-attention interactions, and by adding it to the timestep embeddings) 他们证明学习到的任务嵌入显著增强了该模型从自由形式的指令中准确推断出适当的编辑意图并执行正确编辑的能力 在这个过程中保持模型权重不变并仅更新一个任务嵌入以适应新任务。实验表明Emu Edit可以快速适应新的任务如超分辨率 下面重点解释一下学习任务嵌入( Learned Task Embedding) 为了引导生成过程走向正确的发展方向他们为数据集中的每个任务学习一个嵌入向量 在训练期间给定我们数据集中的一个样本我们使用任务索引从嵌入表中获取任务的嵌入向量并与模型权重联合优化它(we use the task index, i, to fetch the task’s embedding vector, vi, froman embedding table, and optimize it jointly with the modelweights)具体而言我们通过交叉注意交互将任务嵌入到U-Net中并将其添加到时间步长嵌入中(We do so by introducing the task embedding vias an additional condition to the U-Net, ϵθ. Concretely,we integrate the task embedding into the U-Net via cross-attention interactions, and by adding it to the timestep em-beddings) 优化问题更新为 其中是我们数据集中的任务总数是来自数据集中的输入图像、输入指令文本、目标图像和任务索引的四元组 // 待更 2.2 Emu Video先生成图像再通过图像和文本生成视频 2.2.1 EMU VIDEO:Factorizing Text-to-Video Generation by Explicit Image Conditioning 大型文生图模型在网络规模的图像-文本对上经过训练可生成高质量的多样化图像然问题是 虽然这些模型可以通过使用视频-文本对进一步适用于文本 - 视频(T2V)生成但视频生成在质量和多样性方面仍然落后于图像生成 与图像生成相比视频生成更具挑战性因为它需要建模更高维度的时空输出空间而能依据的仍然只是文本提示。此外市面上现有的视频-文本数据集的规模通常比图像 - 文本数据集小一个数量级视频生成的主流模式是使用扩散模型一次生成所有视频帧。与此形成鲜明对比的是在 NLP 中长序列生成被表述为一个自回归问题以先前预测的单词为条件预测下一个单词  因此后续预测的条件信号(conditioning signal)会逐渐变强。研究者假设加强条件信号对高质量视频生成也很重要因为视频生成本身就是一个时间序列  然而使用扩散模型进行自回归解码具有挑战性因为借助此类模型生成单帧图像本身就需要多次迭代 因此Meta 的研究者提出了 EMU VIDEO其论文为《EMU VIDEO:Factorizing Text-to-Video Generation by Explicit Image Conditioning》其项目地址为https://emu-video.metademolab.com/通过显式的中间图像生成步骤来增强基于扩散的文本到视频生成的条件 具体来说他们将文生视频问题分解为两个子问题 根据输入的文本提示生成图像然后使用更强的条件生成的图像和文本来生成视频 直观地说给模型一个起始图像和文本会使视频生成变得更容易因为模型只需预测图像在未来将如何演变即可 且为了以图像约束模型 他们暂时对图像进行补零并将其与一个二进制掩码(指示哪些帧是被补零的)以及带噪声的输入连接起来 那用什么样的文本到图像模型来做初始化呢我们将文本到图像的U-Net架构用于我们的模型并使用预训练的T2l模型初始化所有空间参数。该模型同时使用冻结的T5-XL和冻结的CLIP文本编码器从文本提示符中提取特征。U-Net中单独的cross-attention层负责每个文本特征。在初始化之后模型包含2.7B被冻结的空间参数以及1.7B被学习的时间参数The model uses both a frozen T5-XL [15]and a frozen CLIP [58] text encoder to extract features fromthe text prompt. Separate cross-attention layers in the U-Net attend to each of the text features. After initialization,our model contains 2.7B spatial parameters which are kept frozen, and 1.7B temporal parameters that are learned 由于视频 - 文本数据集比图像 - 文本数据集要小得多研究者还使用权重冻结的预训练文本 - 图像(T2I)模型初始化了他们的文本 - 视频模型 且他们确定了关键的设计决策 —— 改变扩散噪声调度和多阶段训练(adjusted noiseschedules for diffusion, and multi-stage training) —— 该方法支持直接生成 512px 的高分辨率视频不需要先前方法中使用的一些深度级联模型(without requiring a deep cascade of models as inprior work) 再说一下更多细节 我们用预训练的文本到图像模型初始化F以确保它能够在初始化时生成图像由于是从预训练的T2I模型初始化并保持冻结状态的因此我们的模型保留了从大型图像-文本数据集中学习到的概念和风格多样性并使用它来生成i。这不需要额外的训练成本而不像Imagen video那样对图像和视频数据进行联合微调以保持这种风格Since the spatial layers are initialized from a pretrained T2I model and kept frozen, our model retains the conceptual and stylistic diversity learned from large image-text datasets, and uses it to generate I. This comes at no additional training cost unlike approaches [Imagen video] that do joint finetuning on image and video data to maintain such style当然许多直接的T2V方法[比如Align your latents: High-resolution video synthesis with latent diffusion models再比如Make-a-video: Text-to-video generation without text-video data]也从预训练的T2I模型初始化并保持空间层冻结。然而它们没有采用我们基于图像的因子分解因此不能保留T2I模型的质量和多样性 Many direct T2V ap-proaches [7, 68] also initialize from a pretrained T2I modeland keep the spatial layers frozen. However, they do notemploy our image-based factorization and thus do not re-tain the quality and diversity in the T2I model 接下来我们只需要训练F来解决第二步即推断以文本提示和起始帧为条件的视频 我们通过对起始帧I进行采样并要求模型同时使用文本提示pxw和图像I调节来预测T帧从而使用视频-文本对来训练F由于使用潜在扩散模型所以首先使用按帧应用的图像自动编码器将视频V转换为潜在空间X∈R T ×C×H×W这降低了空间维度 再之后利用自动编码器的解码器可以将潜空间转换回像素空间(The latent space can be converted back to the pixel spaceusing the autoencoder’s decode) 视频的T帧被独立去噪以产生去噪输入Xt扩散模型被训练去噪(The T frames of the videoare noised independently to produce the noised input Xt,which the diffusion model is trained to denoise)我们使用预训练的T2I模型初始化潜在扩散模型F 像「上文1.1.2.2 时空潜在扩散(Spatio-temporal Latent Diffusion)」所述的一样我们添加了新的可学习的时间参数  在每个空间卷积之后添加一个一维时间卷积  在每个空间注意力层之后添加一个一维时间注意力层 原始的空间卷积层和注意力层被独立应用到每个T帧上并保持冻结 预训练的T2I模型已经是文本条件结合上面描述的图像条件F同时是文本和图像条件The pretrained T2I model is already text conditioned and combined with the image conditioning described above,Fis conditioned on both text and image 最终如此操作带来的好处是 与直接用文本生成视频的方法不同他们的分解方法在推理时会显式地生成一张图像这使得他们能够轻松保留文生图模型的视觉多样性、风格和质量如下图所示 这使得 EMU VIDEO 即使在训练数据、计算量和可训练参数相同的情况下也能超越直接 T2V 方法 且比如通过多阶段的训练方法文生视频的生成质量可以得到大幅提高 2.2.2 如何延长生成视频的时长 从展示的 demo 中可以看到EMU VIDEO 已经可以支持 4 秒的视频生成。在论文中他们还探讨了增加视频时长的方法 作者表示通过一个小的架构修改他们可以在 T 帧上约束模型并扩展视频。因此他们训练 EMU VIDEO 的一个变体以「过去」16 帧为条件生成未来 16 帧。在扩展视频时他们使用与原始视频不同的未来文本提示效果如图 7 所示。他们发现扩展视频既遵循原始视频也遵循未来文本提示。 第三部分 PixelDance生成的视频极具动感 11月18日字节半路杀出发布PixelDance 生成有高度一致性且有丰富动态性的视频让视频内容真正地动起来是目前视频生成领域中的最大挑战在这方面最新的研究成果 PixelDance 迈出了关键性的一步其生成结果的动态性显著优于目前现有的其它模型引起了业界的关注 3.1 PixelDance的两种视频生成模式 在官网https://makepixelsdance.github.io中PixelDance 给出了两种不同的视频生成模式 3.1.1 基础模式通过指导图片文本描述生成视频 第一种是基础模式(Basic Mode)用户只需要提供一张指导图片文本描述PixelDance 就可以生成有高度一致性且有丰富动态性的视频其中指导图片可以是真实图片也可以利用现有的文生图模型生成。 从展示的结果来看真实风格、动画风格、二次元风格、魔幻风格PixelDance 通通都可以解决人物动作、脸部表情、相机视角控制、特效动作Pixeldance 也都可以很好的完成 3.1.2 高级魔法模式通过两张指导图片文本描述生成酷炫镜头 第二种是高级魔法模式Magic Mode给了用户更多发挥想象力和创造力的空间。在这种模式下用户需要提供两张指导图片文本描述可以更好地生成更有难度的各种炫酷特效镜头 除此之外官网还展示了完全使用 PixelDance 制作的 3 分钟故事短片 使用 PixelDance 能按照用户预想的一个故事制作每一个场景和对应的动作。不管是真实场景如埃及、长城等还是虚幻场景如外星球PixelDance 都能生成细节丰富、动作丰富的视频甚至各种特效镜头也不在话下并且主人公北极熊先生的黑色礼帽和红色领结形象在不同的场景中都得到了很好的保持。长视频生成再也不是简单的拼凑弱相关的短视频片段了 而达到这样拔群的视频生成效果并没有依赖复杂的数据集和大规模的模型训练PixelDance 在公开的 WebVid-10M 数据集上仅用 1.5B 大小的模型就达到了上述效果 此外还可以通过用户一个简单的草图作为视频的最后一帧指导视频生成过程(we take the image sketch as anexample and finetune PixelDance with image sketch [49]as the last frame instruction) 3.2 PixelDance的原理解析与其论文解读 3.2.1 PixelDance基于潜在扩散模型  文本指令第一帧指令最后一帧指令为条件 字节团队提出PixelDance的这篇论文《Make Pixels Dance: High-Dynamic Video Generation》中(论文地址https://arxiv.org/abs/2311.10982demo 地址https://makepixelsdance.github.io)可读性非常高我所看到的关键原因在于毕竟是咱们国人写的值得反复品读 论文中指出了视频生成难以做出好效果的原因相比于图片生成视频生成具有特征空间显著更大、动作多样性显著更强的特点。这就导致了现有的视频生成方法难以学到有效的时域动作信息生成的视频虽然图片质量较高但动态性非常有限 而PixelDance是一种基于潜在扩散模型的视频生成方法以文本第一帧最后一帧指令为条件(conditioned on text,first frame,last frame instructions) 文本指令由预训练的文本编码器编码并与交叉注意力集成到扩散模型中图像指令使用预训练的VAE编码器进行编码并与perturbed video latents或高斯噪声连接作为扩散模型的输入The image instructions are encoded with a pretrained VAE encoder and concatenated with either perturbed video latents or Gaussian noise as the input to the diffusion model在训练中我们使用(ground-truth)第一帧来强制模型严格遵守指令(For the firstf rame instruction, we employ the ground-truth first frame for training, making the model adhere to the first frame in-struction strictly in inference)保持连续视频片段之间的连续性。在推理中这个指令可以方便地从T2I模型[32]中获得也可以直接由用户提供 但最后一帧怎么获取呢因为最后一帧跟第一帧不同为此他们开发了三种技术 首先在训练中从视频剪辑的最后三帧(ground-truth)帧中随机选择最后一帧指令First, the last frame instruction is randomly selected from thelast three (ground-truth) frames of a video clip其次在指令中引入噪声以减轻对指令的依赖并提升模型的鲁棒性Second, we introduce noise to the instruction to mitigate the reliance onthe instruction and promote the robustness of model 相当于用噪声扰动图像指令的编码潜c image(we perturb the encoded latents cimage of imageinstructions with noise)第三在训练中以一定的概率(例如25%)随机丢弃最后一帧指令。相应地他们提出了一个简单而有效的推理采样策略we randomly drop the last frame instruction with a certainprobability, e.g. 25%, in training. 在第一个去噪步骤中利用最后一帧指令来指导视频生成朝着期望的结束状态发展During the first τ denoising steps, the last frame instruc-tion is utilized to guide video generation towards the desiredending status. 然后在剩余的步骤中指令被丢弃允许模型生成更多时间上连贯的视频(长达三分钟)。最后一帧指令的影响可以由 调整Then, during the remaining steps, the instruc-tion is dropped, allowing the model to generate more tem-porally coherent video. The impact of last frame instructioncan be adjusted by τ. 论文中讲到之所以长视频为何不太好生成原因在于长视频要求连续视频片段之间的无缝过渡以及场景和人物的长期一致性 一般有两种方法 自回归方法(autoregressive methods)[15,22,41]采用滑动窗口来生成以前一片段为条件的新片段1) autoregressive methods [15, 22, 41] employ a sliding window to generate a new clip conditioned on the previous clip 然而自回归方法很容易受到质量退化的影响因为随着时间的推移误差累积分层方法[9,15,17,53]首先生成稀疏帧然后插值中间帧hierarchical methods [9, 15, 17, 53] generate sparse frames first, then interpolate intermediate frames 至于分层方法它需要长视频进行训练由于在线视频中镜头频繁变化长视频很难获得 此外跨更大的时间间隔生成时间上连贯的帧会加剧挑战这往往会导致初始帧的质量较低使得插值后期很难取得良好的效果 最终为了生成长视频PixelDance被训练为严格地遵循第一帧指令其中前一个视频片段的最后一帧(the last frame from preceding clip)被用作生成后续片段的第一帧指令(is used as the first frame instruction for generating the subsequent clip) 3.2.2 PixelDance的架构基于2D UNet插入时间和文本指令 图像指令注入 我们采用广泛使用的2D UNet作为扩散模型该模型由一系列空间下采样层和一系列插入跳跃连接的空间上采样层构成(We take the widely used 2D UNetas diffusion model, which is constructed with a series of spatial downsampling layers followed by a series of spatial upsampling layers with inserted skip connections) 具体来说它是由两个基本块构建的即2D卷积块和2D注意力块。我们通过插入时间层将2D UNet扩展到3D变体其中2D卷积层之后是沿时间维的1D卷积层2D注意层之后是沿时间维的1D注意层(此点和Edit video一样都遵循「上文1.1.2.2 时空潜在扩散(Spatio-temporal Latent Diffusion)」的所述)Specifically, it is built with two basic blocks, i.e., 2D convolution block and 2D attention block We extend the 2D UNet to 3D variant with inserting temporal layers [22], where 1D convolution layer along temporal dimension after 2D convolution layer, and 1D attention layer along temporal dimension following 2D attention layer.该模型可以与图像和视频联合训练以保持空间维度上的高保真生成能力。对于图像输入1D时序操作(1D temporal operations)是禁用的 我们在所有时间注意力层中使用双向自注意力且使用预训练的CLIP文本编码器对文本指令进行编码the embedding c text通过UNet中的交叉注意层注入隐藏状态作为查询(query)c text作为键key和值value(hidden states as queries and c text as keys and values)The model can be trained jointly with images and videos to maintain high-fidelity generation ability on spatial dimension. The 1D temporal operations are disabled for image input. We use bi-directional self-attention in all temporal attention layers. We encode the text instruction using a pre-trained CLIP text encoder [30], and the embedding c text is injected through cross-attention layers in the UNet with hidden states as queries and c text as keys and values图像指令注入(Image Instruction Injection) 我们将第一帧和最后一帧的图像指令与文本指令结合在一起。我们利用ground-truth视频帧作为训练中的指令。 给定第一帧和最后一帧的图像指令表示为我们首先使用VAE将它们编码到扩散模型的输入空间中得到其中We incorporate image instructions for both the first and last frames in conjunction with text instruction. We utilize ground-truth video frames as the instructions in training. Given the image instructions on the first and last frame, denoted as{If irst, Ilast}, we first encode them into the input space of diffusion models using VAE, result in {ff irst,flast} where f ∈ RC×H×W 为了在不损失时间位置信息的情况下注入指令那么最终的图像条件被构建为(To inject the instructions without loss of thetemporal position information, the final image condition isthen constructed as) where . The condition c image和noised latent 沿着通道维度(along the channel dimension)连接起来, 从而作为扩散模型的输入 3.2.3 数据处理与训练细节 最终他们在WebVid-10M上训练视频扩散模型该模型包含约10M的短视频片段平均时长为18秒以分辨率336 ×596为主可惜的是WebVid-10M有两个问题 虽然每个视频都与一个配对的文本相关联但该文本只提供了与视频内容弱相关的粗略描述WebVid-10M的另一个令人讨厌的问题是所有视频上的水印这导致水印存在于所有生成的视频中 因此我们用其他自收集的500K无水印视频片段来扩展我们的训练数据这些视频片段描述了现实世界的实体如人类、动物、物体和景观并与粗粒度的文本描述配对。尽管只包含适度的比例但将该数据集与WebVid-10M相结合进行训练可以确保PixelDance能够在图像指令不含水印的情况下生成无水印视频(we surprisingly find that combining this dataset with WebVid-10M for training ensures that PixelDance is able to generate watermark-free videos if the image instructions are free of watermarks) PixelDance在「视频-文本数据集」和「图像-文本数据集」上进行联合训练(PixelDance is trained jointly on video-text dataset and image-text dataset)具体而言 对于视频数据我们随机采样每个视频4 fps的16个连续帧。继之前的工作(Imagen video: High definition video generation with diffusion models)采用LAION-400M作为图像-文本数据集。图像-文本数据每8次训练迭代使用一次(Image-text data are utilized every 8 training iterations)预训练的文本编码器和VAE模型的权重在训练过程中被冻结。他们采用T 1000时间步长的DDPM进行训练。我们首先以256×256的分辨率训练模型在32块A100 gpu上进行200K迭代批大小为192然后对该模型进行微调以进行另一次更高分辨率的50K迭代我们将ϵ-prediction[来自Denoising diffusion probabilistic models]纳入训练目标 3.2.4 模型的评估与效果展示 具体来说我们利用了现有的T2I模型Stable Diffusion V2.1获取第一帧指令并生成视频给出的文字和第一帧指令(generate videos given the text and first frame instructions) 根据之前的工作[7,44]我们随机选择每个示例中的一个提示符来生成总共2990个视频进行评估并计算MSR-VTT数据集上的Fr响应视频距离(FVD)[40]和CLIP-similarity (CLIPSIM)[47] FID和FVD测量生成的视频和真实数据之间的分布距离IS评估生成的视频的质量CLIPSIM估计生成的视频和相应文本之间的相似性 MSR-VTT和UCF-101的Zero-short评价结果分别如下面两个表所示 与MSR-VTT上的其他T2V方法相比Pixel-Dance在FVD和CLIPSIM方面实现了最先进的结果展示了其生成高质量视频的卓越能力与文本提示更好地对齐值得注意的是PixelDance的FVD得分为381大大超过了之前最先进的Mod-elScope[43]另在UCF-101基准上其FVD为550PixelDance在各种指标上优于其他模型包括IS, FID和FVD 如之前所述他们的视频生成方法包含三个不同的指令文本第一帧和最后一帧指令 第一个帧指令通过提供更精细的视觉细节显著提高了视频质量。此外它是生成多个连续视频片段的关键。有了文本和第一帧指令与现有模型相比PixelDance能够生成更多动作丰富的视频如下图所示 最后一帧指令描绘了视频片段的总结状态提供了对视频生成的额外控制。此外我们可以使用last frame指令(下图的最后一个样本)生成一个自然的镜头(we can generate a natural shot transition using last frame instruction) // 待更 第四部分  Stable Video Diffusion (SVD) 4.1 Stability AI发布生成式视频模型Stable Video Diffusion(SVD) 11月21日开发并维护stable diffusion后续版本的Stability AI终于发布了他们自家的生成式视频模型Stable Video Diffusion(SVD)支持文本到视频、图像到视频生成并且还支持物体从单一视角到多视角的转化也就是3D合成 4.2 SVD的训练三步骤图像预训练、视频预训练、视频微调 SVD对应的论文为《Stable Video Diffusion: Scaling Latent Video Diffusion Models to Large Datasets》 论文中确定了训练SVD的三个步骤 文本到图像的图像预训练(image pretraining)即2D文本到图像扩散模型比如SDXL的工作Improving Latent Diffusion Models for High-Resolution Image Synthesis规模比较大但低分辨率的视频数据集上的视频预训练(video pretraining on a large dataset at low resolu-tion) 我们收集了一个长视频的初始数据集它构成了我们的视频预训练阶段的基础数据。然后To avoid cuts andfades leaking into synthesized videos, we apply a cut detec-tion pipeline1 in a cascaded manner at three different FPSlevels. Figure 2, left, provides evidence for the need for cutdetection: After applying our cut-detection pipeline, we ob-tain a significantly higher number (∼4×) of clips, indicat-ing that many video clips in the unprocessed dataset containcuts beyond those obtained from metadata. 接下来我们用三种不同的合成字幕方法注释每个剪辑首先我们使用图像标题器CoCa来注释每个剪辑的中间帧并使用V-BLIP以获得基于视频的字幕。最后我们通过对前两个字幕进行基于llm的摘要来生成该剪辑的第三个描述Next, we annotate each clip with three different syn-thetic captioning methods: First, we use the image captionerCoCa [103] to annotate the mid-frame of each clip and use V-BLIP [104] to obtain a video-based caption. Finally, wegenerate a third description of the clip via an LLM-basedsummarization of the first two captions. 由此产生的初始数据集我们称之为大型视频数据集(LVD)由580M个带注释的视频片段对组成形成了212年的内容。规模较小但具备高质量的高分辨率的视频数据集上的视频微调(high-resolution video fine tuning on a much smallerdataset with higher-quality videos) 具体而言他们借鉴了潜图像扩散模型[12,60]的训练技术并增加了训练示例的分辨率。此外我们使用了一个小型微调数据集其中包括250K高视觉保真度的预字幕视频片段Here, we draw on training tech-niques from latent image diffusion modeling [12, 60] andincrease the resolution of the training examples. More-over, we use a small finetuning dataset comprising 250Kpre-captioned video clips of high visual fidelity 总之SVD基于Stable Diffusion 2.1首先用约6亿个样本的视频数据集预训练了基础模型(we apply our proposed curation scheme toa large video dataset comprising roughly 600 million sam-ples and train a strong pretrained text-to-video base model) 然后在较小的高质量数据集上对基础模型进行微调用于高分辨率的下游任务(finetune the base model on a smaller, high-qualitydataset for high-resolution downstream tasks ) 如文本到视频(下图顶部行)和图像到视频其中我们从单个条件图像预测帧序列(参见下图中间行) 第五部分 Pika Labs推出电影特效级视频生成模型Pika 1.0 5.1 两位斯坦福美女博士的创业项目Pika 1.0 斯坦福的一博士生郭文景(Demi Guo)曾在去年参加Runway的首届AI电影节发现Runway和Adobe Photoshop的工具并不好用自己所在团队的作品也并未获奖于是导致了之后所发生的这一系列事 今年4月郭文景决定从斯坦福退学开发更好用的AI视频工具Pika由此诞生官网地址https://pika.art很快联合创始人Chenlin Meng加入 他俩一个曾参与AlphaFold2的研究一个则是DDIM论文的二作 Pika成立后到现在为止已经有了50万用户他们每周都会制作数百万个视频 这种爆炸式增长引起了硅谷投资人的兴趣让Pika在三轮融资中筹集到了5500万美元(前两轮融资由前 GitHub 首席执行官CEO Nat Friedman领投而最新一轮的3500万美元A轮融资由Lightspeed Venture Partners领投) 且让人颇受鼓舞的是仅4人团队估值已超2亿美元今年11月29日正式发布Pika 1.0打开了制作3D动画、动漫、卡通、电影等无限想象空间 Pika 1.0不仅能根据文字图片流畅地生成一段视频动静转换就在一瞬间 而且可编辑性还特别强指定视频中的任意元素一句话就能实现快速“换装” 总结一下Pika 1.0的新功能包括 文本生成视频/图像生成视频输入几行文本或上传图像就可以通过AI创建简短、高质量的视频视频-视频不同风格转换将现有视频转换为不同的风格包括不同的角色和对象同时保持视频的结构扩展(expand)扩展视频的画布或宽高比将视频从TikTok 9:16格式更改为宽屏16:9格式AI模型将预测超出原始视频边界的内容相当于先预测 后补全或填充所需的内容更改使用 AI 编辑视频内容比如更换衣服、添加另一个角色、更改环境或添加道具扩展(Extend)使用 AI 扩展现有视频剪辑的长度全新Web界面Pika 将在Discord和Web上提供 // 待更 参考文献 视频生成新突破PixelDance轻松呈现复杂动作与炫酷特效一句话拍大片导演末日来了Runway发布文字生成视频模型Gen-2科幻日系二次元统统拿捏2023年11月 runway Gen2的更新Gen-2颠覆AI生成视频一句话秒出4K高清大片网友彻底改变游戏规则文本生视频工具又迎来重大更新Runway Gen-2 到底有多强Meta版ChatGPT来了Llama 2加持接入必应搜索小扎现场演示介绍了文生图模型EmuMeta生成式AI连放大招视频生成超越Gen-2动图表情包随心定制斯坦福美女博士创业项目爆火AI视频生成出道即顶流半年融资5500万美元斯坦福华人博士文生视频Pika 1.0爆火4人公司估值2亿OpenAI联创参投.. 创作、修改、完善记录 11.28日一字一句读runway的Gen1论文完善本文的第一部分 算新增一个新的研究方向文生视频 ​我(们)将围绕文生视频逐一发布一系列解读博客、公开课、课程、商用项目/解决方案等 ​​11.29日开始读Meta发布的Emu Edit论文、EMU VIDEO论文完善本文的第三部分11.30日根据stable video diffusion论文完善本文的第四部分 并更新第五部分 Pika 1.0相关的内容12.1日通过阅读PixelDance的这篇论文《Make Pixels Dance: High-Dynamic Video Generation》开始完善第三部分 话说这篇论文的可读性真的非常好12.2日通过再次回顾Meta的Emu Edit论文新增一节“2.1.2 开发一个1000万规模的数据集涵盖16个不同的任务”以补充关于其数据集的描述12.3日梳理全文 微调细节最终形成本文的初稿状态 未来半个月还会不断修订、完善本文且各模型或各技术如有比较关键且新的进展 也会添加至本文中..
http://www.sadfv.cn/news/380759/

相关文章:

  • 北京城乡建设官方网站眼科医院网站优化服务商
  • 网站建设文章缩略图优秀画册设计网站
  • 某网络公司网站源码 蓝色建站企业网站源码网站推广策划案效果好
  • 河南企起网站建设购物网站开发步骤视频演示
  • 做网站要多大空间网站 优化 分析
  • 旅游攻略的网站怎么做深圳网站策划推广
  • 网站建立的衡阳企业网站建设价格
  • 彩票网站链接怎么做电商网站的对比
  • 如何利用php开源系统建立php网站网络营销公司案例
  • 网站建设类行业资讯搭建平台 提供舞台
  • 包装纸箱怎么做网站怎么修复网站死链
  • 做网站前需要准备什么软件网页主要由三部分组成
  • 做网站必须要虚拟主机吗加强门户网站建设的方案
  • 哈尔滨大连工程建设信息网站教育+wordpress模板
  • 设计师建站网站毕节公司做网站
  • 做目的旅游网站的企业网站建设的成本构成
  • 一个电脑建设多个网站云南5个中风险地区
  • 成都网站建设哪家强2017国办网站建设规范
  • 成华网站制作做网站公司牛鼻子
  • 建设工程168网站创意设计活动加计扣除
  • 襄阳定制型网站开发陕西建设厅官网首页
  • wordpress 全站sslwordpress清除原图
  • 网站模板模仿富顺县规划和建设局网站
  • 德清县新巿镇城市建设网站优秀网站建设公司
  • 18末年年禁止观看网站seo优化培训多少钱
  • 广州建网站哪里比较好手机怎么制作公众号
  • 新手学做网站pdf网站建设的商品分类编码
  • 如何设计制作一般的企业网站龙港 网站建设
  • 大良网站智能推广价格山西建设行政主管部门官方网站
  • 中国铁建华南建设有限公司网站网站关键词优化原理