一、介绍
Stable Video Diffusion(SVD)是一种基于Stable Diffusion模型的影片生成模型。该模型在原本的潜在扩散模型(Latent Diffusion Model,LDM)基础上加入了时间层,并使用小型、高品质的影片资料集进行训练,从而将其改造成影片生成模型。它能够以图像或文本提示作为输入,输出长达4秒的平滑、多帧视频片段,具有异常流畅的帧间插值。此外,它支持定制帧率,并能够在3到30帧每秒之间进行选择。
SVD不仅可以生成高质量的视频,还具有强大的3D合成功能,能够为视频制作带来巨大的变革。它的出现大大降低了视频拍摄的门槛,使得普通人也可以轻松制作出高质量的视频。本文将介绍如何在本地搭建SVD。
二、入门
1.安装ComfyUI
ComfyUI将允许用户使用基于图形/节点/流程图的界面设计和执行高级的Stable Diffusion。
(1)下载:GitHub项目地址 下载地址
(2)大概1.4G内容,下载好之后,直接解压到剩余容量比较大的硬盘当中
(3)解压
2.安装ComfyUI-Manager
ComfyUI-Manager 是一个旨在增强 ComfyUI 可用性的扩展。它提供了安装、删除、禁用和启用 ComfyUI 各种自定义节点的管理功能。此外,此扩展提供了集线器功能和便利功能,可以访问 ComfyUI 内的各种信息。
要安装ComfyUI-Manager,则在现有的 ComfyUI 文件夹上进行。
(1)转到终端中的 ComfyUI/custom_nodes
目录(cmd)
(2)用Git克隆项目
git clone https://github.com/ltdrdata/ComfyUI-Manager.git
(3) 重启ComfyUI以确保版本最新
3.下载模型
要使用SVD,需要下载称为 SVD 和 SVD 图像解码器的特定模型。我们可以在 Hugging Face 页面上找到这些模型,选择适合的类型:14 帧的 SVD 或 25 帧的 SVD 及对应的图像解码器。
三、使用SVD
1.上传图片
首先,单击 ComfyUI 中的 checkpoint loader (模型加载器),然后使用 filter (筛选)搜索刚刚下载的 SVD 模型。根据所需的帧数选择合适的型号。在 checkpoint loader 下方,可以找到 image loader (图片加载器)。单击 choose file (选择文件)上传要转换为视频的图像。确保图像分辨率对应自己下载的模型。如果更改分辨率,请记住也在工作流程中进行调整。
2.调整参数
上传图像后,我们将会看到 video frames(视频帧数)、motion bucket(运动桶)、frames per Second(每秒帧数)和 augmentation level(增强级别)等选项。视频帧数可以设置为 14 或 25,具体取决于下载的模型。运动存储桶决定视频中的运动速度,而每秒帧数应保留默认值 6。增强级别控制视频中的动画和细节级别。尝试不同的值以获得所需的结果。
3.示例效果
四、提升效果的技巧
1.选择正确的图像
虽然SVD可以处理各种图像,但建议选择动作不太复杂的简单图像。具有清晰运动的图像(例如火箭起飞或火车沿轨道行驶)通常会产生更好的效果。尝试不同的图像类型,以揭示SVD的全部潜力。
2.了解运动桶和增强级别
运动桶参数决定了视频中运动发生的速度。值越高,运动越快,而值越低,运动越慢。增强级别控制视频中的动画和细节级别。更高的增强级别会为背景和细节添加更多的运动和复杂性。在这些参数之间找到适当的平衡,以达到所需的视觉效果。
五、结论
SVD技术代表着一次革命性的技术飞跃,它使个人能够将静态图像转化为引人入胜的动态视频,并释放他们的创造潜力。其用户友好的工作流程、尖端的AI模型和高度可定制的参数为创新内容创作和沉浸式视觉叙事提供了无尽的机会。无论是技艺高超的艺术家、技术娴熟的电影制作人,还是内心充满创意的人,任何人都可以探索稳定视频扩散技术的无限可能性,并点燃他们的想象力。
666