ComfyUI已支持最大的开源视频生成模型 Mochi,高画质、超流畅、媲美可灵

11/11/2024, 4:30:44 PM | 热度:180 | 阅读本文需 3 分钟

点赞

大家可能对 Mochi 可能点陌生,是上个月才开源的目前最强大的视频生成模型。 Mochi 1 采用了Asymmetric Diffusion Transformer(AsymmDiT)架构,是迄今为止最大的开源视频生成模型,具备 10 亿参数目前提示词依从度以及运动质量在所有开源及闭源视频模型中排名世界第一,原模型是40GB,ComfyUI 量化模型为10GB

image.png

Mochi 有多厉害大家可以看一下这个视频效果:

https://www.bilibili.com/video/BV1MgyxYMEe4/?spm_id_from=333.337.search-card.all.click&vd_source=6faee83238a66d16d13867c79b3386a0

在线使用地址:https://www.genmo.ai/play

开源模型地址:https://huggingface.co/genmo/mochi-1-preview

使用方法

前些天 ComfyUI 更新了一次,现在优化了对 Genmo 最新型号 Mochi 的支持!这种集成为 ComfyUI 社区带来了最先进的视频生成功能,即使您使用的是消费级 GPU。

原生包更新:

image.png

通过以下步骤,使用标准工作流程立即运行 Mochi 模型。

更新到最新版本的 ComfyUI

低 RAM 解决方案

如果您遇到 RAM 不足的情况,我们建议您在使用上述工作流程时执行以下步骤:

  1. 切换编码器:尝试使用 fp8 缩放模型作为 t5xxl_fp16 的替代方法

  2. 切换扩散模型:使用 mochi_fp8 作为 bf16 模型的替代项。

官方工作流

ComfyUI 团队还为准备了一个 all-in-one 打包的 checkpoint,整合了文本编码器和 VAE 配置。请尝试以下步骤:

大家感兴趣的可以去看 ComfyUI 的博客也有详细的介绍:Run Mochi in ComfyUI with consumer GPU



0

继续阅读本文相关话题

本文收录于专题

ComfyUI教程

共收录篇

查看本专题

文章目录

使用方法

低 RAM 解决方案

官方工作流

AI教程交流群

扫描二维码加入群聊

与同行学习交流&资源共通