Wan2.1本地部署—-开源文生图和视频,免费好用的文生图,文生视频本地大模型支持API

Wan2.1作为一个开源视频生成模型,凭借其突破性的技术能力,开创了文生图和文生视频的新技术突破。它的1.3B模型只需要8.19G的显存,仅需要消费级显卡上就可以使用了。它的很多性能已经可以和很多闭源文生视频的模型相媲美了。

说到这里,可能许多佬友已经开始动心了,更动心的是,它现在可以在本地部署。

今天我们就一起来体验一下如何在本地部署的。

1、首先需要下载ComfyUI,这个没有什么技术难度,下载链接如下,注意的是如果有英伟达显卡的一定要选择英伟达相关链接。

图片[1]-Wan2.1本地部署—-开源文生图和视频,免费好用的文生图,文生视频本地大模型支持API-海马科技

comfy.org

图片[2]-Wan2.1本地部署—-开源文生图和视频,免费好用的文生图,文生视频本地大模型支持API-海马科技

ComfyUI | Generate video, images, audio with AI

The most powerful and modular visual AI application and engine

2、下载文本编辑器,将这个6.7G左右的文件下载下来放到 ComfyUI/models/text_encoders/ 文件夹中huggingface.co

图片[3]-Wan2.1本地部署—-开源文生图和视频,免费好用的文生图,文生视频本地大模型支持API-海马科技

split_files/text_encoders/umt5_xxl_fp8_e4m3fn_scaled.safetensors ·…

We’re on a journey to advance and democratize artificial intelligence through open source and open science.

3、下载VAE,下载下来放到 ComfyUI/models/vae/ 文件夹中。huggingface.co

图片[3]-Wan2.1本地部署—-开源文生图和视频,免费好用的文生图,文生视频本地大模型支持API-海马科技

split_files/vae/wan_2.1_vae.safetensors ·…

We’re on a journey to advance and democratize artificial intelligence through open source and open science.

4、下载视频生成模型。下载后文件放到 ComfyUI/models/diffusion_models/ 文件夹中。

这里有许多模型可选,质量从低到高分别是fp8_e4m3fn<fp8_scaled<bf16<fp16。佬友可以根据自己的电脑配置进行选择。huggingface.co

图片[3]-Wan2.1本地部署—-开源文生图和视频,免费好用的文生图,文生视频本地大模型支持API-海马科技

Comfy-Org/Wan_2.1_ComfyUI_repackaged at main

We’re on a journey to advance and democratize artificial intelligence through open source and open science.

5、下载json格式工作流,用于文字转视频。点开下面链接,另存为一个文件,并将它拖入ComfyUI主界面就可以

https://comfyanonymous.github.io/ComfyUI_examples/wan/text_to_video_wan.json

现在就可以写一个正向提示词,一个反向提示词,模型可以用默认刚才我们刚下载的模型,可以看到执行的工作流进行到哪一步了

图片[6]-Wan2.1本地部署—-开源文生图和视频,免费好用的文生图,文生视频本地大模型支持API-海马科技

随着时间流逝,我的ComfyUI工作流经过了17分钟,帮我生成了一只熊猫漫步竹林的视频

图片[7]-Wan2.1本地部署—-开源文生图和视频,免费好用的文生图,文生视频本地大模型支持API-海马科技

好了,佬友们快去体验一把,文生视频的快乐吧…

© 版权声明
THE END
喜欢就支持一下吧
点赞9 分享