2026/4/18 12:08:50
网站建设
项目流程
规划建立一个网站,筑建网官网首页,外贸网站dns,工程招标建设部指定网站Wan2.1是阿里云开源的顶尖AI视频生成大模型#xff0c;支持文生视频#xff08;T2V#xff09;、图生视频#xff08;I2V#xff09;等核心功能#xff0c;具备复杂运动生成、物理规律模拟、多风格适配及中文文字特效生成能力#xff0c;在VBench权威榜单中综合评分稳居…Wan2.1是阿里云开源的顶尖AI视频生成大模型支持文生视频T2V、图生视频I2V等核心功能具备复杂运动生成、物理规律模拟、多风格适配及中文文字特效生成能力在VBench权威榜单中综合评分稳居第一。相较于其他开源模型Wan2.1的核心优势在于硬件门槛亲民——1.3B参数版本仅需8GB显存即可流畅运行消费级GPU如RTX 4090、RTX 5070 Ti均可胜任普通用户也能轻松实现本地离线视频生成。本文将提供两种主流部署方案ComfyUI可视化部署适合新手操作直观和原生代码部署适合开发者灵活度高全程嵌入可直接复制的代码片段同时覆盖常见问题解决方案确保部署过程顺畅。一、部署前置条件1.1 硬件要求GPU推荐NVIDIA显卡AMD显卡兼容性较差显存≥8GB1.3B模型若使用14B模型或720P高分辨率生成建议显存≥16GB如RTX 5070 Ti 16GB。CPU多核处理器≥4核推荐i5及以上。内存≥16GB避免生成过程中内存溢出。存储预留≥50GB空闲空间用于存放模型、环境及生成文件。1.2 系统与软件基础操作系统Windows 10/11 64位、Ubuntu 22.04 LTS推荐兼容性更佳。核心依赖CUDA Toolkit≥12.1Windows需安装对应版本显卡驱动Ubuntu需手动配置CUDA环境。Python3.10~3.12建议通过conda管理虚拟环境避免版本冲突。PyTorch≥2.4.0需与CUDA版本匹配。二、方案一ComfyUI可视化部署新手首选ComfyUI是一款开源的AI生成可视化工具支持Wan2.1原生适配通过拖拽工作流即可完成视频生成无需复杂代码编写。2.1 步骤1安装ComfyUI与虚拟环境Windows系统一键包安装下载ComfyUI一键包访问ComfyUI官方网站选择Windows版本下载。解压并安装双击安装程序选择GPU类型NVIDIA自定义安装路径如D:\ComfyUI点击“安装”自动部署Python环境及基础依赖耗时约5分钟。Ubuntu系统命令行安装通过conda创建独立虚拟环境避免依赖冲突# 1. 克隆ComfyUI仓库 git clone https://github.com/comfyanonymous/ComfyUI.git cd ComfyUI # 2. 安装Miniconda若已安装可跳过 wget https://repo.anaconda.com/miniconda/Miniconda3-latest-Linux-x86_64.sh bash Miniconda3-latest-Linux-x86_64.sh # 按提示输入yes完成后初始化 source ~/.bashrc # 3. 创建并激活虚拟环境 conda create -n comfyui python3.11 -y conda activate comfyui # 4. 安装PyTorch适配CUDA 12.1 pip install torch torchvision torchaudio --extra-index-url https://download.pytorch.org/whl/cu121 # 5. 安装项目依赖 pip install -r requirements.txt2.2 步骤2下载Wan2.1模型及配套组件所有模型均从Hugging Face官方仓库下载需注册账号并同意用户协议仓库地址Wan_2.1_ComfyUI_repackaged2.2.1 核心模型必下载扩散模型Diffusion Models根据显存选择版本下载后放入ComfyUI/models/diffusion_models/目录显存8GB选择1.3B参数版本如wan2.1_t2v_1.3B_fp16.safetensors2.84GB。显存16GB选择14B参数版本如wan2.1_i2v_480p_14B_fp8.safetensors兼顾效果与速度。文本编码器Text Encoders二选一放入ComfyUI/models/text_encoders/目录FP8版本推荐6.7GBumt5_xxl_fp8_e4m3fn_scaled.safetensors显存占用小兼容性好。FP16版本11.4GBumt5_xxl_fp16.safetensors精度更高需显存≥12GB。视频VAE下载wan_2.1_vae.safetensors放入ComfyUI/models/vae/目录负责视频编解码确保画面流畅。2.2.2 可选组件图生视频需下载若需实现图生视频I2V需额外下载CLIP Vision模型# 下载地址https://huggingface.co/Comfy-Org/Wan_2.1_ComfyUI_repackaged/blob/main/split_files/clip_vision/clip_vision_h.safetensors # 放置路径ComfyUI/models/clip_vision/2.3 步骤3加载工作流并测试生成启动ComfyUIWindows双击ComfyUI安装目录下的run_nvidia_gpu.bat。Ubuntu在虚拟环境中执行命令conda activate comfyuicd ComfyUIpython main.py加载预设工作流文生视频T2V下载工作流文件text_to_video_wan.json将文件拖拽到ComfyUI界面即可加载。图生视频I2V下载工作流文件 image_to_video_wan_example.json同样拖拽加载。配置工作流参数模型匹配确保“Load Diffusion Model”节点加载的模型与本地下载的一致如wan2.1_t2v_1.3B_fp16.safetensors。编码器匹配“Load Clip Text Encoder”节点选择本地下载的文本编码器如umt5_xxl_fp8_e4m3fn_scaled.safetensors。生成参数分辨率1.3B模型建议设为640×480480P14B模型可设为1280×720720P。帧数建议45帧左右按16帧/秒计算可生成约2.8秒视频。提示词支持中文例如“夏日海滩一只戴太阳镜的白猫坐在冲浪板上微风拂过”正提示词反向提示词默认即可如“模糊、扭曲、低质量”。执行生成点击界面右上角“Queue Prompt”按钮或按CtrlEnter等待生成完成。生成的视频文件默认保存于ComfyUI/output/目录格式为MP4。三、方案二原生代码部署开发者方案原生部署通过命令行操作适合需要集成到自定义项目中的开发者支持更多参数自定义如提示词扩展、多GPU并行等。3.1 步骤1搭建基础环境# 1. 创建并激活conda虚拟环境 conda create -n wan21_env python3.11 -y conda activate wan21_env # 2. 安装PyTorch适配CUDA 12.1需根据实际CUDA版本调整 pip install torch torchvision torchaudio --extra-index-url https://download.pytorch.org/whl/cu121 # 3. 安装核心依赖含xfuser加速库确保torch≥2.4.0 pip install xfuser0.4.1 pip install flash-attn --no-build-isolation # 安装Flash Attention加速注意力计算 # 4. 克隆Wan2.1官方仓库若无法访问GitHub可通过阿里云镜像获取 git clone https://github.com/alibaba/Wan.git cd Wan3.2 步骤2下载模型文件从阿里云官方模型仓库下载对应版本模型以14B图生视频I2V720P版本为例# 1. 创建模型存放目录 mkdir -p ./Wan2.1-I2V-14B-720P # 2. 下载模型文件需先同意阿里云模型使用协议获取下载权限 # 官方下载链接https://developer.aliyun.com/article/1653942含模型下载入口 # 下载完成后将所有模型文件解压至 ./Wan2.1-I2V-14B-720P 目录3.3 步骤3运行生成代码原生部署支持单GPU、多GPU并行生成以下提供两种常见场景的代码示例。3.3.1 单GPU图生视频I2V生成# 基本生成命令使用本地提示词扩展 python generate.py \ --task i2v-14B \ --size 1280*720 \ --ckpt_dir ./Wan2.1-I2V-14B-720P \ --image examples/i2v_input.JPG # 本地输入图片路径 --use_prompt_extend \ --prompt_extend_model Qwen/Qwen2.5-VL-7B-Instruct \ --prompt 夏日海滩度假风格一只戴着太阳镜的白猫坐在冲浪板上 # 使用Dashscope API扩展提示词需先获取API密钥 DASH_API_KEYyour_dashscope_api_key python generate.py \ --task i2v-14B \ --size 1280*720 \ --ckpt_dir ./Wan2.1-I2V-14B-720P \ --image examples/i2v_input.JPG \ --use_prompt_extend \ --prompt_extend_method dashscope \ --prompt 夏日海滩度假风格一只戴着太阳镜的白猫坐在冲浪板上3.3.2 多GPU并行生成8卡提升速度torchrun --nproc_per_node8 generate.py \ --task i2v-14B \ --size 1280*720 \ --ckpt_dir ./Wan2.1-I2V-14B-720P \ --image examples/i2v_input.JPG \ --dit_fsdp \ --t5_fsdp \ --ulysses_size 8 \ --prompt 夏日海滩度假风格一只戴着太阳镜的白猫坐在冲浪板上3.3.3 启动本地Gradio可视化界面原生部署也支持快速启动Gradio界面兼顾灵活度与可视化操作cd gradio # 仅使用480P模型 DASH_API_KEYyour_dashscope_api_key python i2v_14B_singleGPU.py \ --prompt_extend_method dashscope \ --ckpt_dir_480p ./Wan2.1-I2V-14B-480P # 同时支持480P和720P模型 DASH_API_KEYyour_dashscope_api_key python i2v_14B_singleGPU.py \ --prompt_extend_method dashscope \ --ckpt_dir_480p ./Wan2.1-I2V-14B-480P \ --ckpt_dir_720p ./Wan2.1-I2V-14B-720P启动成功后终端会显示本地访问地址如http://localhost:7860打开浏览器即可通过可视化界面调整参数、上传图片、输入提示词生成视频。四、常见问题解决方案4.1 Flash Attention报错assert FLASH_ATTN_2_AVAILABLE错误原因系统未正确配置Flash Attention 2.0组件导致模型加速失败。解决方案# 方案1重新安装Flash AttentionUbuntu/WSL环境 pip uninstall flash-attn -y pip install flash-attn --no-build-isolation # 方案2Ubuntu/WSL环境下安装完整CUDA Toolkit 12.8以12.8为例 wget https://developer.download.nvidia.com/compute/cuda/repos/wsl-ubuntu/x86_64/cuda-wsl-ubuntu.pin sudo mv cuda-wsl-ubuntu.pin /etc/apt/preferences.d/cuda-repository-pin-600 wget https://developer.download.nvidia.com/compute/cuda/12.8.0/local_installers/cuda-repo-wsl-ubuntu-12-8-local_12.8.0-1_amd64.deb sudo dpkg -i cuda-repo-wsl-ubuntu-12-8-local_12.8.0-1_amd64.deb sudo cp /var/cuda-repo-wsl-ubuntu-12-8-local/cuda-*-keyring.gpg /usr/share/keyrings/ sudo apt-get update sudo apt-get -y install cuda-toolkit-12-8 # 方案3使用Docker环境规避兼容性问题 docker pull hunyuanvideo/hunyuanvideo:cuda_11 docker run -it --gpus all -p 7860:7860 hunyuanvideo/hunyuanvideo:cuda_114.2 模型加载失败找不到模型文件错误原因模型放置路径错误或文件名不匹配。解决方案ComfyUI部署严格按照本文2.2节要求将模型放入对应目录如扩散模型→models/diffusion_models。原生部署确保--ckpt_dir参数指定的路径与模型实际存放路径一致建议使用绝对路径如/home/user/Wan/Wan2.1-I2V-14B-720P。4.3 生成过程中显存溢出Out of Memory解决方案降低分辨率将720P改为480P--size 640*480。选择低精度模型将FP16模型替换为FP8模型显存占用减少约40%。减少帧数将帧数从45帧改为30帧以下。关闭不必要的程序释放系统内存和GPU显存。五、总结Wan2.1的本地部署核心在于“环境适配模型匹配”新手优先选择ComfyUI可视化方案通过一键包安装和拖拽工作流即可快速上手开发者可选择原生代码部署灵活配置多GPU并行、提示词扩展等高级功能。只要确保GPU显存达标、依赖版本匹配即可顺利实现本地离线生成高质量视频。若需获取最新模型、工作流及问题支持可关注阿里云开发者社区Wan2.1官方指南或ComfyUI官方文档ComfyUI Wan2.1教程。