万相 Wan2.1-T2V 模型是一个具备支持中文文字生成能力,且同时支持中英文文字特效生成的视频生成模型。青云科技旗下AI算力云服务——基石智算CoresHub 模型广场现已上线 1.3B、14B 两个版本,为不同需求的用户提供个性化的创作解决方案。
Wan2.1-T2V-14B 模型在复杂运动建模、物理规律还原、指令遵循能力等方面表现卓越,其生成高质量视觉效果和复杂动态的能力,能在广告设计场景中发挥作用。如在 广告中,可以清晰展现 在各种路况下的行驶姿态和性能特点。
Wan2.1-T2V-1.3B 模型支持在几乎所有消费级 GPU 上生成视频,仅需 8.19 GB VRAM 即可生成一段 5 秒钟的 480P 视频,在 RTX 4090 上输出时间仅为 4 分钟,以其轻量高效的特点,成为了个人创作者和开发者的福音,比如,短视频创作者能够快速生成各种创意短视频。
基石智算通过模型广场让用户简便快捷地使用万相 Wan2.1-T2V,无论是 14B 还是 1.3B 版本,只需简单几步即可完成部署,轻松开启视频创作。下面就一起来看下如何操作吧!
第一步 :进入“AI 计算平台”-选择“西北三区”-“模型广场”,选择 Wan2.1-T2V-14B 或Wan2.1-T2V-1.3B 模型,点击“模型部署”按钮。
第二步:点击模型部署后,选取对应的算力资源(只支持4090单卡),创建推理服务。
第三步:点击“创建”按钮,进入推理服务详情页面,在“服务信息”页签内,获取外网访问地址。
如果模型没有启动成功,外网链接不能打开,可以点击服务日志,当出现* Running on local URL: http://0.0.0.0:XXXX,即为模型加载成功。
第四步:模型调用。
复制外网链接,粘贴到浏览器,即可打开 WebUI 界面,输入提示词就可以生成视频了。
根据自己的需要,可以进行帧数、高度、宽度的调整,生成自己想要的视频。
基石智算提供 NVIDIA 全系列、主流国产芯片等多元算力资源,提供包括万相 Wan2.1-T2V、QwQ-32B、DeepSeek-R1、DeepSeek-V3 在内的文本处理、文生图、文生视频、语音转换等多种类型的模型,支持模型的一键启动、一键部署以及在线微调,助力用户打造专属 AI 应用。
立即登录基石智算,体验万相 Wan2.1-T2V 的文生视频能力,让你的视频生成更便捷、更出色!