Seedance 由字节跳动打造——TikTok 和抖音背后的公司,二者每天共处理数十亿条短视频。这不只是企业背景介绍——这正是 Seedance 存在的原因。字节跳动拥有的真实人体运动数据量可以说超过了地球上任何其他公司。每一个舞蹈挑战、每一条运动集锦、每一个健身教程,上传到 TikTok 和抖音后都汇入了一个数据生态,而 Seedance 的训练直接受益于此。
名字说明了一切。
"Seedance" 由 "Seed"(字节跳动的 AI 研究品牌)和 "Dance" 组合而成——运动是核心目标,不是附带功能。Sora 和 Veo 优化通用电影画质,Kling 优化速度,而 Seedance 是专门为了让运动中的人体看起来正确而工程化设计的。
其他模型做不到的复杂编舞。
多人同步舞蹈、快速攻防的武术序列、带空中旋转的体操、有飞墙和翻越的跑酷——这些场景在大多数 AI 视频模型中会产生可怕的肢体扭曲或违反物理的运动。Seedance 以一种让输出真正可用的保真度来处理它们。模型的运动渲染引擎对身体物理的处理方式与竞品不同:即使在快速复杂的运动中,肢体仍保持正确比例和关节角度。手指不会融合,肘部不会反向弯曲,脚会稳稳踩在该踩的地方。
5 秒——短但有意为之。
Seedance 片段限制在 5 秒,是我们平台上视频模型中最短的时长。但这不是技术能力不足导致的限制——而是刻意的设计选择。通过约束时长,字节跳动让模型把所有质量预算集中在运动保真度上,而不是拉长输出时长。结果就是 5 秒真正令人惊艳的运动,胜过其他模型 10 秒的平庸动作。
Seedance 2.0:多主体一致性与微表情控制。
最新版本解决了两个长期存在的 AI 视频难题。第一,多主体一致性——当多个角色出现在同一场景中时,每个人从头到尾保持各自的独立身份。不再出现「角色 A 在视频中途变成角色 B」的问题。第二,微表情控制:角色现在能展示真正的情绪细腻度。开心时嘴角自然上扬,紧张时眉头明显紧锁。以前的 AI 视频模型产出的是会动的木偶——没有灵魂。Seedance 2.0 的表情引擎加入了让输出鲜活起来的人味。
AI 短剧的实战工作流。
创作者正在用 Seedance 制作多集 AI 短剧:用豆包写剧本,定义一致的角色描述("25岁女性,黑色长发,鹅蛋脸,嘴唇旁有小痣,气质温柔"),用角色一致性生成场景,然后在后期添加配音和配乐。有创作者在一周内从零基础到接到第一笔付费订单。