AI资讯

字节跳动与清华大学携手开源前沿多模态框架HuMo

2025-09-12

字节跳动的智能创作团队与清华大学联合推出了一款名为 HuMo 的开源框架,旨在推动人体视频生成(HCVG,Human-Centric Video Generation)领域的进步。HuMo 框架具备强大的多模态输入处理能力,可以同时利用文本、图像和音频三种信息,协同生成高质量视频。

HuMo 的名称 “Human-Modal” 恰如其分地反映了其聚焦人类及其活动的理念。这个框架的成功之处在于它构建了一个高质量的数据集,并创新性地采用了渐进式训练方法。这种训练方式使得 HuMo 能够在各项子任务中超过现有的专业化方法,生成清晰度高达480P 和720P 的视频,最长可达97帧,以25帧每秒的速度输出可控的人物视频。

image.png

框架的核心优势在于其创新的数据处理流程、灵活的推理策略以及渐进式的多模态训练方式。这些技术的结合,不仅提高了生成视频的质量,还提升了处理速度,使得 HuMo 在实际应用中表现得更加出色。

对于开发者和研究人员来说,HuMo 不仅是一种新的工具,更是一种灵活的解决方案,能够满足不同场景下的需求。项目的开源地址也让更多的人可以参与到这项技术的研究与应用中,为未来的多模态视频生成探索新的可能。

论文地址:https://arxiv.org/pdf/2509.08519

# HuMo # 字节跳动 # 清华大学 # 人体视频生成