2025年末,腾讯混元团队开源 HY-Motion1.0,这款基于 DiT 架构的模型仅需文本描述即可生成高保真3D动画,不仅打破了国外技术垄断,更直接打通了 Blender 与 Unity 的工作流,大幅降低了游戏开发门槛。
文本驱动3D的架构突破
2025年12月30日,腾讯混元团队正式对外开源了十亿参数级的文本到3D动作生成大模型——HY-Motion1.0。该模型的核心突破在于采用了 Diffusion Transformer (DiT) 架构与流匹配机制。这一架构设计使得模型能够理解复杂的自然语言指令,并将其转化为高保真、流畅多样的3D角色骨骼动画。
对于开发者而言,HY-Motion1.0 的最大价值在于其“即插即用”的兼容性。生成的动作数据直接支持 SMPL-H 骨骼格式,能够无缝导入 Blender、Unity、UE 等主流3D制作工具。这意味着,从简单的角色行走,到复杂的《黑客帝国》式子弹时间下腰,开发者只需输入一段提示词,即可获得可用的动画资产。

全阶段训练与强化学习优化
为了实现动作的自然度与物理合理性,HY-Motion1.0 采用了严谨的全阶段训练策略。 首先,模型在超过3000小时的多样化动作数据上进行预训练,建立了通用的运动先验知识; 其次,通过400小时的精选高质量数据进行微调,重点提升动作细节的流畅性; 最后,引入强化学习(RLHF)机制,结合人类反馈与奖励模型,解决了生成动作中常见的“滑步”或关节扭曲问题,确保了动作符合物理规律且与文本语义高度对齐。
实测数据显示,该模型在指令遵循能力上达到了78.6%(SSAE指标),动作质量评分全面超越了 MoMask 和 DART 等现有的开源基线模型。
游戏工业的效率革命
HY-Motion1.0 的开源对于游戏开发行业具有显著的降本增效意义。在 MMO 或动作类游戏的开发中,海量的 NPC 日常行为(如闲逛、互动)往往占据了动画师大量精力。现在,这款端到端模型可以快速批量生成此类基础动画,显著加速项目的预研与迭代周期。
尽管在跳台滑雪等极限运动的还原上仍有优化空间,但其发布的轻量版 HY-Motion-1.0-Lite(0.46B参数)已经为个人开发者和小型工作室提供了强大的生产力工具,预示着 AI 辅助3D内容创作(AIGC 3D)正加速进入实用化阶段。
相关推荐

2025 AI 技术峰会

AI 实战课程
热门工具
AI 助手
智能对话,提升效率
智能图像处理
一键美化,智能修图
AI 翻译
多语言实时翻译






评论 (0)
暂无评论,快来发表第一条评论吧!