MHC Talker
让Metahuman“活”起来的数字人AI工具
- 一键配置MetaHuman角色
- 文字/语音双通道输入
- 实时口型推理同步
- 语音重读与头部微动作联动
- 后处理表情微调系统
- 对话逻辑驱动的肢体动作库

一键式Metahuman配置
面向个人或团队美术人员,无需复杂编程,通过可视化界面绑定Metahuman角色模型、语音库、AI服务接口,快速完成角色“智能化”配置。
文字/语音双通道输入
支持用户通过文本输入或实时语音与Metahuman角色互动,角色可自动识别语义并生成符合语境的语音回复,实现真正意义上的双向对话。
实时口型推理同步
基于深度学习算法,精准解析语音内容,实时驱动口型与发音高度匹配,告别机械式口型动画,呈现真实自然的对话表现。全语种支持。
语音重读与头部微动作联动
通过语音重音识别技术,自动触发角色头部自然摆动、点头、侧倾等微动作,模拟人类对话时的下意识反应,大幅提升交互真实感。
后处理表情微调控制
提供精细化的表情控制面板,支持对AI生成的表情进行细节调整(如嘴角弧度、眼神聚焦、皱眉强度等),实现从“基础情绪”到“细腻情感”的精准刻画。
对话逻辑驱动的肢体动作库
角色可根据对话内容自动触发匹配的肢体动作(如手势、耸肩、摊手等),并支持逻辑规则自定义。例如:提问时头部前倾、强调时挥手、疑惑时耸肩,动作与语义深度绑定。
出色的多语言泛化能力
实时对话交互

实时交互对话
虚幻引擎一键驱动
选择角色,右键即可程序化创建角色智能对话,一键式配置智能虚拟人,功能包括:
- AI实时语音唇形同步
- 智能NPC模式
- 肢体表达逻辑行为驱动
- 语音情绪驱动表情
- 后处理微调表情
- 超多语音类型可选
面部动画生成
面部动画生成
Maya面部动画生成
Maya表情动画生成工具,通过语音生成高质量表情动画,高效生产角色动画,功能包括:
- 语音生成唇形
- 情绪状态处理
- 语音重度头部自然联动
- 动画版本历史管理
- 导出动画至UE引擎

私有化部署

私有化部署
项目部署支持
私有化部署,模块化管理,支持TTS、ASR、LLM自由更换,支持多客户端推理,满足中、大型商业项目使用需求,动画推理低至毫秒级响应。
- 本地部署
- 云端部署
- 无限推理时长
- 专项技术支持
- 定制AI模型训练
F.A.Q.
常见问题
MHC Talker支持哪些角色绑定标准?
目前MetaHuman标准方案是通用型绑定最佳选择,现阶段仅支持MetaHuman标准的绑定方案,后续将推出更多方案支持。
MHC Talker支持自定义大语言模型或自定义语音吗?
支持,MHC Talker可接收文本和语音,将文字或语音发送插件接口即可,具体操作可查看相关文档。
MHC Talker支持哪些3D软件?
目前MHC Talker实时交互支持Unreal Engine,离线动画生成支持Maya,后续将更新Unity和Blender
支持Unreal Engine哪些版本?
支持Unreal Engine5.3、5.4、5.5版本,持续更新。
支持Unreal Engine哪些系统?
目前支持Windows、Linux两个系统。
支持Unreal Engine打包的平台有哪些?
目前支持打包Windows、Linux和Android。
支持Maya哪些版本?
支持Maya2022、2023、2024、2025版本,持续更新。