虚拟
Media2Face
一款革命性的语音面部动画生成工具,借助 Media2Face,现在可以从任何音频、图像或文本输入无缝生成逼真且富有表现力的面部动画。
DreamActor
DreamActor-M1是字节跳动推出的AI图像动画框架,能够将静态照片转化为高质量动态视频。其核心在于混合引导机制,结合隐式面部表示、3D头球和身体骨架,实现对表情和动作的精准控制。支持多语言语音驱动、口型同步、灵活运动转移及多样化风格适配,适用于虚拟角色创作、个性化动画生成、虚拟主播制作及创意广告等领域,具备高保真、强连贯性和广泛适用性。
FabricDiffusion
FabricDiffusion是一项由谷歌与卡内基梅隆大学联合开发的高保真3D服装生成技术,可将2D服装图像的纹理和印花高质量地转移到3D服装模型上。其核心技术基于去噪扩散模型和大规模合成数据集,生成多种纹理贴图并支持跨光照条件的精准渲染,具备优秀的泛化能力和实际应用潜力,适用于虚拟试衣、游戏开发、影视制作及时尚设计等多个领域。
DanceFusion
DanceFusion是一款由清华大学开发的开源框架,专注于音频驱动的舞蹈动作生成与重建。它采用分层时空Transformer-VAE和扩散模型,能够处理不完整或嘈杂的数据,生成与音乐高度同步的逼真舞蹈动作。该工具支持多种应用场景,包括内容创作、虚拟现实、互动娱乐、舞蹈教育以及动画制作等,展现了其在多领域的应用价值。
PrimitiveAnything
PrimitiveAnything是由腾讯AIPD与清华大学联合开发的3D形状生成框架,通过将复杂3D形状分解为基本基元并自回归生成,实现高质量、高保真度的3D模型重建。其支持从文本或图像生成内容,具备高效存储、模块化设计及良好的泛化能力,适用于3D建模、游戏开发、UGC创作及VR/AR应用等领域。
