虚拟

Hallo2

Hallo2是一款由复旦大学、百度公司和南京大学合作开发的音频驱动视频生成模型。它能够将单张图片与音频结合,并通过文本提示调节表情,生成高分辨率4K视频。Hallo2采用了补丁下降、高斯噪声等数据增强技术,提升了视频的视觉一致性和时间连贯性,同时通过语义文本标签提高了生成内容的可控性与多样性。该模型适用于电影、游戏、虚拟助手等多个领域,展现出强大的内容生成能力。

TruMate

TruMate是一款基于AI技术的社交应用,允许用户通过与定制化虚拟角色的文字互动获得情感陪伴和娱乐体验。平台提供丰富的角色筛选选项、沉浸式社交环境以及IP联动功能,支持用户创建个性化虚拟形象,适用于情感支持、社交练习、语言学习等多个场景。

WebDreamer

WebDreamer是一款基于大型语言模型的网络智能体,专注于通过模拟和预测网络交互结果来进行高效的任务规划与决策。它具备模拟函数、评分函数以及候选动作生成等功能,能够显著提升网络任务执行的效率与安全性,同时支持多种应用场景,包括网页自动化、智能搜索、客户服务等领域。

FitDiT

FitDiT是一种基于Diffusion Transformers架构的高保真虚拟试穿技术,通过服装纹理提取器和先验演化技术精确捕捉服装细节,同时采用扩张-松弛掩码策略优化尺寸适配。它能在短时间内生成高质量的试穿图像,适用于电子商务、时尚设计、个性化定制以及增强现实等领域,为用户提供逼真的虚拟试穿体验。

万木健康

万木健康,AIGC超写实医生数字人运营商。

The Language of Motion

The Language of Motion是一款由斯坦福大学李飞飞团队开发的多模态语言模型,能够处理文本、语音和动作数据,生成对应的输出模态。该模型在共同语音手势生成任务上表现出色,且支持情感预测等创新任务。它采用编码器-解码器架构,并通过端到端训练实现跨模态信息对齐。The Language of Motion广泛应用于游戏开发、电影制作、虚拟现实、增强现实及社交机器人等领域,推动了虚拟角色自

MoMask

MoMask是一款基于生成式掩码建模的3D人体动作生成工具,支持文本驱动的动作创建与编辑。采用分层量化与Transformer架构,实现高精度、连贯的3D动作序列生成,在HumanML3D数据集上的FID值仅为0.045。支持动作时序控制、多平台部署及动作评估功能,适用于游戏开发、动画制作、VR及体育分析等多个领域。

Loopy AI

字节跳动和浙江大学联合开发的音频驱动的AI视频生成模型,能够将静态图像转化为动态视频,实现音频与面部表情、头部动作的完美同步。

AI Mirror

AI Mirror是一款基于人工智能技术的照片编辑与视频创作工具,具备丰富的滤镜选择、动漫化处理、角色生成等功能。用户可通过其多样化的编辑工具实现照片美化、风格转换及创意表达,广泛适用于社交媒体分享、节日纪念、艺术创作和个人化礼物制作等场景。

MagicTryOn

MagicTryOn是由浙江大学和vivo等机构开发的视频虚拟试穿框架,采用扩散Transformer(DiT)架构替代传统U-Net,结合全自注意力机制实现视频时空一致性建模。通过粗到细的服装保持策略,整合服装标记与多条件引导,有效保留服装细节。该工具在图像和视频试穿任务中表现优异,适用于在线购物、时尚设计、虚拟试衣间等多种场景。