虚拟

Baichuan

Baichuan-NPC(百川角色大模型)是一款由百川智能公司推出的智能角色模型,通过文本描述即可生成具有生动表现力的角色智能体。该模型在“角色知识”与“对话能力”方面进行了深度优化,确保角色能更准确地理解对话语境,并根据角色性格进行交流和互动。主要功能包括高效对话能力、高度定制角色创建、严格的事实性回复、高质量数据预训练及思维链对齐技术。

Being

Being-M0是由北京大学、中国人民大学等机构联合研发的首个大规模人形机器人通用动作生成模型。基于百万级动作数据集 MotionLib 和 MotionBook 编码技术,实现动作序列的高效表示与生成。该模型支持文本驱动动作生成、动作迁移及多模态数据处理,可应用于人形机器人控制、动画制作、VR/AR、人机交互及运动康复等多个领域,显著提升动作生成的多样性和语义对齐精度。

FilmAgent

FilmAgent是一款由哈尔滨工业大学(深圳)研发的虚拟电影制作工具,基于多智能体协作框架,实现从剧本创作到镜头拍摄的全流程自动化。支持剧本生成、多智能体协作、镜头规划、语音合成等功能,适用于创意视频制作、影视教学及虚拟场景应用。系统在Unity 3D环境中运行,提升电影制作效率与创意表达能力。

qbiq

Qbiq是一款基于生成式AI技术的空间规划平台,能够根据用户需求在24小时内生成多个优化的2D布局方案及3D可视化模型。平台提供详细的分析报告,涵盖日光、密度、隐私等关键指标,帮助用户进行数据驱动决策。无需专业背景,用户可轻松使用,适用于房地产开发、建筑设计、房产经纪等多个领域。

IDM

IDM-VTON是一种基于改进扩散模型的先进AI虚拟试穿技术,由韩国科学技术院和OMNIOUS.AI的研究人员共同开发。该技术利用视觉编码器提取服装的高级语义信息,并通过GarmentNet捕捉服装的低级细节特征,从而生成逼真的人物穿戴图像。IDM-VTON支持文本提示理解,实现了个性化定制和逼真的试穿效果,广泛应用于电子商务、时尚零售、个性化推荐、社交媒体以及时尚设计等领域。

MTVCrafter

MTVCrafter是由中国科学院深圳先进技术研究院计算机视觉与模式识别实验室、中国电信人工智能研究所等机构推出的新型人类图像动画框架,基于4D运动标记化(4DMoT)和运动感知视频扩散Transformer(MV-DiT)实现高质量动画生成。该工具直接对3D运动序列建模,支持泛化到多种角色和风格,保持身份一致性,并在TikTok基准测试中取得优异成绩。其应用场景包括数字人动画、虚拟试穿、沉浸式内

Phantom

Phantom是由字节跳动研发的视频生成框架,支持从参考图像中提取主体并生成符合文本描述的视频内容。它采用跨模态对齐技术,结合文本和图像提示,实现高质量、主体一致的视频生成。支持多主体交互、身份保留等功能,适用于虚拟试穿、数字人生成、广告制作等多种场景。模型基于文本-图像-视频三元组数据训练,具备强大的跨模态理解和生成能力。

Odyssey

Odyssey是一款先进的AI视频生成和编辑工具,通过四个专门训练的高级生成模型,实现高质量的三维几何图形、逼真材质、震撼光照效果及动态动作控制。该工具旨在革新电影、电视和视频游戏的制作方式,提升创作效率,同时保证作品的高质量和艺术性。适用于电影制作人、游戏开发者、视频内容创作者、动画师和视觉效果艺术家。

MovieDreamer

MovieDreamer是一个由浙江大学与阿里巴巴联合开发的AI视频生成框架,专为长视频设计。该框架结合自回归模型和扩散渲染技术,生成复杂的长视频内容。它支持多层次叙事一致性、高质量视觉渲染和多模态脚本,适用于电影预告片、VR叙事、教育视频和游戏内剧情等多种场景。

OCTAVE

OCTAVE是一款由Hume AI研发的语音语言处理工具,融合了多种领先AI技术,具备强大的个性化语音生成能力,支持从文字到语音的即时转化,并能精准模仿不同说话者的声线与情感表达。其主要功能包括多角色对话生成、复杂指令理解与响应,以及实时语音处理等。此外,OCTAVE可应用于客户服务、虚拟助手、教育培训、娱乐游戏等多个领域,为用户带来更加自然、生动的交互体验。