模型

EMO2

EMO2是一种由阿里巴巴智能计算研究院开发的音频驱动头像视频生成技术,通过音频输入和静态人像照片生成高质量、富有表现力的动态视频。其核心技术包括音频与手部动作的协同建模、扩散模型生成视频帧,以及高精度音频同步。该工具支持多样化动作生成,适用于虚拟现实、动画制作和跨语言内容创作等场景,具备自然流畅的视觉效果和丰富的应用场景。

3DFY

3DFY是一种人工智能驱动的 3D 生成工具,无需手动创建、输入文本、图像提示即可创建可扩展的高质量3D模型。

DeerFlow

DeerFlow 是字节跳动推出的开源研究框架,结合语言模型与多种工具,支持高效完成复杂研究任务。具备多Agent架构,支持自然语言交互与智能协作,适用于研究报告、播客、演示文稿等内容生成。支持多种语言模型和外部工具集成,提供灵活配置与扩展能力,广泛应用于学术、市场、教育及个人知识管理等领域。

Aya Vision

Aya Vision 是 Cohere 推出的多模态、多语言视觉模型,支持 23 种语言,具备图像描述生成、视觉问答、文本翻译和多语言摘要生成等能力。采用模块化架构与合成标注技术,确保在资源有限条件下仍具高效表现。适用于教育、内容创作、辅助工具开发及多语言交流等多个场景,具有广泛的实用价值。

BAGEL

BAGEL是字节跳动开源的多模态基础模型,拥有140亿参数,采用混合变换器专家架构(MoT),通过两个独立编码器捕捉图像的像素级和语义级特征。它能够进行图像与文本融合理解、视频内容理解、文本到图像生成、图像编辑与修改、视频帧预测、三维场景理解与操作、世界导航以及跨模态检索等任务。BAGEL在多模态理解基准测试中表现优异,生成质量接近SD3,并适用于内容创作、三维场景生成、可视化学习和创意广告生成等

MiniMax开放平台

MiniMax开放平台是国内领先的拥有文本、语音、视觉三模态融合的千亿参数语言大模型。这个平台由创业公司MiniMax构建,致力于通过搭建超大规模实验平台与推理平台,实现技术与产品...

TRELLIS

TRELLIS是一款由清华大学、中国科学技术大学及微软研究院共同开发的3D生成模型,利用Structured LATent(SLAT)表示法,通过文本或图像提示生成高质量、多样化的3D资产。它融合了稀疏的3D网格结构与密集视觉特征,支持多格式输出及局部编辑,无需拟合训练即可生成细节丰富的模型。此外,TRELLIS具备两阶段生成流程,可灵活适应不同需求。

文心大模型歌词生成器

文心大模型「歌词生成」器,是百度旗下的AI智能处理“文心大模型”提供的服务出品的 AI 自动生成歌词网站,

DL4J

DL4J开源的使用JVM部署和训练...