图像

OmniAlign

OmniAlign-V是由多所高校联合开发的多模态大语言模型对齐数据集,包含约20万个多模态样本,涵盖自然图像和信息图表。其核心功能包括提供高质量训练数据、提升模型的开放式问答能力、增强推理与创造力,并支持模型持续优化。数据集通过图像筛选、任务设计及后处理优化确保数据质量,适用于多模态对话系统、图像辅助问答、创意生成等多个应用场景。

ART

ART(Anonymous Region Transformer)是一种新型多层透明图像生成技术,支持基于全局文本提示和匿名区域布局生成多个独立透明图层(RGBA格式)。通过逐层区域裁剪机制,显著提升生成效率,速度快于传统方法12倍以上。具备高质量自编码器,支持50层以上的图像生成,减少图层冲突。广泛应用于艺术设计、内容创作、广告营销及科研等领域。

SpeciesNet

SpeciesNet 是 Google 开发的 AI 模型,用于识别相机陷阱图像中的动物物种,支持超过 2000 种标签分类,涵盖动物、分类群及非生物对象。基于 6500 万张图像训练,具备高效数据处理和跨场景识别能力,适用于野生动物监测、生物多样性研究及生态保护。模型开源,可在 GitHub 获取,支持开发人员部署与优化。

Image

Image-01 是一款由 MiniMax 开发的文本到图像生成模型,能够根据文本描述精准生成高质量、高分辨率图像,支持多种纵横比输出。具备优秀的人物与物体渲染能力,适用于艺术创作、广告设计、影视制作等多个领域。支持高效批量生成,单次最多输出 9 张图像,每分钟处理 10 个请求,提升创作效率。采用扩散模型与 Transformer 架构,结合线性注意力与 MoE 技术,确保图像质量与生成效率。

Fractal Generative Models

Fractal Generative Models 是一种基于分形架构的图像生成技术,通过递归调用“原子模块”实现逐像素生成高分辨率图像。该模型结合 Transformer 模块,采用分而治之策略,大幅提升计算效率。不仅适用于图像生成,还可扩展至分子结构、蛋白质等高维数据建模,具有广泛的应用潜力。

CogView4

CogView4是一款由智谱推出的开源文生图模型,具有60亿参数,支持中英文输入与高分辨率图像生成。在DPG-Bench基准测试中表现优异,达到当前开源模型的领先水平。模型具备强大的语义理解能力,尤其在中文文字生成方面表现突出,适用于广告设计、教育、儿童绘本及电商等领域。其技术架构融合扩散模型与Transformer,并采用显存优化技术提升推理效率。

LCVD

LCVD是一种由四川大学开发的高保真肖像动画生成框架,支持光照可控的动态视频生成。它通过分离肖像的内在与外在特征,并结合多条件分类器自由引导机制,实现对光照和姿态的精细控制。LCVD在图像质量、视频一致性和光照真实感方面表现突出,适用于虚拟现实、视频会议、影视制作及内容创作等多个领域。

LuminaBrush

LuminaBrush是一款基于深度学习的图像照明生成工具,采用两阶段处理流程:首先提取图像的均匀光照状态,再根据用户涂鸦生成具体光照效果。它支持实时调整光照参数,适用于复杂图像细节处理,广泛应用于数字艺术、游戏设计、影视后期等领域。工具提供交互式界面,便于用户高效创作。

Avat3r

Avat3r 是由慕尼黑工业大学与 Meta Reality Labs 联合开发的高保真三维头部头像生成模型,基于高斯重建技术,仅需少量输入图像即可生成高质量且可动画化的 3D 头像。其核心优势在于使用交叉注意力机制实现表情动态化,支持多源输入,具备良好的鲁棒性和泛化能力。适用于 VR/AR、影视制作、游戏开发及数字人等领域。

xAR

xAR是由字节跳动与约翰·霍普金斯大学联合研发的自回归视觉生成框架,采用“下一个X预测”和“噪声上下文学习”技术,提升视觉生成的准确性和效率。其支持多种预测单元,具备高性能生成能力,在ImageNet数据集上表现优异,适用于艺术创作、虚拟场景生成、老照片修复、视频内容生成及数据增强等多种应用场景。