图像

MIP

MIP-Adapter是一种基于IP-Adapter模型开发的个性化图像生成技术,能够高效处理多参考图像并生成高质量的定制化图像。通过解耦交叉注意力机制和加权合并方法,解决了多图像输入中的对象混淆问题,提升了生成图像的质量。该技术无需测试时微调,具有高效训练的特点,广泛应用于社交媒体、广告、游戏设计等多个领域。

Qihoo

Qihoo-T2X是由360 AI研究院与中山大学联合研发的高效多模态生成模型,基于代理标记化扩散 Transformer(PT-DiT)架构。该模型通过稀疏代理标记注意力机制显著降低计算复杂度,支持文本到图像、视频及多视图生成。具备高效生成能力和多任务适应性,适用于创意设计、视频制作、教育、游戏开发及广告等多个领域。

AIEasyPic

利用了如Stable Diffusion、ControlNet和LoRAs等模型,根据您的文本输入生成视觉效果。

AtomoVideo

AtomoVideo是一款高保真图像到视频生成框架,能够从静态图像生成高质量视频内容。它通过多粒度图像注入和高质量数据集及训练策略,保证生成视频与原始图像的高度一致性和良好的时间连贯性。此外,AtomoVideo还支持长视频生成、文本到视频生成以及个性化和可控生成等功能。

TIP

TIP-I2V是一个包含大量真实文本和图像提示的数据集,专为图像到视频生成领域设计。它涵盖了超过170万个独特的提示,并结合多种顶级图像到视频生成模型生成的视频内容。该数据集支持用户偏好分析、模型性能评估以及解决错误信息传播等问题,有助于推动图像到视频生成技术的安全发展。

SwiftChat

一款基于React Native开发的快速、安全、跨平台聊天应用,支持实时流式聊天功能和Markdown语法,还可以生成AI图像,兼容DeepSeek、Amazon Bedrock、Ollama和OpenAI等模型。

Hula

Hula 是一款 AI 视频生成工具,支持将静态照片或视频转换为动态内容,提供多种风格转换功能,如复古、动漫、童话等。用户可生成未来宝宝形象、制作聊天贴纸,并体验“时间旅行”功能,展现不同时代的自我形象。适用于社交媒体内容创作、创意视频制作和个人形象设计等多种场景。

DALL

OpenAI 的人工智能图像生成器,允许用户根据文本描述轻松生成高度准确的图像。DALL·E 3 理解细微差别和细节,从而生成完全符合所提供文本的图像。

HART

HART是一种由麻省理工学院研究团队开发的自回归视觉生成模型,能够生成1024×1024像素的高分辨率图像,质量媲美扩散模型。通过混合Tokenizer技术和轻量级残差扩散模块,HART实现了高效的图像生成,并在多个指标上表现出色,包括重构FID、生成FID以及计算效率。

书生·筑梦2.0(Vchitect 2.0)

书生·筑梦2.0是一款由上海人工智能实验室开发的开源视频生成大模型,支持文本到视频和图像到视频的转换,生成高质量的2K分辨率视频内容。它具备灵活的宽高比选择、强大的超分辨率处理能力以及创新的视频评测框架,适用于广告、教育、影视等多个领域。