开源

AutoGen

微软开发的一个开源框架,用于构建和管理基于LLM的多代理系统。它允许用户创建多个Agent,这些代理可以通过对话协作完成复杂的任务。

Cody Former

一个开源的人工智能图像处理工具,Cody Former专注于面部修复、图片清晰化以及视频去除马赛克和修复。

Parler

Parler-TTS是一款由Hugging Face开发的开源文本到语音(TTS)模型,能够模仿特定说话者的风格,生成高质量、自然的语音。该模型采用轻量级设计,包括文本编码器、解码器和音频编解码器,通过整合文本描述和嵌入层,优化了语音生成过程。Parler-TTS的所有资源公开,促进了高质量、可控TTS模型的发展。此外,用户还可以根据需要对模型进行自定义训练和微调。

IDIFY

IDIFY是一款开源在线证件照生成工具,借助人工智能技术实现自动抠图和标准化处理。支持本地图像处理、多平台兼容及多样化编辑功能,适用于个人、教育机构、企业和政府部门等场景,确保用户数据安全且操作便捷。

SDXL

SDXL-Lightning是一种基于扩散模型的文本到图像生成技术,由字节跳动的研究团队开发。该模型通过结合渐进式和对抗式蒸馏方法,能够在一至少数步骤内快速生成1024像素分辨率的高质量图像。该模型提供开源模型和权重,支持与现有的LoRA模块和控制插件兼容,可以轻松集成到现有的图片生成系统中。核心技术包括扩散模型、渐进式蒸馏、对抗式蒸馏和鉴别器设计,以确保生成图像的质量和多样性。

BlenderMCP

BlenderMCP 是一款将 Blender 与 Claude AI 集成的工具,通过 socket 服务器实现双向通信,支持 3D 对象操作、材质控制、场景信息获取及 Python 代码执行。用户可通过自然语言指令高效完成建模任务,提升创作效率。工具由插件和服务器组成,采用 JSON 协议进行数据交互,适用于快速建模、场景优化及教育辅助等场景。

Mochi 1

Mochi 1 是一款基于开源架构的 AI 视频生成工具,具有高保真度和强大的提示遵循能力。它采用 Genmo 自研的非对称扩散变压器(AsymmDiT)架构,结合实时视频生成技术和流式架构,能够高效生成高质量的视频内容。Mochi 1 支持多种应用场景,包括视频内容创作、教育、娱乐、广告和社交媒体等,适用于个人和企业用户。

SANA 1.5

SANA 1.5是由英伟达联合多所高校研发的高效线性扩散变换器,专用于文本到图像生成任务。其核心优势包括高效的训练扩展、模型深度剪枝、推理时扩展等技术,能够在不同计算预算下灵活调整模型性能。支持多语言输入,并具备开源特性,适用于创意设计、影视制作、教育等多个领域。实验表明,其生成质量接近行业领先水平,同时显著降低计算成本。

DeepClaude

DeepClaude 是一款高性能开源 AI 工具,融合 DeepSeek R1 和 Claude 模型,具备推理、创造力和代码生成能力。它提供零延迟响应、端到端加密和本地 API 管理,保障数据安全。支持高度自定义,适用于智能客服、代码生成、推理分析及教育等多场景,满足多样化需求。

FancyVideo

FancyVideo是一款由360公司与中山大学合作开发的AI文生视频模型,采用创新的跨帧文本引导模块(CTGM)。它能够根据文本描述生成连贯且动态丰富的视频内容,支持高分辨率视频输出,并保持时间上的连贯性。作为开源项目,FancyVideo提供了详尽的文档和代码库,便于研究者和开发者深入研究和应用。主要功能包括文本到视频生成、跨帧文本引导、时间信息注入及时间亲和度细化等。