模型

卡奥斯智能交互引擎

一款基于工业大模型技术开发的的工业知识智能搜索和解决方案精准生成平台,融合了智能检索、智能应用和多模态连续交互等多种功能。

Aero

Aero-1-Audio 是一款基于 Qwen-2.5-1.5B 的轻量级音频模型,拥有 1.5 亿参数,专注于长音频处理,支持连续 15 分钟音频输入并保持上下文连贯性。在语音识别、复杂音频分析及指令驱动任务中表现出色,具备高效的训练方法和多任务处理能力,适用于语音助手、实时转写、归档理解等场景。

Samsung Gauss2

Samsung Gauss2是一款由三星推出的第二代多模态生成式AI模型,具备处理文本、代码和图像等多类型数据的能力。它通过引入知识图谱技术和专家混合技术,实现了个性化服务和高效的任务执行。此外,该模型还支持多种语言及编程语言,并能在无网络环境下独立运行,广泛适用于智能手机、平板电脑、笔记本电脑以及企业级应用场景。

Modeli.ai

一个旨在使用AI模型为时尚产品优化和替代传统的拍照流程的AI模特生成工具。

Anime gf

一个本地且开源的CharacterAI替代工具,提供了一个用户友好的界面,允许用户在桌面上与虚拟角色互动。你可以自定义创建各种角色,让每个虚拟角色都有自己的独特个性和语言风格。

谷歌DeepMind推出V2A技术,可为无声视频添加逼真音效

DeepMind推出的V2A(Video-to-Audio)模型能够将视频内容与文本提示相结合,生成包含对话、音效和音乐的详细音频轨道。它不仅能够与DeepMind自身的视频生成模型Veo协同工作,还能与其他视频生成模型,如Sora、可灵或Gen 3等,进行集成,从而为视频添加戏剧性的音乐、逼真的音效或与视频中角色和情绪相匹配的对话。V2A的强大之处在于其能够为每个视频输入生成无限数量的音轨。该模

DistriFusion

DistriFusion是一个专为加速高分辨率扩散模型在多GPU环境中生成图像的分布式并行推理框架。通过将图像分割成多个小块并分配至不同设备上进行独立处理,它能够在不增加额外训练负担的情况下,将推理速度提升高达六倍,同时保持图像质量。其技术原理包括Patch Parallelism(分片并行)、异步通信、位移补丁并行性等,适用于多种现有的扩散模型。应用场景包括AI艺术创作、游戏和电影制作、VR/A

Allegro

Allegro 是一款由 Rhymes AI 开发的文本到视频生成工具,可将描述性文本快速转化为高质量的动态视频内容。支持 720p 分辨率、15 FPS 帧率和最长 6 秒的视频输出,具有高时间一致性,适用于内容创作、广告营销、教育培训等多个领域,凭借先进的技术架构和强大的功能,成为视频生成领域的领先解决方案之一。

SocraticLM

SocraticLM 是一款基于苏格拉底教学法的人工智能模型,由中科大与科大讯飞联合开发。它通过提问引导学生主动思考,具备多轮对话能力和个性化教学功能。模型在 SocraTeach 数据集上训练,教学性能优于 GPT-4,整体质量提升 12%。其综合评估系统涵盖五项教学维度,适用于数学教学、个性化辅导及在线教育平台,为教育技术发展提供了新思路。

MakeAnything

MakeAnything是由新加坡国立大学Show Lab团队开发的多领域程序性序列生成框架,能够根据文本或图像生成高质量的分步教程。它采用扩散变换器和ReCraft模型,支持从文本到过程和从图像到过程的双向生成。覆盖21个领域,包含超24,000个标注序列,具备良好的逻辑连贯性和视觉一致性,适用于教育、艺术、工艺传承及内容创作等多种场景。