AI模型

VARGPT

VARGPT是一款多模态大语言模型,整合了视觉理解和生成任务于统一的自回归框架中。它通过next-token和next-scale预测机制,支持文本与图像的混合输入和输出,具备高效的视觉生成能力。模型采用三阶段训练策略,提升了在视觉问答、推理及图像生成任务中的表现。适用于多模态内容创作、指令到图像合成等场景。

BioMedGPT

BioMedGPT-R1是由清华大学AI产业研究院与北京水木分子生物科技联合开发的多模态生物医药开源大模型。基于DeepSeek R1技术,实现生物模态(如分子、蛋白质)与自然语言的统一融合,支持跨模态问答与深度推理。该模型在药物分子理解、靶点挖掘等领域表现优异,适用于药物设计、临床前研究及医学文本分析等多种场景,具备较高的文本推理能力和多模态处理能力。

Modeli.ai

一个旨在使用AI模型为时尚产品优化和替代传统的拍照流程的AI模特生成工具。

Samsung Gauss2

Samsung Gauss2是一款由三星推出的第二代多模态生成式AI模型,具备处理文本、代码和图像等多类型数据的能力。它通过引入知识图谱技术和专家混合技术,实现了个性化服务和高效的任务执行。此外,该模型还支持多种语言及编程语言,并能在无网络环境下独立运行,广泛适用于智能手机、平板电脑、笔记本电脑以及企业级应用场景。

Reka Flash 3

Reka Flash 3 是一款由 Reka AI 开发的开源推理模型,拥有 21 亿参数,支持多模态输入(文本、图像、视频、音频),并可处理最长 32k 个令牌的上下文。它具备高效的推理能力和多语言支持,适用于日常对话、编码辅助、指令执行等多种场景。模型可在本地部署,支持 4 位量化以降低资源占用,适合广泛的应用需求。

言之画

言之画是由出门问问推出的AI图像内容创作平台,用户只需输入一句话描述,便可以快速生成高质量商用图片素材。

谷歌DeepMind推出V2A技术,可为无声视频添加逼真音效

DeepMind推出的V2A(Video-to-Audio)模型能够将视频内容与文本提示相结合,生成包含对话、音效和音乐的详细音频轨道。它不仅能够与DeepMind自身的视频生成模型Veo协同工作,还能与其他视频生成模型,如Sora、可灵或Gen 3等,进行集成,从而为视频添加戏剧性的音乐、逼真的音效或与视频中角色和情绪相匹配的对话。V2A的强大之处在于其能够为每个视频输入生成无限数量的音轨。该模

MindLLM

MindLLM是由多所高校联合开发的AI模型,可将功能性磁共振成像(fMRI)信号解码为自然语言文本。其采用主体无关的fMRI编码器与大型语言模型结合,并引入脑指令调优技术,实现跨个体的高精度解码。该模型在多项任务中表现优异,具备广泛的应用潜力,包括医疗康复、脑机接口、神经科学研究及人机交互等领域。

Dream

Dream-7B是由香港大学与华为诺亚方舟实验室联合开发的开源扩散模型,支持文本、数学和代码生成,具备双向上下文建模能力和灵活的生成控制。其在通用任务、数学推理和编程方面表现优异,适用于文本创作、数学求解、编程辅助及复杂任务规划等多种场景,提供高效且高质量的生成服务。

SocraticLM

SocraticLM 是一款基于苏格拉底教学法的人工智能模型,由中科大与科大讯飞联合开发。它通过提问引导学生主动思考,具备多轮对话能力和个性化教学功能。模型在 SocraTeach 数据集上训练,教学性能优于 GPT-4,整体质量提升 12%。其综合评估系统涵盖五项教学维度,适用于数学教学、个性化辅导及在线教育平台,为教育技术发展提供了新思路。