模型

STORM AI

STORM AI 是一款由斯坦福大学开发的开源AI写作工具,能够快速将一个主题转化为长篇文章或研究论文。它利用大语言模型(LLM)进行多角度提问和模拟专家对话,生成深入且准确的内容。STORM AI 可以自动收集资料、生成大纲,并最终形成完整的文章。其主要功能包括基于互联网搜索撰写文章、多角度提问、模拟专家对话、生成研究大纲以及引用和参考资料管理。此外,STORM AI 还能够自动化研究过程,为写

LiveCC

LiveCC是一款由新加坡国立大学Show Lab与字节跳动联合开发的实时视频解说模型,基于自动语音识别字幕进行训练。它能够实时生成自然流畅的视频评论和回答相关问题,适用于体育、新闻、教育等多个场景。模型采用流式训练方法,结合大规模数据集和Qwen2-VL架构,具备低延迟和高质量的生成能力。LiveCC通过LiveSports-3K基准测试评估性能,广泛应用于视频内容分析与智能交互场景。

Loopy

Loopy是一款由字节跳动开发的音频驱动的AI视频生成模型。该模型能够将静态照片转化为具有面部表情和头部动作的动态视频,与给定的音频文件同步。Loopy利用先进的扩散模型技术,无需额外的空间信号或条件,捕捉并学习长期运动信息,从而生成自然流畅的动作。其主要功能包括音频驱动、面部动作生成、无需额外条件以及长期运动信息捕捉。Loopy适用于娱乐、教育、影视制作等多种场景。

Yuxi

Yuxi-Know是一款基于RAG和知识图谱技术的智能问答平台,支持多种文档格式上传与向量化存储,可高效检索并生成准确答案。集成Neo4j知识图谱,支持复杂关系查询,兼容多模型平台及本地部署。提供智能体拓展、网页检索和可视化配置功能,适用于企业知识管理、教育、客服、医疗及科研等领域,提升信息处理效率与准确性。

Stable Video 3D (SV3D)

Stable Video 3D(SV3D)是一款由Stability AI公司开发的多视角合成和3D生成模型,能够从单张图片生成一致的多视角图像,并进一步优化生成高质量的3D网格模型。该模型在视频扩散模型基础上进行改进,提供更好的质量和多视角体验。主要功能包括多视角视频生成、3D网格创建、轨道视频生成、相机路径控制以及新视角合成。SV3D在新视角合成方面取得显著进展,能够生成逼真且一致的视图,提升

启元重症大模型

启元重症大模型是一款面向ICU环境的医疗人工智能系统,依托于腾讯的混元大模型架构,集成了庞大的医学知识库和先进的自然语言处理技术,能够快速生成病历、总结病情、提供诊疗建议等,大幅提升了重症医疗的服务质量和工作效率。其核心技术包括医学知识图谱构建、数据处理与分析、模型压缩优化以及临床逻辑推理能力,适用于多种应用场景如ICU监护、智能辅助诊疗、病历自动化生成等。

WorldSense

WorldSense是由小红书与上海交通大学联合开发的多模态基准测试工具,用于评估大型语言模型在现实场景中对视频、音频和文本的综合理解能力。该平台包含1662个同步视频、3172个问答对,覆盖8大领域及26类认知任务,强调音频与视频信息的紧密耦合。所有数据经专家标注并多重验证,确保准确性。适用于自动驾驶、智能教育、监控、客服及内容创作等多个领域,推动AI模型在多模态场景下的性能提升。

VideoJAM

VideoJAM是Meta开发的视频生成框架,旨在提升视频运动连贯性。通过联合学习外观与运动信息,在训练阶段同时预测像素和运动特征,并在推理阶段利用动态引导机制优化生成结果。该技术具备高度通用性,可适配多种视频生成模型,无需调整训练数据或模型结构,已在多项基准测试中表现优异,适用于影视、游戏、教育等多个领域。

Qwen2

Qwen2是由阿里云通义千问团队开发的大型语言模型系列,涵盖从0.5B到72B的不同规模版本。该系列模型在自然语言理解、代码编写、数学解题及多语言处理方面表现出色,尤其在Qwen2-72B模型上,其性能已超过Meta的Llama-3-70B。Qwen2支持最长128K tokens的上下文长度,并已在Hugging Face和ModelScope平台上开源。 ---

Audio2Photoreal

从音频生成全身逼真的虚拟人物形象。它可以从多人对话中语音中生成与对话相对应的逼真面部表情、完整身体和手势动作。