模型

IFAdapter

IFAdapter是一种由腾讯与新加坡国立大学联合开发的文本到图像生成模型,专为提高多实例图像生成时的空间定位与特征表达准确性而设计。它通过“外观标记”与“实例语义图”两大关键技术解决了传统方法中的定位与特征问题,并支持以即插即用的形式融入现有扩散模型,无需重新训练即可实现高效的空间控制。

Mirageml

Mirageml是一家使用人工智能 (AI) 帮助创意人员设计 3D 资源和场景的公司,Mirage 的 AI 可以根据自然语言提示或草图生成逼真且高质量的 3D 模型。

MindSearch

MindSearch是一款开源的AI搜索框架,由上海人工智能实验室联合研发团队推出。它结合了大规模信息搜集和整理能力,利用InternLM2.5 7B对话模型,可在短时间内从众多网页中搜集有效信息。该框架采用多智能体框架模拟人类思维模式,先规划后搜索,从而提高信息的准确性和完整性。主要功能包括复杂查询处理、动态图构建、并行信息检索、分层检索策略、上下文管理和响应生成等。其应用场景广泛,包括学术研究

AniTalker

AniTalker是一款先进的AI工具,能将单张静态人像与音频同步转化为生动的动画对话视频。它通过自监督学习捕捉面部动态,采用通用运动表示和身份解耦技术减少对标记数据的依赖,同时结合扩散模型和方差适配器生成多样且可控的面部动画。AniTalker支持视频驱动和语音驱动两种方式,并具备实时控制动画生成的能力。

云知声山海大模型

云知声山海大模型是一个多功能、跨领域的智能大模型,它通过集成丰富的知识库和先进的自然语言处理技术,为用户提供了一个强大的信息和知识服务平台。

LLM2LLM

LLM2LLM是一种基于教师-学生架构的迭代数据增强方法,通过生成针对性的合成数据提升语言模型在低数据量场景下的性能。该技术通过识别并强化模型预测错误的数据点,实现精准优化,同时控制数据质量和规模。适用于医学、法律、教育等数据稀缺领域,具有良好的可扩展性和实用性。

ScreenAI

ScreenAI是一款专为理解和处理用户界面(UI)及信息图表而设计的AI视觉语言模型。它能够识别和理解UI元素及其相互关系,并生成与屏幕UI元素相关的文本,如问题回答、UI导航指令和内容摘要。ScreenAI通过多模态编码器结合视觉和语言信息,并采用自回归解码器生成自然语言响应。此外,ScreenAI还能适应不同屏幕格式,提供精确的UI导航和内容摘要功能。

元象大模型XChat

元象大模型XChat是元象XVERSE推出的高性能AI产品,它通过自研技术,能够满足不同复杂度任务的需求,并在中文领域表现突出。

VideoAgent

VideoAgent是一款基于自改进机制的视频生成系统,结合图像观察与语言指令生成机器人控制视频计划。它采用自我条件一致性方法优化视频质量,通过预训练视觉-语言模型反馈和实际执行数据的收集,持续提升生成效果,减少幻觉内容并提高任务成功率。VideoAgent在模拟环境中有优异表现,并已应用于机器人控制、模拟训练、教育研究、游戏开发以及电影制作等领域,展现出广泛的应用潜力。

BISHENG毕昇大模型

一款基于 Apache 2.0 License 协议正式开源的领先开源大模型应用开发平台,能搭建分析报告生成、知识库问答、对话、要素提取等多种大模型应用。