AI模型

Amodal3R

Amodal3R 是一种基于条件的 3D 生成模型,能够从部分遮挡的 2D 图像中重建完整的 3D 模型。通过引入掩码加权多头交叉注意力机制和遮挡感知注意力层,提升了遮挡场景下的重建精度。该模型仅使用合成数据训练,却能在真实场景中表现出色,具有较强的泛化能力。广泛应用于 AR/VR、机器人视觉、自动驾驶及 3D 资产创建等领域。

MiniCPM 3.0

MiniCPM 3.0是一款由面壁智能开发的高性能端侧AI模型,具有40亿参数。它采用LLMxMapReduce技术,支持无限长文本处理,增强了上下文理解能力。MiniCPM 3.0在Function Calling方面表现出色,接近GPT-4o的水平。该模型还包括RAG三件套,提升了中文检索和内容生成的质量。模型已开源,量化后仅占用2GB内存,适合端侧设备部署,保障数据安全和隐私。

Eluna.ai

一个由 AI 驱动的文生图平台。借助 eluna.ai,您可以利用大量功能将简单的文本转换为引人入胜的视觉设计。无论您的目标是生成详细的图像、尝试无限缩放、从图像中删除背景,还是放大现有图像,eluna.ai 都能满足您的需求。

拾柒AI

拾柒AI正规对接拾柒AI旗下对话模型(当前最强AI模型),连接世界最强互联网数据库,拾柒AI的价格仅为官网的10分之一。拾柒AI提供更为丰富的前端配置,中文页面,无需梯子,一站式服务体验,入门轻松无比。

LTM

LTM-2-mini是一款由Magic公司开发的AI模型,支持处理高达1亿token的上下文信息。该模型采用序列维度算法,计算效率显著优于传统模型,适用于处理大规模代码库和相关文档,生成高质量代码。其长期记忆网络架构和HashHop评估体系进一步提升了模型在处理长上下文时的性能和多步推理能力。LTM-2-mini可用于代码生成与补全、代码审查、文档自动化、任务自动化及知识库构建等多种应用场景。

汉语新解TextHuman

一个基于李继刚Prompt模板的项目,汉语新解对中文名词进行二次翻译,并生成美观的图像。TextHuman提供智能词汇解释,用户可以输入任何汉语词汇,获得AI生成的新颖解释。

BLIP3

BLIP3-o是Salesforce Research等机构推出的多模态AI模型,结合自回归与扩散模型优势,实现高效图像理解和生成。基于CLIP语义特征,支持文本与图像间的双向转换及图像编辑。采用顺序预训练策略,提升模型性能。完全开源,适用于创意设计、视觉问答、艺术生成等多种场景。

ViLAMP

ViLAMP是由蚂蚁集团与中国人民大学联合开发的视觉语言模型,专为高效处理长视频设计。采用混合精度策略,支持在单张A100 GPU上处理长达3小时的视频,提升处理效率并降低计算成本。具备长视频理解、关键信息提取、多任务处理等功能,适用于教育、监控、直播、影视制作及智能客服等场景。技术上通过差分关键帧选择与特征合并优化性能,实现精准且高效的视频分析。

UltraMem

UltraMem是字节跳动推出的超稀疏模型架构,通过优化内存访问和计算效率,显著降低推理成本并提升速度。其核心技术包括多层结构改进、TDQKR和IVE,使模型在保持性能的同时具备更强的扩展性。适用于实时推理、大规模模型部署及多个行业场景。

Seaweed

Seaweed-7B 是一款由字节跳动开发的视频生成模型,拥有约 70 亿参数,支持从文本、图像或音频生成高质量视频。具备文本到视频、图像到视频、音频驱动生成、长镜头、连贯叙事、实时生成等功能,适用于内容创作、教育、广告等多个领域。采用变分自编码器和扩散变换器技术,结合多阶段训练与优化策略,提升生成效率与质量,兼顾性能与成本效益。