场景

T2I

T2I-R1是由香港中文大学与上海AI Lab联合开发的文本到图像生成模型,采用双层推理机制(语义级和 Token 级 CoT),实现高质量图像生成与复杂场景理解。其基于 BiCoT-GRPO 强化学习框架,结合多专家奖励模型,提升生成图像的多样性和稳定性。适用于创意设计、内容制作、教育辅助等多个领域,具有广泛的应用潜力。

Trace.moe

一个开源动漫场景搜索引擎,根据图像反向搜索动漫场景,帮助用户通过截图追溯原始动漫,完全免费无广告。

悟道大模型

北京智源研究院开发的一系列超大规模智能模型系统,悟道大模型旨在在语言处理领域达到或超越国际先进水平。

VideoPhy

VideoPhy是一款由UCLA和谷歌研究院联合开发的基准测试工具,旨在评估视频生成模型的物理常识能力。它包含688条描述性字幕,通过人类和自动评估方式,衡量生成视频是否符合物理规则。VideoPhy不仅揭示了现有模型的不足,还推出了自动评估工具VideoCon-Physics,以推动模型性能的提升。其应用场景广泛,包括视频生成模型开发、计算机视觉研究、教育与培训以及娱乐产业等。

LucidDreamer

LucidDreamer,可以从单个图像的单个文本提示中生成可导航的3D场景。 单击并拖动(导航)/移动和滚动(缩放)以感受3D。

viable

在不影响质量的情况下,使你...

KaChiKa

KaChiKa是一款基于AI图像识别的日语学习工具,用户可通过拍照或上传图片获取相关日语词汇和句子,并配有标准发音功能。支持本地存储学习卡片,方便复习,适用于日常生活、旅行、复习及语言实践等多种场景,提升学习效率与实用性。

BlenderMCP

BlenderMCP 是一款将 Blender 与 Claude AI 集成的工具,通过 socket 服务器实现双向通信,支持 3D 对象操作、材质控制、场景信息获取及 Python 代码执行。用户可通过自然语言指令高效完成建模任务,提升创作效率。工具由插件和服务器组成,采用 JSON 协议进行数据交互,适用于快速建模、场景优化及教育辅助等场景。