图像

小白AI

全球AI集合站,集合了包含GPT,midjourney等全球优秀AI优秀工具。

freeflo

FreeFlo 是一款面向创意工作者的 AI 工具,提供丰富的艺术风格提示词库,支持主流 AI 图像生成平台。其功能涵盖风格化提示词、SREF 参数代码及精选图片资源,适用于艺术创作、平面设计、游戏开发、影视制作及教育等多个领域,助力提升创意项目的效率与质量。

TinEye

一个强大的反向图像搜索引擎,TinEye通过上传图片或输入图片的URL来查找互联网上相同或相似的图像。

VidFul.ai

一个利用Kling AI和Luma AI Dream Machine技术的AI视频生成器,将文本和图像快速转化为专业视频。用户只需通过VidFul.ai输入文本或上传图像,即可轻松生成不错的视频。

R1

R1-Onevision 是一款基于 Qwen2.5-VL 微调的开源多模态大语言模型,擅长处理图像与文本信息,具备强大的视觉推理能力。它在数学、科学、图像理解等领域表现优异,支持多模态融合与复杂逻辑推理。模型采用形式化语言和强化学习技术,提升推理准确性与可解释性,适用于科研、教育、医疗及自动驾驶等场景。

Stable Diffusion 3.5

Stable Diffusion 3.5是一套由Stability AI开发的先进AI图像生成模型,包含多个版本以适应不同需求。它具备高定制性、高效的消费级硬件运行能力和开源许可,能够生成高质量、多样化的图像,支持多种风格和肤色表现。其核心技术基于多模态学习和优化的架构,适用于艺术创作、游戏开发、广告设计等多个领域。 ---

InstructMove

InstructMove是由东京大学与Adobe合作开发的图像编辑模型,基于视频帧对变化学习如何根据指令进行图像操作。它能够执行非刚性编辑、视角调整和元素重排等任务,同时支持精确的局部编辑。该模型采用真实视频数据训练,提升编辑自然性与真实性,适用于影视、广告、设计等多个领域。其技术基于多模态语言模型和扩散模型,结合掩码和ControlNet等控制机制,实现灵活高效的图像编辑。

HunyuanCustom

HunyuanCustom是腾讯混元团队开发的多模态视频生成框架,支持图像、音频、视频和文本等多种输入条件,生成高质量定制化视频。采用文本-图像融合与图像ID增强技术,提升身份一致性和视频真实性。适用于虚拟人广告、虚拟试穿、视频编辑等场景,具备音频驱动和视频驱动两种生成方式,展现强大可控性与灵活性。

Perception

Perception-as-Control是由阿里巴巴通义实验室开发的图像动画框架,支持对相机和物体运动的细粒度控制。它基于3D感知运动表示,结合U-Net架构的扩散模型,实现多种运动相关的视频合成任务,如运动生成、运动克隆、转移和编辑。通过三阶段训练策略,提升运动控制精度和稳定性,适用于影视、游戏、VR/AR、广告及教育等多个领域。

Deep Anime

Deep Anime是一款功能强大的应用程序,允许用户将任何照片转换成令人惊叹的动漫场景。