AnyEdit: Mastering Unified High-Quality Image Editing for Any Idea

浙江大学 + 南洋理工 + 蚂蚁集团,2024。

核心结论

  • 提出 AnyEdit 数据集:250 万高质量编辑对,覆盖 20+ 编辑类型5 个领域
  • 数据质量通过三方面保证:初始数据多样性、自适应编辑过程、编辑结果自动选择。
  • 训练 AnyEdit Stable Diffusion:引入 task-aware routing 和 learnable task embedding,实现统一图像编辑。
  • 在三个 benchmark 上一致提升扩散编辑模型性能。

关键设计

数据集三大支柱

  1. 初始数据多样性:覆盖多种图像域(自然、艺术、产品、人脸、场景)和编辑类型(替换、添加、删除、风格、颜色、纹理、姿态、表情等 20+)
  2. 自适应编辑过程:根据图像内容和编辑类型动态调整编辑策略
  3. 自动选择:训练评估模型自动筛选高质量编辑结果

Task-Aware Routing

  • 不同编辑类型需要不同的模型行为
  • Learnable task embedding 编码编辑类型信息
  • Task-aware routing 动态选择编辑路径
  • 相比一刀切的统一模型,在每种编辑类型上都有提升

与 UltraEdit 的对比

维度UltraEditAnyEdit
规模~4M2.5M
编辑类型数较多20+ 明确定义
核心创新真实图像 + LLM in-contextTask-aware routing
训练方法标准微调带 task embedding 的统一训练

与现有 Wiki 的关系