能处理任意条件组合的新生成框架来了!
复旦大学、腾讯优图实验室等机构的研究人员提出UniCombine,一种基于DiT的多条件可控生成框架,能够处理包括但不限于文本提示、空间映射和主体图像在内的任意控制条件的任意组合,并保持高度的一致性和出色的和谐性。
具体效果be like:
据了解,现有的多条件可控生成框架或是只能处理单一种类的多个条件,或是只适用于某种特定的多类别组合,从而普遍缺乏通用性的多类别+多条件的组合式生成能力。
而在UniCombine这项工作中,团队引入了一种新的Conditional MMDiT注意力机制,并结合可训练的LoRA模块,从而同时提供了training-free和training-based两种版本。
此外,团队构建并开源了首个针对多条件组合式生成任务设计的数据集SubjectSpatial200K,其中涵盖了subject-driven和spatially-aligned两大类控制条件。
UniCombine在4项不同的多条件可控生成任务上均达到SOTA,证明了新方法具有卓越的框架通用性和出色的条件一致性。
UniCombine方法
UniCombine框架图如下:
(a) 整体框架。团队将基于MMDiT的扩散模型视为由文本分支和去噪分支组成。在此基础上,UniCombine引入了多个条件分支来处理输入条件。
(b) UniCombine的单条件设置。该设置等价于OminiControl,即在单条件设置下,OminiControl是UniCombine框架的特例。
(c) UniCombine的多条件设置。团队提出的LoRA Switching模块可根据条件类型自适应激活去噪分支权重上的预训练Condition-LoRA模块。此外,团队引入了Conditional MMDiT Attention机制,以替换原始MMDiT Attention 机制,从而处理统一的多条件输入序列。是否加载可选的Denoising-LoRA模块是无训练版本和基于训练版本的区别。
SubjectSpatial200K数据集
团队的SubjectSpatial200K数据集旨在填补当前多条件生成任务中缺少公开可用数据集的空白。现有数据集未能同时包含主体驱动和空间对齐的标注。
最近,Subjects200K数据集提供了一个面向主体驱动生成的公开数据集。
在此基础上,团队构建了SubjectSpatial200K数据集,这是一个高质量的统一数据集,专为训练和测试多条件可控生成模型设计。该数据集包含全面的标注,包括丰富的Subject Grounding Annotation和Spatial Map Annotation。数据集的构建流程见图。
实验结果
(1)对比实验
(2)消融实验:CMMDiT与MMDiT
(3)消融实验:Denoising LoRA与Text-LoRA
(4)消融实验:DSB+SSB联合训练与DSB单独训练
(5)算力开销分析
整体而言,研究人员提出了UniCombine,这是一个基于DiT的多条件可控生成框架,能够处理任意条件组合,包括但不限于文本提示、空间映射和主体图像。
在主体插入、主体-空间以及多空间等条件生成任务上的大量实验表明,无论是无训练还是基于训练的版本,UniCombine都达到了最先进的性能。
此外,团队提出了SubjectSpatial200K数据集,以弥补当前缺少用于训练和测试多条件生成模型的公开数据集的不足。团队相信,该研究将推动可控生成领域的发展。
— 完 —