Meta 公司发布 Imagine Yourself AI 模型

IT之家8月23日消息,从社交媒体到虚拟现实,个性化图像生成因其在各种应用中的潜力而日益受到关注。传统方法通常需要针对每位用户进行大量调整,从而限制了效率和可扩展性,公司发布模型为此Meta公司创新提出了“ImagineYourself”AI模型。

传统个性化图像生成方法挑战目前的个性化图像生成方法通常依赖于为每个用户调整模型,这种方法效率低下,而且缺乏通用性。虽然较新的方法试图在不进行调整的情况下实现个性化,但它们往往过度拟合,导致复制粘贴效应。

ImagineYourself创新ImagineYourself模型不需要针对特定用户微调,通过单一模式能够满足不同用户的需求。

该模型解决了现有方法的不足之处,如倾向于毫无变化地复制参考图像,从而为更通用、更方便用户的图像生成流程铺平了道路。

ImagineYourself在保存身份、视觉质量和及时对齐等关键领域表现出色,大大优于之前的模型。

该模型的主要组成部分包括:

生成合成配对数据以鼓励多样性;

整合了三个文本编码器和一个可训练视觉编码器的完全并行注意力架构;

以及一个从粗到细的多阶段微调过程

这些创新技术使该模型能够生成高质量、多样化的图像,同时保持强大的身份保护和文本对齐功能。

ImagineYourself使用可训练的CLIP补丁编码器提取身份信息,并通过并行交叉注意模块将其与文本提示整合在一起,准确保存身份信息并对复杂的提示做出反应。

该模型使用低阶适配器(LoRA)仅对架构的特定部分进行微调,从而保持较高的视觉质量。

ImagineYourself的一个突出功能是生成合成配对(SynPairs)数据。通过创建包含表情、姿势和光照变化的高质量配对数据,该模型可以更有效地学习并产生多样化的输出结果。

值得注意的是,在处理复杂的提示词方面,与最先进的模型相比,它在文本对齐方面实现了 27.8%的显著改进。

研究人员使用一组51种不同身份和65个提示对ImagineYourself进行了定量评估,生成了3315幅图像供人类评估。

该模型与最先进的(SOTA)adapter-based模型和control-based模型进行了比对,重点关注视觉吸引力、身份保持和提示对齐等指标。

人工注释根据身份相似性、及时对齐和视觉吸引力对生成的图像进行评分。与adapter-based模型相比,ImagineYourself在提示对齐方面有了45.1%的显著提高,与基于控制的模型相比有了30.8%的提高,再次证明了它的优越性。

ImagineYourself模型是个性化图像生成领域的一大进步。该模型无需针对特定对象进行调整,并引入了合成配对数据生成和并行注意力架构等创新组件,从而解决了以往方法所面临的关键挑战。

IT之家附上参考地址

免责声明:本网站部分内容由用户自行上传,若侵犯了您的权益,请联系我们处理,谢谢!联系QQ:2760375052

分享:

扫一扫在手机阅读、分享本文