苹果文生图大模型亮相:俄罗斯套娃式扩散,支持1024x1024分辨率
习惯了 Stable Diffusion,如今终于又迎来一个俄罗斯套娃式(Matryoshka)Diffusion 模型,还是苹果做的。
在生成式 AI 时代,扩散模型已经成为图像、视频、3D、音频和文本生成等生成式 AI 应用的流行工具。然而将扩散模型拓展到高分辨率领域仍然面临巨大挑战,这是因为模型必须在每个步骤重新编码所有的高分辨率输入。解决这些挑战需要使用带有注意力块的深层架构,这使得优化更困难,消耗的算力和内存也更多。
怎么办呢?最近的一些工作专注于研究用于高分辨率图像的高效网络架构。但是现有方法都没有展示出超过512×512分辨率的效果,并且生成质量落后于主流的级联或 latent 方法。
我们以 OpenAI DALL-E2、谷歌 IMAGEN 和英伟达 eDiffI 为例,它们通过学习一个低分辨率模型和多个超分辨率扩散模型来节省算力,其中每个组件都单独训练。另一方面,latent 扩散模型(LDM)仅学习低分辨率扩散模型,并依赖单独训练的高分辨率自编码器。对于这两种方案,多阶段式 pipeline 使训练与推理复杂化,从而往往需要精心调整或进行超参。
本文中,研究者提出了俄罗斯套娃式扩散模型(Matryoshka Diffusion Models,MDM)它是用于端到端高分辨率图像生成的全新扩散模型。代码很快将释出。
论文地址:https://arxiv.org/pdf/2310.15111.pdf
该研究提出的主要观点是将低分辨率扩散过程作为高分辨率生成的一部分,通过使用嵌套 UNet 架构在多个分辨率上执行联合扩散过程。
该研究发现:MDM 与嵌套 UNet 架构一起实现了1)多分辨率损失:大大提高了高分辨率输入去噪的收敛速度;2)高效的渐进式训练计划,从训练低分辨率扩散模型开始,按照计划逐步添加高分辨率输入和输出。实验结果表明,多分辨率损失与渐进式训练相结合可以让训练成本和模型质量获得更好的平衡。
该研究在类条件图像生成以及文本条件图像和视频生成方面评估了 MDM。MDM 让训练高分辨率模型无需使用级联或潜在扩散(latent diffusion)。消融研究表明,多分辨率损失和渐进训练都极大地提高了训练效率和质量。
我们来欣赏以下MDM 生成的图片和视频。
方法概览
研究者介绍称,MDM 扩散模型在高分辨率中进行端到端训练,同时利用层级结构的数据形成。MDM 首先在扩散空间中泛化了标准扩散模型,然后提出了专用的嵌套架构和训练流程。
首先来看如何在扩展空间对标准扩散模型进行泛化。
与级联或 latent 方法的不同之处在于,MDM 通过在一个扩展空间中引入多分辨率扩散过程,学得了具有层级结构的单个扩散过程。具体如下图2所示。
具体来讲,给定一个数据点 x ∈ R^N,研究者定义了与时间相关的隐变量 z_t = z_t^1, . . . , z_t^R ∈ R^N_1 ...NR。
研究者表示,在扩展空间中进行扩散建模有以下两点优点。其一,我们在推理期间通常关心全分辨率输出 z_t^R,那么所有其他中等分辨率被看作是额外的隐变量 z_t^r,增加了建模分布的复杂度。其二,多分辨率依赖性为跨 z_t^r 共享权重和计算提供了机会,从而以更高效的方式重新分配计算,并实现高效训练和推理。
接下来看嵌套架构(NestedUNet)如何工作。
与典型的扩散模型类似,研究者使用 UNet 网络结构来实现 MDM,其中并行使用残差连接和计算块以保留细粒度的输入信息。这里的计算块包含多层卷积和自注意力层。NestedUNet 与标准 UNet 的代码分别如下。
除了相较于其他层级方法的简单性,NestedUNet 允许以最高效的方式对计算进行分配。如下图3所示,研究者早期探索发现,当以最低分辨率分配大部分参数和计算时,MDM 实现了明显更好的扩展性。
最后是学习。
研究者使用常规去噪目标在多个分辨率下训练 MDM,如下公式 (3) 所示。
这里用到了渐进式训练。研究者按照上述公式 (3) 直接对 MDM 进行端到端训练,并展示出了比原始基线方法更好的收敛性。他们发现,使用类似于 GAN 论文中提出的简单渐进式训练方法,极大地加速了高分辨率模型的训练。
这一训练方法从一开始就避免了高成本的高分辨率训练,加速了整体收敛。不仅如此,他们还合并了混合分辨率训练,该训练方法在单个 batch 中同时训练具有不同最终分辨率的样本。
实验及结果
MDM 是一种通用技术,适用于可以逐步压缩输入维度的任何问题。MDM 与基线方法的比较如下图4所示。
表1给出了在 ImageNet(FID-50K)和 COCO(FID-30K)上的比较结果。
下图5、6、7展示了 MDM 在图像生成(图5)、文本到图像(图6)和文本到视频(图7)方面的结果。尽管是在相对较小的数据集上进行训练的,但 MDM 仍显示出生成高分辨率图像和视频的强大零样本(zero-shot)能力。
感兴趣的读者可以阅读论文原文,了解更多研究内容。
薇娅电商公司申请注销
企查查APP显示,近日,杭州谦寻电子商务有限公司新增简易注销公告,公告期自6月7日至26日。信息显示,谦寻电子商务公司成立于2016年11月,注册资本100万元,法定代表人为黄薇(薇娅)丈夫董海峰,同时,董海峰持有该公司51%股份,是公司大股东、实际控制人。此外,该公司还注册有“谦寻直播机构”公众号、“谦寻”“薇你而选”商标等。站长网2023-06-12 17:18:150001Meta发布机器学习模型Voicebox:可从文本生成语音 精通六门语言
日前,Meta平台的人工智能研究部门推出了名为Voicebox的机器学习模型,可以将文本转换为语音。与其他文本转语音模型不同的是,Voicebox能够执行许多未经过训练的任务,包括编辑、去除噪音和样式转换。站长网2023-06-20 17:10:320001微软将在 OneNote 中推出 Copilot 以简化内容管理和规划
微软宣布,其AI助手Copilot将于11月开始引入OneNote,这个先进的AI助手是一种统一的Microsoft解决方案,可在多种服务中使用,包括Microsoft365套件,包括OneDrive、MicrosoftTeams和Windows11。站长网2023-10-13 15:01:480000本地生活第二梯队参战,谁能虎口夺食?
当互联网大厂们几乎摘完了“低垂的果实”,他们杀向更艰难的本地生活领域。今年年初,拼多多旗下社区团购小程序“快团团”开始测试本地生活产品功能。三个月时间,快团团已经开始在多地招商;4月,小红书瞄准餐饮领域,上线团购;一个月后,视频号也加入本地生活战局。不仅是新玩家,阿里和快手等老玩家也还没有放弃本地生活。3月,高德和口碑正式合并,高德成为阿里在本地生活的新入口。探索了几年后,快手还在继续测试。站长网2023-06-28 15:43:000000头部MCN案例拆解:把IP玩到极致是种什么体验?
最近这几年有一个很有意思的现象,IP化越来越多了。不论是品牌IP化、个人IP化,打造IP爆款实现变现这条路似乎变得越来越清晰。如果设定一个目标,要把IP在短时间内做起来,你会怎么做?有这样一位大IP老师,7天内创造全网20多亿的播放量,单条播放量达到6500多万,并且第一个月就变现几百万。0000