首页 产业新闻 AI 框架Ambient Diffusion:从图像中获取灵感,而非复制

AI 框架Ambient Diffusion:从图像中获取灵感,而非复制

产业新闻 1

    划重点:

    德克萨斯大学奥斯汀分校的研究队开发了一种框架,通过对无法辨认的图像进行训练,来训练 AI 模型。

    这一新提出的框架名为 Ambient Diffusion,它通过仅训练扰乱后的图像数据,绕过了这个问题。

    这一框架不仅对艺术领域有用,还有潜力应用于科学和医学领域,如黑洞成像和某些 MRI 扫描。

    强大的人工智能模型有时会出现错误,包括虚构错误信息或将他人作品作为自己的。为了解决后者的问题,德克萨斯大学奥斯汀分校的研究团队开发了一种名为 "Ambient Diffusion" 的框架。该框架通过对无法辨认的图像数据进行训练,绕过了 AI 模型复制他人作品的问题。

    DALL-E、Midjourney 和 Stable Diffusion 是文本到图像扩散生成的人工智能模型,它们能够将任意用户文本转化为高度逼真的图像。这三个模型都面临着艺术家提起诉讼的问题,他们声称生成的样本复制他们的作品。这些模型是通过训练数十亿个图像 - 文本对来实现的,这些对外不公开,它们能够生成高质量的图像,但可能会使用版权图像并复制它们。

    "Ambient Diffusion" 框架的提出解决了这个问题,通过仅通过扰乱后的图像数据对扩散模型进行训练。初步实验表明,该框架仍然能够生成高质量的样本,而不需要看到任何可识别为原始源图像的内容。研究团队首先在一组3000张名人图片上训练了一个扩散模型,然后使用该模型生成了新的样本。

    在实验中,用清晰的数据训练的扩散模型明显复制了训练样本。但当研究人员对训练数据进行扰乱,随机遮挡图像中的个别像素,然后用新的方法对模型进行重新训练时,生成的样本保持了高质量,但看起来完全不同。该模型仍然可以生成人脸,但生成的人脸与训练图像有明显的区别。

    研究人员表示,这指向了一个解决方案,尽管可能会改变性能,但永远不会输出噪声。这一框架为学术研究人员如何推进人工智能以满足社会需求提供了一个示例。德克萨斯大学奥斯汀分校已将2024年宣布为 "AI 之年",这是今年的一个关键主题。该研究团队还包括加州大学伯克利分校和麻省理工学院的成员。

    论文//arxiv.org/abs/2305.19256

    关联项目//github.com/giannisdaras/ambient-tweedie?tab=readme-ov-file

广告

文章目录

    标签列表