智能时代 Archiver

明敏 发表于 2022/10/23 19:29:38

DALL-E 2 语文水平被吐槽:金子和鱼画成真金・鱼,遇到一词多义就拉胯,失误率超 80%

以画画水平高超而风靡全球的 DALL-E 2,语文水平被质疑了。

比如 bat 这个多义词,就把它给考住了。

a bat is flying over a baseball stadium(一只蝙蝠 / 球棍从棒球场上飞过)。

结果它画出来的图,蝙蝠和球拍都在天上飞。

而且这不是偶然的失误,如果输入“a person is hearing a bat”,画出来的还是蝙蝠和球棒都存在。

换成另一种情况,输入 a fish and a gold ingot(一条鱼和一个金锭)。

好嘛,直接把两种东西都铸金了,变成真金・鱼。

可不能低估了这些失误,因为它们意味着 DALL-E 2 在根据文本生成图像的过程中,对语言中符号到实体的基本映射关系。

即一个词对应一个实体。

以 bat 举例,画出蝙蝠或者球棍,都算 DALL-E 2 理解正确,但是如果两个都给,那就有问题了。

这就好比本身是单选题,填 A 或 B 都对,可是把两个都写上就违反了规则。

更何况有时候它还把不同物体的修饰词弄错,“上一道题的解法用在下一道上”。

发现这一问题的,是来自巴伊兰大学、艾伦人工研究智能所的学者们,并且专门写了篇论文分析。

有趣的是,研究人员约阿夫・高柏(Yoav Goldberg)还提到,这种情况在 mini DALL-E 和 Stable Diffusion 中并不常见。

我猜这可能是因为所谓的逆规模现象(inverse scaling)。

简单理解就是“模型越大性能越差”。

论文具体说了啥?

几位学者在发现问题后,又反复进行了多次试验,并把问题主要划分为三种情况:

第一、一个单词被解释为两个不同的事物

第二、一个单词被解释为两个不同事物的修饰词

第三、一个单词在被解释为一个事物的同时,又被理解成另一种事物的修饰词

前两种情况开头已经提过。

第三种情况举例来说,输入“一匹斑马和一条街道”,输出的结果中一直都有斑马线。

在这里,DALL-E 2 把斑马同时解释了两次。

在针对这些情况都重复试验后,作者计算出 DALL-E 2 在三种情况下,出现失误的概率都超过 80%

其中第二种情况的失误率最高,达到 97.2%

第三种情况下,如果给另一个名词前加上新的修饰词,可以避免失误发生。

即输入一匹斑马和一条碎石路,路面上就没有斑马线出现了。

而在用 DALL-E mini 和 Stable Diffusion 时,这些重复解释的情况并不常见。

作者解释,未来可以考虑研究模型的文本编解码器来追溯这些问题,并且可以研究这些问题和模型大小、框架是否有关系。

作者之一 Yoav Goldberg 是巴伊兰大学的杰出教授,也是艾伦人工智能研究院以色列分院的研究主任。

之前,他在纽约的谷歌研究中心做博士后。研究兴趣方向为 NLP 和机器学习,尤其对语法解析感兴趣。

还曾发现 DALL-E 2 自创语言

不过就在几个月之前,一位计算机专业的博士小哥发现,给 DALL-E 2 喂一些奇怪的语言,它也能生成同一类的图像。

而这些词,正是来自 DALL-E 2 生成图像中的。

比如输入“两个农民谈论蔬菜,带字幕(Two farmers talking about vegetables, with subtitles)”后,DALL-E 2 给出的图像中,出现了一些“乱码”的词汇。

而如果再把图像中的新词 Vicootes”当作描述丢给模型,没想到,出来这样一堆图像:

有萝卜、有南瓜、有小柿子…… 难道“Vicootes”就代表蔬菜?

如果再把上图气泡中一串“Apoploe vesrreaitais”扔给 DALL-E 2,一堆鸟图出现了:

“难道说,这个单词代表‘鸟’,所以农民们似乎在谈论影响他们蔬菜的鸟类?”

当时,这位博士小哥把自己的发现发布在网络上后,立刻引起热议。

有人试图分析 DALL-E 2 是如何加密语言的,还有人觉得这只是噪声。

不过总的来说,在语言理解方面,DALL-E 2 总能搞出点让人意想不到的事。

你觉得这背后原因到底是什么呢?

论文地址:

参考链接:

本文来自微信公众号:量子位 (ID:QbitAI),作者:明敏

查看完整版本: DALL-E 2 语文水平被吐槽:金子和鱼画成真金・鱼,遇到一词多义就拉胯,失误率超 80%