生成很强,推理很弱:GPT-4o的视觉短板
5 小时前 / 阅读约4分钟
来源:36kr
从惊艳到尴尬:GPT-4o图像理解能力实测全解析

如果让AI画一只狗站在“左边”,但事先告诉它“左就是右”,你觉得它能反应过来吗?

最近,UCLA的一项新研究用一系列精心设计的实验,揭开了GPT-4o在图像理解和推理上的短板——它画得漂亮,却未必真懂你的意思。

论文主线很直接,GPT-4o的画图能力确实惊艳,但真正涉及理解图像、语境推理、多步逻辑链条时,依然有明显短板。

这让我想起了“看起来很会,实际上还差点意思”那种AI微妙的尴尬。 

照例,我把三大实验部分,一个一个给大家说清楚,希望带你们完整感受下,这波研究到底发现了什么。 

01. 全局规则遵循失败

其实这个部分有点意思,就类似我们平常和朋友开玩笑:“以后我说左其实是右哦”,然后再让他“往左走一步”,看他会不会真的往右走。 

UCLA研究员给GPT-4o下了类似的套:“接下来‘left’都指‘right’”,“数字都要减2”,然后再让它“画一只狗在左边”,“画5只鸟”。 

本以为AI能举一反三,结果—— 

狗还是在左边,鸟还是5只,全然无视前面重新定义的规则。 

这说明什么? 

GPT-4o在图像生成时,还是字面理解指令,全局重定义、上文设定根本进不到它的“画画脑子”里。 

你想让它“灵活变通”,它却只会“忠实执行表面”,这跟人类的小聪明比还差了不少。 

02. 图像编辑:浅层语义理解暴露

第二部分测试更有挑战性,研究员让GPT-4o动手编辑图片。 

比如, 

“只改水里的马倒影为狮子,别动马本体。” 

结果AI一出手,马和倒影全变了。 

再比如, 

“只删掉画面里坐着的人。” 

结果站着的背景人也被一锅端了。 

这些例子直接暴露了一个问题: 

GPT-4o对于“局部修改”“语义限定”这类任务,根本把握不住分寸。

它没法精确地区分“倒影”与“实体”、“坐着”与“站着”,操作经常“过犹不及”,动错地方。 

说白了,AI的图像编辑理解,远没达到“人类看图、理解场景”的精细度。 

有点像让一个刚学会PS的小白去修图,没概念,纯靠猜。 

03. 多步推理与条件逻辑:彻底拉胯

最致命的短板,出现在“多步推理”和“条件判断”环节。 

比如, 

先叫GPT-4o画一只狗和一只猫,然后告诉它:“如果没有猫,把狗换成猫并搬到海滩。” 

但其实第一张图猫已经有了。 

按理说,这时候AI应该什么都不改。 

但它还是把狗换成猫,还把场景全搬了——条件完全没判对,逻辑也乱套。 

类似的例子还有很多,AI经常搞不清复杂条件,或者干脆“每条指令都照做”,不管前后有没有冲突。 

这印证了一个核心问题: 

GPT-4o不具备上下文敏感的推理能力,无法在复杂图像编辑任务中进行智能判断。

它在“理解前提—逻辑判断—再行动”这个链路上,明显还差一大截。 

总的来说,现在的AI,更像是个“精致的指令机器”,你让它画什么就画什么,但要让它“看懂规则、读懂场景、举一反三”,那还真得再进化几轮。 

这也让我想起,AI刚学会生成文字那会儿,大家觉得它“能写会说”,但一追问细节、让它编故事、圆逻辑,还是会出大大小小的bug。 

今天的GPT-4o,在图片领域面临的困境,其实和曾经的文本AI如出一辙: 

会画,但不一定会“理解”;能改,但不一定能“精准”;能听指令,但不一定能“举一反三”。 这也许是我们与“真正理解世界”的AI之间,最值得警惕、也最令人期待的那道坎。 

或许,下一次技术突破,就会从这里开始。 但至少现在,我们还没到那一步。 

via 

https://the-decoder.com/gpt-4o-makes-beautiful-images-but-fails-basic-reasoning-tests-ucla-study-finds/