Bengio团队提出多模态新基准,直指Claude 3.5和GPT-4o弱点
AIxiv专栏是本站发布学术、技术内容的栏目。过去数年,本站AIxiv专栏接收报道了2000多篇内容,覆盖全球各大高校与企业的顶级实验室,有效促进了学术交流与传播。如果您有优秀的工作想要分享,欢迎投稿或者联系报道。投稿邮箱:liyazhou@jiqizhixin.com;zhaoyunfeng@jiqizhixin.com
本文作者张天宇,就读于加拿大mila人工智能研究所,师从图灵奖得主yoshua bengio教授。博士期间的主要工作聚焦于多模态、gflownet、多智能体强化学习、ai于气候变化的应用。目前已在icml、iclr、icassp等机器学习顶会发表论文。代表作为large-scale contrastive language-audio pretraining with feature fusion and keyword-to-caption augmentation (clap)。
想要达成通用人工智能 AGI 的终极目标,首先要达成的是模型要能完|成人|类所能轻松做到的任务。为了做到这一点,大模型开发的关键指导之一便是如何让机器像人类一样思考和推理。诸如注意力机制和思维链(Chain-of-Thought)等技术正是由此产生的灵感。然而,可能很多人并没有意识到,很多对人类来说很简单的认知任务也往往伴随着非常复杂的推理过程。举个栗子,请大家试试根据下方的图片填补被遮挡的文字空白:
☞☞☞AI 智能聊天, 问答助手, AI 智能搜索, 免费无限量使用 DeepSeek R1 模型☜☜☜

(正确答案:来自全球各地的机器学习研究人员都对新型 GPU 感到兴奋。它的尖端功能也能让大规模实验更高效、更便宜,即使它有炉灶那么大。)对大多数中文母语者而言,这个任务应该不难,相信大家不需要几秒钟就可以得到答案。但想从露出的部分文字推断完整文字仍然需要十分复杂的推理过程:当代神经科学研究表明,复原被部分遮挡物体需要能进行高级决策的前额叶皮质的高度参与。我们知道,当前的视觉语言模型(Vision-Language Models, VLM)可以非常精确地进行物体识别和文字识别。但是,当被遮挡的部分是文字;当模型的光学字符识别(OCR)失效;当仅有的关键信息只有被遮挡文字的几个像素,模型能够模拟人类的推理过程完成这一任务吗?为此,来自图灵奖得主 Yoshua Bengio 的团队提出了全新的视觉问答任务:视觉字幕恢复(Visual Caption Restoration,VCR)。让我们借由这个任务对视觉语言模型的推理能力一探究竟:当前的视觉语言模型距离人类的认知水平还有多长的路要走?
- 论文标题:VCR: Visual Caption Restoration
- 论文链接:arxiv.org/abs/2406.06462
- 代码仓库:github.com/tianyu-z/VCR (点击阅读原文即可直达,包含评用于模型评测和预训练的数据生成代码)
- Hugging Face 链接:huggingface.co/vcr-org
为了开发 VCR 任务,研究人员构建了一个由图像 - 文字生成 VCR 合成图像的流程。在该流程中可以通过控制遮住文字的白色矩形大小来改变图像中文本的可见性,从而控制任务难度。借由该数据生成流程,研究人员通过维基百科的主图 - 介绍对生成了 VCR-wiki 数据集。对两种语言均设置 “简单” 和 “困难” 两个难度级别。其中:
- “简单” 难度 VCR 任务能使得 OCR 模型失效;
- “困难” 难度 VCR 任务则对每个被遮挡的文本只保留上下各 1-2 个像素的高度,但依然能让对应语言的使用者完成任务。
每种语言和难度中,测试集和验证集各有 5000 个样本,剩下的样本都在训练集中。
图例:从左到右分别为,英文简单难度、英文困难难度、中文简单难度、中文困难难度文章开头的例子对人类而言只是一个小挑战,不能很好地展示人类做这个任务的极限水平以及人类在解题的时候运用的思维和技巧。下面展示了一个 “困难” 难度的 VCR 任务样例。读者可以更专注地尝试自己填补下方被遮挡的文字空白。
(正确答案:至大论,古希腊托勒密在约公元 140 年编纂的一部数学、天文学专著,提出了恒星和行星的复杂运动路径。直到中世纪和文艺复兴早期,该书提出的地心说模型被伊斯兰和欧…)教育学和认知科学中有一个概念叫做元认知(meta-cognition)。在设计 AI 的时候,我们人类作为教师,可以通过监控自己的思维过程当作参考来帮助作为模型的学生提高学习效率。因此,思考 “人类是如何完成 VCR 任务的” 可以对模型设计有指导意义。下图展示了一种笔者对 VCR 任务的解题思路作为参考:
看似步骤很多,其实就是在不断通过不同的区域获取信息再反复验证来增加回答的置信度。最开始看到图片时,心里只有一个模糊的猜测,在不断阅读图片获取新信息的过程中,逐步验证猜测。阅读完毕后,开始填空时,仍然没有停止通过信息的不同方面来相互对照,印证答案。当 “假设” 无法与其他信息保持一致时,就会推翻 “假设”,重新尝试新的假设。人类在 VCR 任务下的水平如何呢?下图中展示了母语者或各语言的流利使用者在英 / 中两种语言的简单 / 困难设定下的准确度:

码上飞
码上飞(CodeFlying) 是一款AI自动化开发平台,通过自然语言描述即可自动生成完整应用程序。
430
查看详情
如果考虑包含时间、地名、人名的错误,人类在简单难度下的中文平均正确率约为 98.58%,在困难难度下的中文平均正确率约为 91.84%。而去掉这些因为时间、地名、人名的错误,人类在简单难度的中文下几乎接近满分,而中文困难难度下正确率也达到了 96.63%。可以看出,VCR 任务对于人类而言是非常简单的。作者测试了 “全明星阵容”:Claude 3 Opus, Claude 3.5 Sonnet, Gemini 1.5 Pro, GPT-4o, GPT-4 Turbo, Qwen-VL-Max, Reka Core 以及一些目前性能最好的开源模型。下图中展示了在 VCR-Wiki 中文的简单难度上各个模型的性能:
红框测量指标包括代表包含了图像(VI)和图像中的文字(TEI)两部分作为上下文信息,模型能还原出被遮住的文字的准确率。蓝色框内表示仅包含图像中的文字(TEI)的作为上下文信息,并不包含图像(VI),模型能还原出的遮住文字的准确率。
- 绝大多数模型没有利用好图像信息,没有因为图像信息(VI)而提高准确率。
在中文的困难难度上,模型遇到了更大的麻烦。表现得最好的是 GPT-4o,但其只有 2.2% 的准确率。除了 CogVLM2-Chinese 和 Qwen-VL-Max,绝大多数模型的准确率都接近 0%。可以观察到,在困难模式下,原始模型很难在本问题上以显著的比例答对,更不用说接近人类了。作者同样对目前最优的开源和闭源视觉 - 语言模型在英文 VCR-Wiki 上做了测试。在展示测试结果之前,请先看两个英文 VCR-Wiki 任务的样例:
(正确答案:Since the United States Post Office issued its first stamp in 1847, over 4,000 stamps h*e been issued and over 800 people featured. Many of these people...)
(正确答案:Lincoln is the luxury vehicle division of American automobile manufacture
r Ford. Marketed among the top luxury vehicle brands in the United States, for...)文中展示的英文 VCR-Wiki 的测试结果如下:
从结果整体来看,模型在英文的简单模式和困难模式下都分别比中文表现得要好。这个结果与我们一般认为的 "因为特殊的模块化构形,残缺的中文更加容易被补全" 的直觉不一致。或许这是由于在预训练过程中,英文在数据量和数据质量上相比中文有更大的优势。在所测试的众多模型中,GPT-4o 是闭源模型中的效果最佳的,CogVLM2 是开源模型中表现最佳的。一个很有趣的现象是加入了图片对 CogVLM2 来说有了明显的帮助(在困难模式下提升了 20.3%),而对于 GPT-4o 而言反而结果有下降。在中文测试中,也有相似的现象。笔者认为这是模型的结构所导致的。具体的细节,欢迎读者参阅 CogVLM 系列的论文以及代码。另外,闭源模型普遍取得了比开源模型更优的结果,这可能归功于更优的训练策略或是更多的模型参数。但即使如此,模型依然在 “困难” 设定下遇到了很大的挑战。开源模型虽然可以部分完成 “简单” 设定,但在困难设定下,大多数开源模型都无法完成这个对人类而言十分简单的任务。视觉问答(Visual Question Answering, VQA)任务要求模型根据输入的图像和自然语言问题生成自由形式的回答。由于没有唯一的标准答案,评估 VQA 具有很大的挑战性。传统的 VQA 方法主要集中于图像中可见元素的直接查询,而不涉及图像中嵌入的文本内容与整体图像上下文之间的复杂关系。在一些文字在图片中信息占比比较大的 VQA 评测中,模型的视觉模块甚至可能完全不需要与语言模块对齐就可以胜任。此类流程为:图像输入给 OCR 视觉模块,OCR 视觉模块输出图像中的字符信息并以此为上下文输入给语言模块。这样就导致了 VQA 任务退化成了不需要图像信息的 QA 任务。原本比较不同的 VLM 需要的视觉模块对齐能力被忽视而 OCR 能力被重视。光学字符识别(Optical Character Recognition, OCR)任务通常输入图像中的完整字符,并输出表示图像中字符的字符串文本,而无需考虑图像上下文。预训练过 OCR 的模型能够从输入图像中提取嵌入的文本,即使这些文本是不完整或模糊的。然而,随着文本组件模糊或被遮挡的程度增加,只利用可见部分恢复原始文本变得困难,OCR 方法在这种情况下效果有限。可以看出,VQA 任务没有标准答案,评估模型回答的质量仍然是一个开放性问题。而 OCR 任务不需要通过上下文来完成,无法检验模型是否真的学会利用了上下文中的信息。视觉字幕恢复(Visual Caption Restoration, VCR)任务旨在恢复图像中被遮挡的文本,这一任务在 VQA 和 OCR 之间架起了桥梁。
- VCR 任务的独特挑战在于要求模型在视觉和文本信息之间进行精确的对齐,这与 OCR 的简单文本提取任务形成鲜明对比。在 OCR 中,主要关注的是识别可见字符,而无需理解它们在图像叙事中的上下文相关性。相比之下,VCR 要求模型协同利用可用的部分像素级文本提示和视觉上下文来准确地重建被遮挡的内容。这不仅测试了模型处理嵌入文本和视觉元素的能力,还考验了其保持内部一致性的能力,类似于人类通过上下文和视觉线索进行理解和响应的认知过程。
- 与 VQA 不同,VCR 任务的问题有唯一的答案,这使得评估可以通过准确度进行,使评测指标更加明确。
- 通过调整文本的遮盖比例,可以控制任务的难度,从而提供一个丰富的测试环境。
- 与 OCR 任务一样,VCR 任务也可以充当 VLM 的训练任务。作者开放了 transform 代码,可以生成任意给定图像 - 文字对的 VCR 任务图。
本文提出的视觉字幕恢复(VCR)任务通过看似简单的字幕恢复任务巧妙地揭开了现有模型图像 - 文本对齐的局限性,以及模型与人类在高级认知任务上的推理能力差异。相信这一任务可以启发未来更加有效的 VLM 训练、评测和推理方法,进一步拉近多模态模型和人类认知能力的差距。以上就是Bengio团队提出多模态新基准,直指Claude 3.5和GPT-4o弱点的详细内容,更多请关注其它相关文章!
# 这一
# 昆山市网站网站建设
# 景德镇网站建设管理
# 智能营销网站推广平台
# 南昌品牌营销推广哪家好
# 宁乡互联网营销推广公司
# 优化网站主栏目
# 谷歌seo 优化师薪酬多少
# 延边州医院网站建设
# seo黑帽培训学校
# seo优化裤子
# 自然语言
# 样例
# 这是
# 可以通过
# 工程
# 的是
# 不需要
# 开源
# 英文
# 多模
# op
# udio
# qwen
# claude
# gemini
# hugging face
# office
# git
# 视觉字幕恢复
相关栏目:
【
Google疑问12 】
【
Facebook疑问10 】
【
优化推广96088 】
【
技术知识133117 】
【
IDC资讯59369 】
【
网络运营7196 】
【
IT资讯61894 】
相关推荐:
“世界人工智能之都”的新烦恼:AI热潮无法拉动大量就业
当一切设备都受到人工智能的控制
2025世界人工智能大会成功召开
AI 模型 Stable Diffusion 升级:正常生成五指、图像更逼真
苹果机器学习关键人物 Ali Farhadi 离职,回归 AI2 担任 CEO
传字节内测对话式 AI 产品,代号「Grace」;马斯克嘲讽苹果 头显;比亚迪 F 品牌定名「方程豹」
周星驰支持的人工智能与 Web3 初创公司 Moonbox 完成 100 万美元融资
“可用”“有用”的讯飞星火认知大模型将亮相世界人工智能大会
智能电网技术:提高能源效率和可靠性
国宝级文物“铜兽驮跪坐人顶尊铜像”完成模拟拼接,腾讯AI立功
衡水市冀州中学机器人社团在世界机器人大赛中斩获佳绩
GPT-4不能在麻省理工学院获得计算机科学学位
Transformer六周年:当年连NeurIPS Oral都没拿到,8位作者已创办数家AI独角兽
腾讯企点客服接待与营销分析能力升级!企业操作更高效、人机交互更智能
阿里大文娱CTO郑勇:生成式AI将引发内容行业巨变,*制作机会挑战并存
智能机器人正在彻底改变客户服务
美版贴吧8000小组自爆停摆!拒绝数据被谷歌OpenAI白嫖,CEO被网友骂翻:背刺第三方应用
清华&中国气象局大模型登Nature:解决世界级难题,「鬼天气」预报时效首次达3小时
"探索Meta发布的Quest MR/VR视频录制与拍摄指南"
一句话搞定数据分析,浙大全新大模型数据助手,连搜集都省了
边喷火边跳踢踏舞,机器狗最新技能爆火全网!网友直呼真·热狗
争鸣:OpenAI奥特曼、Hinton、杨立昆的AI观点到底有何不同?
探索人工智能和物联网的动态融合
喜马拉雅在国际会议挑战赛中突破语音重叠难题斩获第一 加速AI创新
联想戴炜:以全栈AI加速CT与IT融合,共建高质量算力网络
马斯克回应人工智能拯救世界:人类已处于“半机器人”状态
华为小艺AI助手将实现强大的大模型能力
“世界上最像人的机器人”接入 Stable Diffusion ,现场完成作画
J*a与人工智能结合:构建智能云服务
遵义市首次引入手术机器人,成功实施全膝关节置换术
令人震惊的特斯拉机器人
Unity发布Sentis和Muse AI工具,助力创作游戏和3D内容
人工智能领域,突破难题:国产大模型“无源之水”问题得到解决。
AI和ML推动联网设备的增长
人工智能赋能广西自然资源领域监测监管
陈根:ChatGPT和人类合作开发机器人
石头扫拖机器人 G20 618 福利来袭:4999 元,超值配件领到手软
无需照相馆,AI证件照生成软件即将推出
Bing 聊天机器人现支持在桌面端用语音提问
人工智能时代的科幻译者怎么办?“做好翻译工作的高端10%”|文化观察
【|直播|预告】人工智能高峰论坛将于7月2日13:30准时开播!
苹果2万5的AR遭遇砍单95%:不及预期
解决导航“最后50米”难题 高德地图升级AR步行导航找终点功能
首家承认ChatGPT影响其收入的公司Chegg选择拥抱AI ,裁减4%员工
对话式论文阅读工具PaperMate上线,综述细节AI告诉你
梦想实现!硬核科幻大片VR智能头盔即将问世
Meta发布音频AI模型,仅需2秒片段模拟真人语音
两架海燕号无人机交付中国气象局 助力建设国家级机动气象观测业务
网易易盾 AI Lab 论文入选 ICASSP 2025!黑科技让语音识别越“听”越准
马斯克“揭秘”人工智能真面目
2024-06-29