分享好友 最新动态首页 最新动态分类 切换频道
9.11 和 9.9 哪个大?幼儿园小朋友能回答的问题,难倒一众AI…
2024-12-27 00:10

9.11 和 9.9 哪个大?

这一连人类幼儿园儿童都能回答的问题,曾经(至今)难倒了众多大语言模型(LLM)。

图片

然而,要想达到通用人工智能(AGI)的水平,LLM 不仅要完成“比大小”这种简单的逻辑推理,还需要完成难度更高的推理,比如“对复杂规则的理解与执行以及多步骤规划”,这是 LLM 智能体(agent)和决策系统的核心能力。

因此,如何有效评估 LLM 作为基于规则的执行者和规划者角色,至关重要。但是,目前学界和业界少有这方面的研究。

来自清华大学和智谱的研究团队推出了一项新的基准测试——LogicGame,旨在全面评估 LLM 在规则理解、执行和规划方面的能力。先看评测结果:

图片

图|LogicGame 的评测结果和样例展示。上图为各种模型在执行和规划类别中的表现;下图(左、右)分别为两个执行和规划类别案例研究。

除了看到 o1-preview、o-mini 的遥遥领先,我们也看到超过一半的模型得分不到 10%,如上图红色区域所示。

这一评测结果揭示了一个不容忽视的事实:大多数 LLM 在基于规则的逻辑推理上都存在着明显的缺陷。

相关研究论文以“LogicGame: Benchmarking Rule-Based Reasoning Abilities of Large Language Models”为题,已发表在预印本网站 arXiv 上。

图片

与传统基准测试不同,LogicGame 包含一系列多样化的游戏,每个游戏都有一套初始状态规则,这要求模型不仅能够理解这些预定义的规则,还可以应用它们来解决问题。而且,LogicGame 还同时考虑了最终结果和中间步骤,从而对模型性能进行全面的评估。

研究结果显示,通过设定不同难度的游戏场景,LogicGame 能够精确地衡量模型在规则理解和多步骤执行及规划任务上的表现。

LogicGame:“四级”难度游戏场景

遵循规则与推理的结合是完成许多现实世界任务的关键。然而,现有基准测试常常无法充分捕捉这一点。

为了填补这一空白,研究团队通过广泛的研究和众包开发了一套新颖的问题集。他们发现这些任务与某些游戏机制相似,因为现实世界的任务通常与游戏有着共同特征,比如需要遵循特定的规则,进而进行决策。因此,他们采用了游戏化的方法,从而能够对模型遵循规则的推理能力进行细致的评估。

其中,LogicGame 的数据构建,包含以下四个部分:

设计规则推理问题,灵感来自现实世界场景。由于现实世界任务往往具有游戏特征,例如需要遵循特定规则和做出决策,因此 LogicGame 采用了游戏化方法来评估模型的规则遵循和推理能力。

开发输出约束,确保模型输出符合标准格式。为了方便精确评估和简化匹配步骤,模型响应被要求遵循结构化的 JSON 输出格式。对于单步问题(Level 0),模型只需要输出最终答案,评估仅基于答案的正确性。对于涉及多步骤或更复杂推理的问题(Level 1、2、3 和某些 Level 0 问题),既要评估答案,也要评估步骤。

实现不同难度级别,并包含示例问题。有四个难度级别,评估模型推理能力的范围,从简单的规则应用到复杂的推理链。难度梯度由相关规则的复杂程度和得出解决方案所需的推理步骤数量决定。

为了确保公平性和更广泛的适用性,LogicGame 包含了中文和英文版本基准。

如下图,每个模型都会收到一组特定于给定问题的规则作为输入 prompt,以及一个相应的问题和一个 JSON 格式的输出约束,包括答案和步骤。

图片

图|LogicGame 中分类和评测方法的说明。分类中插图用紫色突出显示涉及数学的类别。

LogicGame 的评测方法使用自动化方法,不仅要评估答案的正确性,还要评估得出答案的步骤的正确性,具体包括评估模型的答案准确率(A-Acc)、步骤准确率(P-Acc)和答案步骤准确率(AP-Acc)。

每个问题答案的评分是通过比较模型的响应和参考答案来确定的。同样,根据 JSON 格式约束的定义,每个问题步骤的评分也是通过评估模型步骤与参考步骤的一致程度来实现的。

A-Acc:该指标用于评估所有给定问题答案的正确性,为每个答案提供二进制评估(0/1),从而表明其是否正确。

P-Acc:该指标评估步骤的正确性,根据所提供步骤与预期步骤之间的字符级相似度来衡量匹配百分比。在极少数情况下,如果 0 级问题是单步推理,其中没有提供步骤可供评判,则在评分时步骤准确性与答案准确性视为一致同等对待。

AP-Acc:该综合指标评估答案和步骤的整体准确性。其计算方法是使用逻辑 AND 运算将答案准确性和步骤准确性结合起来,得出一个总分。

这一评测方法确保模型遵循规则进行推理,并全面评估模型的推理能力。

表现如何?OpenAI o1 遥遥领先

如下图,不论在中英文版本中,在执行类别的最高难度 Level 3 下,o1-preview、o1-mini 在 14 个被评测模型中的得分遥遥领先,国内模型的得分未能破 10,甚至出现了多个 0 分;在规划类别的最高难度 Level 3 下,OpenAI o1 的领先优势亦是如此。

图片

图|14 个模型在 LogicGame 中文版本上的 AP-Acc% 指标性能。

图片

图|14 个模型在 LogicGame 英文版本上的 AP-Acc% 指标性能。

在执行类别中,随着 shot 数目的增加,模型的准确性有了显著提高。具体来说,更强大的模型(如 GPT-4o)在从 0-shot 转换到 1-shot 和 2-shot 时,AP-Acc 分数会有更大的提升,表明它们能够更好地利用额外的上下文信息来提高执行精度。

图片

图|LogicGame 中文版本在执行和规划类别上的少样本差异。

我们还观察到,在执行任务中,添加示例通常会提高模型在执行任务中的表现,尤其是在简单任务(Level 0)中。

图片

图|LogicGame 中文版本在不同难度级别上的 shot 差异设置与上图类似。

然而,1-shot 和 2-shot 设置对模型在不同难度级别上的影响有所不同。模型在 Level 0 中从示例中受益最大,但随着难度级别的提高,示例的影响会逐渐减弱。

在规划任务中,添加示例对模型在规划任务中的表现影响更为复杂。一些模型在从 0-shot 转换到 1-shot 或 2-shot 设置时,表现会下降,这表明额外的上下文信息可能会引入噪声,干扰模型对关键信息的理解。总体而言,1-shot 对模型的影响最明显,但随着难度级别的增加,其影响会逐渐减弱,而 2-shot 则更加不稳定,没有明显的规律。

在一项案例研究中,LLM 在黑白棋(Reversi)游戏中的表现几乎“惨不忍睹”,除了 OpenAI o1,其他模型的得分几乎为(接近于)0,这同样表明 LLM 在处理复杂规则和进行多步推理方面依然困难。

图片

图|表现最差的五个类别的 AP-Acc% 平均得分。热图中显示了每个类别的 AP-ACC% 平均得分,模型在执行和规划场景中的表现都很差,特别是在“Reversi”中,许多模型的得分接近零。

图片

图|一个带有模型输出的 Reversi 游戏示例,包括答案和步骤。

研究团队对这一失败表现进行了分析,认为有以下三点原因:

细节处理不足:例如,Claud 3.5 Sonnet 模型无法正确处理细节(如放置部分棋子或翻转部分棋子),这表明它们对规则的理解不够深入。

执行/规划规则理解不足:模型无法正确执行或规划游戏中的操作,这表明它们对游戏机制(如翻转机制)的理解存在缺陷。

过度更改:llama-3-8b-chat 模型对棋盘状态进行了过度更改,这表明它们对游戏规则的理解存在明显的偏差。

LLM 的推理能力仍有待提高

在这篇论文中,研究团队为评估 LLM 基于规则的推理能力,提出了一种新颖的基准 LogicGame,这一基准包含多个难度级别,重点评估模型对规则的理解、基于这些规则的执行以及规划能力。

同时,他们还开发了评估结果和推理过程的方法,确保模型忠实地遵循给定的规则,而不仅仅是猜测答案。

广泛的实验表明,目前的大模型在基于规则的推理任务中仍然表现出明显的不足。

对此,研究团队认为,LLM 的推理能力仍有待提高,尤其是在理解复杂规则、进行多步推理以及学习和应用新规则方面。

为使 LLM 能够更好地理解和执行规则,它们的推理能力还需要进一步改进,比如通过更有效的训练方法或引入新的推理机制。

此外,为了更全面地评估 LLM 的推理能力,需要开发更有效的评估方法。例如,通过引入更复杂的规则和更困难的推理任务。

一起来 battle!

想要证明你的大模型逻辑推理能力有多强?不妨参与 LogicGame 评测,与国内外众多大模型一起来 battle。

研究团队在 GitHub 上维护了一个 Leaderboard,分别展示模型在 LogicGame 中英文版和中文版的表现,其按照 AP-Acc% 进行排名,主要评估指标包括:

AP-Acc%(答案和步骤正确率)

A-Acc%(答案正确率)

P-Acc%(步骤正确率)

IFError%(指令遵循错误率)

JSError%(Json格式输出错误率)

图片

图|14 个大模型在中文版 LogicGame 上的表现

图片

图|14 个大模型在英文版 LogicGame 上的表现

那么,如何获取你的模型在 LogicGame 中英文版和中文版的表现呢?

研究团队在 GitHub 上存放了用于展示的 dev 数据,并提供了 Codabench(一个专门用于模型评测的平台,能够提供高效、公正且统一的评估环境)提交时所需的输入数据。你可以下载 zh_all 和 en_all 文件(分别代表中文版和英文版的数据全集),将其输入你的模型以获取模型回复,并将此回复作为 Codabench 提交时的输入数据,即可获得评测结果反馈。

最新文章
聊天被诬陷性骚扰犯法吗
一、聊天被诬陷性骚扰犯法吗在交流过程中受到指控涉嫌性骚扰,然而仅凭恶意的指责而缺乏实际行为作为支撑,此种情况并不符合犯罪构成要件。若该项诬告最终导致指控者承受了不当的制裁或名誉受到了实质性的伤害,那么诽谤者则有可能就其恶意
苹果哪款手机拍照效果最好?苹果十大最佳拍照手机排名
苹果当中拍照好的手机很多,苹果十大最佳拍照手机排名为:iPhone SE 2020,iPhone 12 Pro,iPhone 11,iPhone SE 2,iPhone 6S Plus,iPhone 6S,iPhone12 Pro Max,iPhone 12 mini,iphone 12,iPhone 13 mini,这十款苹果手机是目前拍照
联想笔记本电池驱动(联想笔记本进BIOS按什么键)
1. 引起读者的注意在现代社会中,笔记本电脑已经成为人们日常生活不可或缺的工具。随着使用时间的增加,笔记本电池的性能逐渐下降,给用户带来了不便。而联想作为知名的电脑品牌,其笔记本电池驱动更是备受关注。我们如何进入联想笔记本的B
一文全方位掌握“架构原则”:3 总则、4 域细则与 TOGAF 10 原则
架构设计不像数学公式或者物理定律那样有固定的解答。很多时候,它是设计师在各种需求、技术限制和未来规划之间做出的权衡结果,是一种最符合实际情况的“智慧输出”。不过,虽然架构设计充满了不确定性,但一些好的架构原则和思路可以帮助
湖南筱度引领企业SEO新营销浪潮
湖南筱度SEO优化推广服务,专注提升企业网络营销效果,助力企业开启互联网营销新篇章,实现品牌影响力与市场竞争力双提升。随着互联网技术的飞速发展,网络营销已经成为企业获取客户、提高品牌知名度的重要手段,在众多网络营销策略中,SEO
色情链接太多了吧,百度遭媒体质疑|1月21日坏消息榜
关注钛媒体每日、每月整理发布的行业坏消息榜,一榜略尽当日当月最具影响的坏消息。近日,有记者通过电脑页面和手机客户端,分别登录此前报道中涉及的贴吧,看到大多数贴吧已被彻底关停,但名为“苍XX”的贴吧,仍可通过手机客户端间断登录
百度搜索优化这样做,让你的流量蹭蹭暴涨!
对于SEOER来说,百度搜索优化是个老生常谈的话题。做好百度搜索引擎优化,不仅有助于网站在搜索引擎上获得良好的排名,带来的自然曝光和流量也十分可观。无论从品牌传播的角度还是从业务转化的角度,都大有裨益。那么,当网站访客流量遭遇
微信外链新闻:全面外链策略指南
网站外链建设规划目标:建立高质量的外链网络,提高网站在搜索引擎结果页面 (SERP) 中的排名和可见度。策略:* 创建有价值的内容:撰写信息丰富、引人入胜且相关的文章、博客文章和指南,为受众提供价值。* 接触相关网站和影响者:寻找相关
真人投票点赞拉票群,微信投票代投
真人投票拉票群,微信投票代投真人投票拉票群微信投票代投是一种便捷的投票服务,专为各类比赛活动设计。本群提供真人拉票服务,确保每一票都是真实有效的,以支持您的选手获得更多关注与荣誉。我们还提供代投服务,无论您的选手身处何地,
探索“天空之城”新纪元——城市低空起降设施体系规划的若干思考
点击蓝字关注我们上海市土木工程学会作为自然资源领域专业咨询服务商,城建设计集团一直在思考如何率先在空地一体化领域开展规划探索与创新转型,先行成立城市立体交通研发中心(低空交通中心),聚焦低空经济发展的规划设计和技术应用,努
相关文章
推荐文章
发表评论
0评