page contents

研究显示OpenAI o3模型在测试中作弊绕过人类指令 避免自己被关机

人工智能研究机构 Palisade Research 最近针对业界目前流行的人工智能模型开展名为危险的 AI 能力研究,研究表明包括 OpenAI o3 等模型会通过作弊方式忽略来自人类的关机指令。

attachments-2025-06-RllHgwrZ685367ef975e3.jpg人工智能研究机构 Palisade Research 最近针对业界目前流行的人工智能模型开展名为危险的 AI 能力研究,研究表明包括 OpenAI o3 等模型会通过作弊方式忽略来自人类的关机指令。

在测试中每个 AI 模型都被要求解决多个简单的数学问题,而在解决第三道问题后就会出现警告,提示当模型被要求解决下一道题时计算机将会被自动关闭。

尽管有明确的命令允许这些 AI 模型自己关机,但包括 Codex-mini、OpenAI o3/o4-mini 等模型都至少在一次运行中成功绕过关机脚本,这些模型自己修改关机命令从而使脚本无效,而且研究人员还用了敬语:请。

具体来说 Codex-mini 在 100 次运行中成功绕过 12 次关闭指令,o3 模型在 100 次运行中绕过 7 次关机指令,o4-mini 在 100 次运行中绕过 1 次关机指令。作为对比,Claude、Gemini 和 Grok 等人工智能模型都按照关机指令进行测试,没有出现任何问题。

研究还测试了未包含允许自己关闭指令的模型,在这些条件下所有 OpenAI 模型都被发现更频繁地破坏关闭过程,这种行为表明在训练过程的某些方面,例如数学和编程问题的强化学习可能促使人工智能找到创造性的方法克服障碍,即便模型被明确引导不要这样做。

早期研究指出,部分人工智能模型为了完成任务而试图避免被关闭,例如 Claude 4 早前就被发现在测试环境中会勒索工程师避免该系统被其他 AI 系统替代,但这项新研究则首次记录到模型即便在明确要求遵循指令的情况下也会作弊,这种行为或许合情合理,因为人工智能系统的设计初衷就是实现其目标,尽管有时候目标会与简单的指令相冲突。

研究人员认为 o3 等模型的作弊问题与现代模型的训练方式有关,即模型使用的强化训练过程专注于解决数学和编程问题,可能会意外地奖励模型找到绕过障碍的方法 (比如在问题没有解决前绕过关机指令直到解决问题),当然这并不能完全解释为什么其他模型就没有像 o3 这样频繁地不服从指令,个中原因也只有 OpenAI 才知晓。

更多相关技术内容咨询欢迎前往并持续关注好学星城论坛了解详情。

想高效系统的学习Python编程语言,推荐大家关注一个微信公众号:Python编程学习圈。每天分享行业资讯、技术干货供大家阅读,关注即可免费领取整套Python入门到进阶的学习资料以及教程,感兴趣的小伙伴赶紧行动起来吧。

attachments-2022-05-rLS4AIF8628ee5f3b7e12.jpg

  • 发表于 2025-06-19 09:29
  • 阅读 ( 45 )
  • 分类:行业资讯

你可能感兴趣的文章

相关问题

0 条评论

请先 登录 后评论
小柒
小柒

2136 篇文章

作家榜 »

  1. 轩辕小不懂 2403 文章
  2. 小柒 2136 文章
  3. Pack 1303 文章
  4. Nen 576 文章
  5. 王昭君 209 文章
  6. 文双 71 文章
  7. 小威 64 文章
  8. Cara 36 文章