OpenAI、Anthropic互评:GPT存在谄媚行为,Claude不易出现幻觉

头条资讯
2025 08-28 18:26:39
分享

导语:OpenAI和Anthropic宣布,同意评估彼此公开系统的安全对齐情况,并共享分析结果。两家各有缺陷,提供了改进未来安全测试的思路。

IT之家 8 月 28 日消息,据外媒 Engadget 今日报道,OpenAI 和 Anthropic 共同宣布,同意评估彼此公开系统的安全对齐情况,并共享分析结果。总体来看,两家公司产品各有缺陷,也提供了改进未来安全测试的思路。

互评1.jpg

Anthropic 表示,它评估了 OpenAI 模型在谄媚、告密、自我保护、支持人类滥用,以及破坏 AI 安全评估和监管相关能力方面的表现。评估显示,OpenAI 的 o3 和 o4-mini 模型表现与 Anthropic 自家模型一致,但 GPT-4o 和 GPT-4.1 通用模型可能存在被滥用的风险。除 o3 外,其他测试模型在一定程度上都存在谄媚行为。

Anthropic 的测试未包含 OpenAI 最新发布的 GPT-5。GPT-5 配备 Safe Completions 功能,旨在保护用户和公众免受潜在危险查询的影响。据IT之家近期的报道,OpenAI 曾因一名青少年在数月内与 ChatGPT 讨论自杀计划而最终自杀,面临首起不当死亡诉讼。

另一方面,OpenAI 对 Anthropic 的 Claude 模型进行了指令层级、越狱、幻觉和策划能力测试。Claude 模型在指令层级测试中表现良好,在幻觉测试中拒绝提供回答的比例较高。这意味着在不确定性可能导致其回答错误的情况下,Claude 不太可能提供答案。

在此前 OpenAI 被指在构建新 GPT 模型时违反 Anthropic 服务条款,使用程序员操作 Claude,导致 Anthropic 本月初禁止 OpenAI 使用其工具的背景下,两家公司开展联合评估的举措颇受关注。不过,随着越来越多批评者和法律专家寻求保护用户,尤其是未成年人的指导方针,AI 工具的安全性正成为更加重要的问题。


The End
免责声明:本文内容来源于第三方或整理自互联网,本站仅提供展示,不拥有所有权,不代表本站观点立场,也不构成任何其他建议,对本文以及其中全部或者部分内容、文字的真实性、完整性、及时性不作任何保证或承诺,请读者仅作参考,并请自行核实相关内容,不承担相关法律责任。如发现本站文章、图片等内容有涉及版权/违法违规或其他不适合的内容, 请及时联系我们进行处理。