OpenAI部署新监控系统,防范o3和o4 - mini提供生物和化学威胁建议

业界
2025
04/17
11:13
IT之家
分享
评论

4 月 17 日消息,人工智能公司 OpenAI 宣布部署了一套新的监控系统,专门用于监测其最新的人工智能推理模型 o3 和 o4-mini,防止这些模型提供可能引发生物和化学威胁的有害建议。根据 OpenAI 的安全报告,该系统旨在确保模型不会为潜在的有害攻击提供指导。

据 OpenAI 表示,o3 和 o4-mini 相比之前的模型在能力上有显著提升,但同时也带来了新的风险。根据 OpenAI 内部的基准测试,o3 特别擅长回答有关制造某些类型生物威胁的问题。因此,为了降低相关风险,OpenAI 开发了这套被称为“安全导向推理监控器”的新系统。

据IT之家了解,该监控器经过专门训练,能够理解 OpenAI 的内容政策,并运行在 o3 和 o4-mini 之上。它的设计目标是识别与生物和化学风险相关的提示词,并指示模型拒绝提供这方面的建议。

为了建立一个基准,OpenAI 的红队成员花费了大约 1000 小时,标记了 o3 和 o4-mini 中与生物风险相关的“不安全”对话。在模拟安全监控器的“阻断逻辑”测试中,模型拒绝回应风险提示的比例达到了 98.7%。然而,OpenAI 也承认,其测试并未考虑到用户在被监控器阻断后尝试新提示词的情况。因此,公司表示将继续依赖部分人工监控来弥补这一不足。

尽管 o3 和 o4-mini 并未达到 OpenAI 所设定的生物风险“高风险”阈值,但与 o1 和 GPT-4 相比,早期版本的 o3 和 o4-mini 在回答有关开发生物武器的问题上更具帮助性。根据 OpenAI 最近更新的准备框架,公司正在积极跟踪其模型可能如何帮助恶意用户更容易地开发化学和生物威胁。

OpenAI 正在越来越多地依靠自动化系统来降低其模型带来的风险。例如,为了防止 GPT-4o 的原生图像生成器创建儿童性虐待材料(CSAM),OpenAI 表示其使用了与 o3 和 o4-mini 相似的推理监控器。

然而,一些研究人员对 OpenAI 的安全措施提出了质疑,认为该公司并没有像人们期望的那样重视安全问题。其中,OpenAI 的红队合作伙伴 Metr 表示,他们在测试 o3 的欺骗性行为基准时时间相对有限。此外,OpenAI 决定不为其本周早些时候发布的 GPT-4.1 模型发布安全报告。

【来源:IT之家

THE END
广告、内容合作请点击这里 寻求合作
OpenAI
免责声明:本文系转载,版权归原作者所有;旨在传递信息,不代表 的观点和立场。

相关热点

4 月 16 日消息,科技媒体 The Verge 昨日(4 月 15 日)发布博文,报道称 OpenAI 公司正开发一款类似 X 的社交网络。
业界
北京时间4月16日,据路透社报道,美国加州总检察长办公室在周二公开的一封信中表示,已拒绝埃隆·马斯克(Elon Musk)的要求,不会加入他对OpenAI提起的诉讼。
业界
4月12日消息,金融时报(FT)昨日(4月11日)发布博文,报道称OpenAI大幅压缩最新大型语言模型(LLM)安全测试时间,此前需要数月时间,而最新o3模型仅有几天时间。
业界
北京时间4月12日,据彭博社报道,当地时间周五,12名OpenAI前员工在一份法庭之友文件中力挺埃隆·马斯克(Elon Musk),反对OpenAI CEO萨姆·奥特曼(Sam Altman)将公司重组为营利性实体。
业界
4 月 11 日消息,科技媒体 The Verge 昨日(4 月 10 日)发布博文,报道称 OpenAI 公司计划下周发布 GPT-4.1系列、o3系列在内的多款 AI 模型。
业界

相关推荐

1
3
Baidu
map