如果竞争对手发布“高风险” AI,Openai可能会“调整”其保障措施

OpenAI已更新了其准备性框架 - 它用于评估AI模型安全性并确定开发和部署过程中必要的保障措施的内部系统。在更新中,Openai表示,如果竞争AI实验室释放了“高风险”系统而没有类似保护的“高风险”系统,则可能会“调整”其安全要求。

如果竞争对手发布“高风险” AI,Openai可能会“调整”其保障措施

这一变化反映了商业AI开发人员迅速部署模型的竞争压力日益增加。 Openai被指控降低安全标准以更快的发行速度,并且未能及时提供详细说明其安全性测试的报告。 上周,有12名前OpenAI雇员对埃隆·马斯克(Elon Musk)针对OpenAI的案件提交了简介,认为该公司将在完成其计划的公司重组时削减更多的安全角色。

也许会受到批评,Openai声称它不会使这些政策调整ly,并且它将保持其保障措施“更具保护性”。

“如果另一个边境AI开发人员在没有可比的保障措施的情况下发布了高风险系统,我们可能会调整我们的要求,” OpenAI在周二下午发表的博客文章中写道。 “但是,我们首先会严格确认风险格局实际上已经发生了变化,公开承认我们正在进行调整,评估调整并不能有意义地增加严重伤害的总体风险,并且仍然使保障措施保持更加保护。”

>

>

>

刷新的准备框架还清楚地表明,Openai更依赖自动化评估来加快产品开发。该公司表示,虽然它并没有完全放弃以人为主导的测试,但它已经建立了“越来越多的自动化评估”,据说可以“跟上更快的[释放]节奏。”

一些报告C毫无疑问。根据《金融时报》的报道,OpenAI为即将到来的主要模型提供了不到一周的安全检查,这是与以前的发行版相比的压缩时间表。该出版物的消息来源还声称,现在,OpenAI的许多安全测试现在都是在较早版本的模型上进行的,而不是向公众发布的版本。

在声明中,Openai提出了这样的观念,即它在安全方面妥协。

OpenAI正在悄悄地减少其安全承诺。

从Openai的准备框架清单中省略了更改:

不再需要对固定型号进行安全测试https://t.co/otmeiatsjs

- 史蒂文·阿德勒(@sjgadler)2025年4月15日

OpenAI框架的其他更改与该公司如何根据风险对模型进行分类有关,包括可以隐藏其功能,逃避保障措施,防止其关闭甚至自我复制的模型。 OPEnai说,现在将关注模型是否达到两个阈值之一:“高”功能还是“关键”功能。

OpenAI对前者的定义是一种模型,可以“扩大现有的严重伤害途径”。后者是公司的模型“引入了前所未有的新途径”。

“涵盖了达到高功能的系统必须具有保障措施,这些保障措施在部署之前就足够最大程度地减少了严重伤害的风险,” OpenAI在其博客文章中写道。 “达到关键能力的系统还需要足够最大程度地减少开发过程中相关风险的保障措施。”

更新是自2023年以来对准备框架进行的第一个OpenAI。

avatar

知识全能王 管理员

发布了:21081篇内容
查阅文章

发布评论

验证码

QQ交谈

在线咨询:QQ交谈

工作时间:每天9:00 - 18:00
若无特殊,节假日休息

我的微信