专家说,Google的最新AI模型报告缺乏关键安全细节。

在推出最强大的AI模型Gemini 2.5 Pro的星期四,Google发布了一份技术报告,显示了其内部安全评估的结果。但是,专家说,该报告很容易确定模型可能构成哪些风险。

专家说,Google的最新AI模型报告缺乏关键安全细节。

技术报告提供了有时并且有时不讨人喜欢的信息,这些信息并不总是会广泛广泛地宣传其AI。总体而言,AI社区将这些报告视为支持独立研究和安全评估的善意努力。

Google采用了与某些AI竞争对手不同的安全报告方法,只有在其认为是从“实验”阶段毕业的模型后才发布技术报告。该公司还没有在这些文章中包括其所有“危险能力”评估的发现;它保留这些单独的审核。

几位专家TechcruNCH与Demini 2.5 Pro报告的稀疏仍然感到失望,但是他们指出,这并未提及Google的边境安全框架(FSF)。 Google去年引入了FSF,以确定可能造成“严重伤害”的未来AI功能的一种努力。

“此[报告]非常稀疏,包含最小的信息,并且在模型已经向公众提供后数周后出现,” AI政策与战略研究所的联合创始人Peter Wildeford告诉TechCrunch。 “不可能验证Google是否履行其公开承诺,因此无法评估其模型的安全性。”

Secure AI项目的联合创始人Thomas Woodside表示,尽管Google很高兴Google发布了Gemini 2.5 Pro的报告,但他并不相信该公司对及时补充安全评估的承诺。 wOodside指出,Google上次发布危险能力测试的结果是在2024年6月 - 同年2月宣布的模型。

没有太大的信心,Google尚未为Gemini 2.5 Flash提供报告,这是该公司上周宣布的较小,更高效的模型。发言人告诉TechCrunch Flash的报告即将来临。

“我希望这是Google的承诺,可以开始发布更频繁的更新,” Woodside告诉TechCrunch。 “这些更新应包括尚未公开部署的模型的评估结果,因为这些模型也可能构成严重的风险。”

Google可能是第一个为模型提出标准化报告的AI实验室之一,但它并不是唯一被指控近期透明度不足的人。 Meta对其新的Llama 4 OPE发布了类似的轻薄安全评估N模型,Openai选择不发布其GPT-4.1系列的任何报告。

挂在Google的头上是一位技术巨头向监管机构提供高标准AI安全测试和报告的保证。两年前,谷歌告诉美国政府,它将在“范围内”发布所有“重要”公共AI模型的安全报告。该公司以对其他国家的类似承诺跟进了这一承诺,承诺围绕AI产品“提供公共透明度”。

凯文·班克斯顿(Kevin Bankston)是民主与技术中心AI治理的高级顾问,称零星和Vague的趋势报道了AI安全的“竞赛”。

“结合报道说,诸如OpenAI之类的竞争实验室已经剃光了他们的安全测试时间,在释放之前从几个月到几天发行,这本针对Google顶级AI模型的微不足道的文档讲述了一个令人不安的故事,讲述了一场竞赛到BO随着公司将其模型推向市场的AI安全性和透明度,”他告诉TechCrunch。

Google在声明中表示,尽管在其技术报告中尚未详细介绍,但它在发布之前对模型进行了安全测试和“对抗性红色团队”。

avatar

知识博士 管理员

发布了:21112篇内容
查阅文章

发布评论

验证码

QQ交谈

在线咨询:QQ交谈

工作时间:每天9:00 - 18:00
若无特殊,节假日休息

我的微信