Openai船GPT-4.1没有安全报告
周一,Openai推出了一个新的AI模型GPT-4.1家族,该公司表示,该模型在某些测试中的表现优于其一些现有模型,尤其是用于编程的基准。但是,GPT-4.1并未发行安全报告,该报告通常伴随OpenAI的模型发行(称为型号或系统卡)。
截至周二早上,Openai尚未发布针对GPT-4.1的安全报告,而且看来不打算这样做。 OpenAI发言人Shaokyi Amdo在TechCrunch的一份声明中说:“ GPT-4.1不是边境模型,因此不会为此发布单独的系统卡。”
AI实验室发布安全报告是相当标准的,显示他们内部进行的测试类型以及与第三方合作伙伴一起评估特定模型的安全性。这些报告偶尔会揭示出令人讨厌的信息,例如模型倾向于欺骗人类或具有危险的说服力。由d大,AI社区认为这些报告是AI实验室支持独立研究和红色团队的良好信仰努力。
但是在过去的几个月中,领先的AI实验室似乎降低了其报告标准,促使安全研究人员的反对。有些像Google一样,已经拖延了安全报告,而另一些则发布了缺乏通常细节的报告。
OpenAI最近的往绩也不例外。 12月,该公司批评了一份安全报告,其中包含与其部署到生产中的版本不同的模型的基准结果。上个月,Openai在发布该模型的系统卡之前几周推出了一个模型,深入研究。
史蒂文·阿德勒(Steven Adler)是前OpenAI安全研究人员,他指出,TechCrunch没有任何法律或法规要求安全报告 - 他们是自愿的。然而,Openai已对政府对Incre作出了一些承诺ASE围绕其模型的透明度。在2023年英国AI安全峰会之前,Openai在博客文章中,名为System Cards的“关键部分”的问责制方法。 Openai说,在2025年的巴黎AI行动峰会上,系统卡提供了对模型风险的宝贵见解。
“系统卡是AI行业的透明度的主要工具,并描述了进行了什么安全测试,” Adler在电子邮件中告诉TechCrunch。 “当今的透明度规范和承诺最终是自愿的,因此,每个AI公司决定是否或何时发布给定模型的系统卡。”
GPT-4.1在当前和前雇员对OpenAI的安全实践引起担忧的时候,没有系统卡。上周,阿德勒(Adler)和其他11名前纳伊(Emopenai)雇员在埃隆·马斯克(Elon Musk)反对Openai的案子中提交了拟议的法庭摘要安全工作的卢比。 《金融时报》最近报道说,受到竞争压力的刺激的Chatgpt制造商削减了其分配给安全测试人员的时间和资源。
GPT-4.1并不是OpenAI阵容中表现最高的AI模型,但它确实在效率和延迟部门中取得了可观的提高。 Secure AI项目的联合创始人兼政策分析师Thomas Woodside告诉TechCrunch,绩效改进使安全报告更加重要。他说,模型越复杂,风险越高。
。许多AI实验室已努力将安全报告要求编纂为法律。例如,OpenAI反对加利福尼亚的SB 1047,这将要求许多AI开发人员审核和发布对他们公开的模型的安全评估。
发布评论