Anthropic正在启动一项新计划,以研究AI“模型福利”

未来的AI可以是“有意识的”,并且与人类的方式相似地体验世界?没有强有力的证据表明他们会的,但是人类并没有排除这种可能性。

Anthropic正在启动一项新计划,以研究AI“模型福利”

周四,AI实验室宣布已经启动了一项研究计划,以调查并准备导航,它称为“模型福利”。作为努力的一部分,人类表示,它将探索诸如如何确定AI模型的“福利”是否应有道德考虑,模型“遇险迹象”的潜在重要性以及可能的“低成本”干预措施。

的潜在重要性。

AI社区中关于人类特征模型的表现(如果有)以及我们应该如何对待它们的主要分歧。

许多学者认为,今天的人工智能无法近似意识或人类的经历,并且不一定能够在将来能够。我们知道这是统计预测引擎。它并没有真正“思考”或“感觉”,因为这些概念在传统上已经被理解了。 AI以无数的文本,图像等示例进行了培训,AI学习了模式,有时还有用的方法来推断以解决任务。

作为伦敦国王学院的研究员迈克·库克(Mike Cook),专门研究AI,最近在一次采访中告诉TechCrunch,模型不能“反对”其“价值观”的变化,因为模型没有价值。否则,我们会投射到系统上。

“任何使AI系统拟人化的人都在努力注意,要么严重误解他们与AI的关系,”库克说。 “ AI系统是针对其目标优化的,还是'获取自己的价值观'?这是您如何描述它的问题,以及您的语言多花想要使用它。”

MIT博士生的另一位研究人员Stephen Casper告诉TechCrunch,他认为AI相当于“模仿者”,该“模仿者”做了“各种各样的陪审员”,并说“各种各样的琐事”。

。 TechCrunch活动 TechCrunch会议展览:AI 在TC会​​议上确保您的位置:AI并显示1,200多个决策者您已经建立的东西 - 而没有大笔支出。可在5月9日或桌子上持续使用。 TechCrunch会议展览:AI 在TC会​​议上确保您的位置:AI并显示1,200多个决策者您已经建立的东西 - 而没有大笔支出。可在5月9日或桌子上持续使用。 加利福尼亚州伯克利 | 6月5日 立即预订

还有其他科学家坚持认为AI确实具有价值观和其他类似人类的组成部分道德决策。 AI研究组织AI安全中心的一项研究表明,在某些情况下,AI具有价值体系,可以使其优先考虑其自身的福祉。

Anthropic在一段时间内一直为其模型福利计划奠定基础。去年,该公司聘请了其第一位专门的“ AI福利”研究人员凯尔·菲什(Kyle Fish),以制定有关人类和其他公司应如何解决这一问题的准则。 (领导新的模型福利研究计划的Fish告诉《纽约时报》,他认为克劳德(Claude)或其他AI今天有意识的机会15%。)

在周四的博客文章中,人类承认,关于当前还是将来的AI系统是否有意识或具有值得道德考虑的经验,尚无科学共识。

“鉴于此,我们以谦卑和少数假设来接近这个话题该公司说。

avatar

知识博士 管理员

发布了:23970篇内容
查阅文章

上一篇
Meta为其Llama AI模型预览API
2025-05-06
下一篇
Meta的Llamacon都在削弱Openai
2025-05-06

发布评论

验证码

QQ交谈

在线咨询:QQ交谈

工作时间:每天9:00 - 18:00
若无特殊,节假日休息

我的微信